Curso de SQL Avanzado
SQL (Structured Query Language) es un potente lenguaje utilizado para gestionar y manipular bases de datos relacionales.
Esta capacitación en vivo dirigida por un instructor (en línea o presencial) está dirigida a administradores, desarrolladores y analistas de bases de datos de nivel intermedio que desean dominar funcionalidades avanzadas SQL para operaciones de datos complejas y administración de bases de datos.
Al final de esta formación, los participantes serán capaces de:
- Realice técnicas de consulta avanzadas mediante uniones, subconsultas y uniones complejas.
- Agregue, actualice y elimine datos, tablas, vistas e índices con precisión.
- Garantice la integridad de los datos a través de transacciones y manipule las estructuras de las bases de datos.
- Cree y administre bases de datos de manera eficiente para un almacenamiento y recuperación de datos sólidos.
Formato del curso
- Charla y discusión interactiva.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertarlo.
Programa del Curso
Lección 1: Consultas con uniones y uniones avanzadas
- Consulta de varias tablas con uniones
- Uniones avanzadas
- Cálculo con COMPUTE
Lección 2: Consultas con subconsultas
- Subconsultas
Lección 3: Adición de datos
- Inserción de datos
- SELECCIONE INTO
Lección 4: Actualización y eliminación de datos
- Actualización de registros
- Eliminación de registros
- Eliminación del contenido de las tablas
Lección 5: Manipulación de tablas y vistas
- Creación de tablas
- Modificación de tablas
- Eliminación de tablas
- Adición y eliminación de vistas
Lección 6: Manipulación de índices
- Adición y eliminación de índices
Lección 7: Garantizar la integridad de los datos con las transacciones
- Transacciones
Lección 8: Creación de bases de datos
- Creación de una base de datos con SQL
- Eliminación de una base de datos
Requerimientos
- Comprensión de la sintaxis básica SQL y las técnicas de consulta
- Experiencia en la escritura y ejecución de consultas SQL, incluidas las instrucciones SELECT
- Finalización de SQL: Fundamentos de consulta o conocimientos equivalentes
Audiencia
- Database Administradores con el objetivo de mejorar su SQL experiencia
- Desarrolladores y analistas que buscan crear y administrar estructuras de bases de datos avanzadas
- Profesionales de TI que buscan optimizar y manipular datos con técnicas avanzadas SQL
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de SQL Avanzado - Booking
Curso de SQL Avanzado - Enquiry
SQL Avanzado - Consultas
Consultas
Testimonios (7)
Lo que más me gustó fue la parte práctica.
Andreea - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
El ritmo y el equilibrio de la parte de la lectura y el ejercicio estuvo muy bien hecho. Todo el curso fue muy tranquilo.
Sebastian - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
Muy bien estructurado, orientado a ejercicios, aplicabilidad.
Brindusa-Angela - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
Los ejercicios fueron una muy buena manera de estructurar la información y la mejor manera de asegurarse de que entendió/resolvió todo lo presentado.
Raluca - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
Todo, los ejercicios, las explicaciones minuciosas, ¡Philip es un gran entrenador!
Zsolt - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
Ejercicios prácticos
Bob - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
El estilo de enseñanza, los ejemplos y el ambiente de aprendizaje junto con la forma en que se estructuró la parte de los ejercicios.
EMANUEL-MIRCEA - REGNOLOGY ROMANIA S.R.L.
Curso - SQL Advanced
Traducción Automática
Próximos cursos
Cursos Relacionados
Curso de Amazon Redshift
21 HorasAmazon Redshift es un servicio de almacenamiento de datos basado en la nube a escala de petabytes en AWS.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Amazon Redshift.
Al final de esta formación, los participantes serán capaces de:
- Instalar y configurar Amazon Redshift
- Cargue, configure, implemente, consulte y visualice datos con Amazon Redshift
Audiencia
- Desarrolladores
- Profesionales de TI
Formato del curso
- En parte conferencia, en parte discusión, ejercicios y práctica práctica intensa
Nota
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertarlo.
Advanced Apache Iceberg
21 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o en el sitio) está dirigida a profesionales de datos de nivel avanzado que desean optimizar los flujos de trabajo de procesamiento de datos, garantizar la integridad de los datos e implementar soluciones sólidas de data lakehouse que puedan manejar las complejidades de las aplicaciones modernas de big data.
Al final de esta capacitación, los participantes serán capaces de:
- Obtenga una comprensión profunda de la arquitectura de Iceberg, incluida la gestión de metadatos y el diseño de archivos.
- Configure Iceberg para obtener un rendimiento óptimo en varios entornos e intégrelo con múltiples motores de procesamiento de datos.
- Administre tablas Iceberg a gran escala, realice cambios de esquema complejos y controle la evolución de las particiones.
- Domine las técnicas para optimizar el rendimiento de las consultas y la eficiencia del análisis de datos para grandes conjuntos de datos.
- Implemente mecanismos para garantizar la coherencia de los datos, gestionar las garantías transaccionales y gestionar los errores en entornos distribuidos.
Apache Iceberg Fundamentals
14 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o en el sitio) está dirigida a profesionales de datos de nivel principiante que deseen adquirir el conocimiento y las habilidades necesarias para utilizar Apache Iceberg de manera efectiva para administrar conjuntos de datos a gran escala, garantizar la integridad de los datos y optimizar los flujos de trabajo de procesamiento de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Obtenga una comprensión profunda de la arquitectura, las características y los beneficios de Apache Iceberg.
- Obtenga información sobre los formatos de tabla, la creación de particiones, la evolución del esquema y las capacidades de viaje en el tiempo.
- Instala y configura Apache Iceberg en diferentes entornos.
- Crear, administrar y manipular tablas Iceberg.
- Comprender el proceso de migración de datos de otros formatos de tabla a Iceberg.
Big Data Consulting
21 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean mejorar sus habilidades en arquitectura de datos, gobernanza, computación en la nube y tecnologías de big data para administrar y analizar de manera efectiva grandes conjuntos de datos para la migración de datos dentro de sus organizaciones.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender los conceptos y componentes fundamentales de varias arquitecturas de datos.
- Obtenga una comprensión completa de los principios de gobernanza de datos y su importancia en los entornos normativos.
- Implemente y gestione marcos de gobernanza de datos como Dama y Togaf.
- Aproveche las plataformas en la nube para un almacenamiento, procesamiento y gestión de datos eficientes.
Big Data & Fundamentos de Sistemas de Bases de Datos
14 HorasEl curso es parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
Azure Data Lake Storage Gen2
14 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o presencial) está dirigida a ingenieros de datos de nivel intermedio que deseen aprender a usar Azure Data Lake Storage Gen2 para soluciones efectivas de análisis de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Comprenda la arquitectura y las características clave de Azure Data Lake Storage Gen2.
- Optimice el almacenamiento y el acceso a los datos en cuanto a costes y rendimiento.
- Integre Azure Data Lake Storage Gen2 con otros Azure servicios para análisis y procesamiento de datos.
- Desarrolle soluciones con la API Azure de Data Lake Storage Gen2.
- Solucione problemas comunes y optimice las estrategias de almacenamiento.
Bóveda de Datos: Creación de un Almacén de Datos Escalable
28 HorasEn esta capacitación en vivo dirigida por un instructor en Ecuador, los participantes aprenderán cómo construir un Data Vault.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos de arquitectura y diseño detrás de Data Vault 2.0 y su interacción con Big Data, NoSQL e IA.
- Utilice técnicas de almacenamiento de datos para permitir la auditoría, el seguimiento y la inspección de datos históricos en un almacén de datos.
- Desarrolle un proceso ETL (Extracción, Transformación, Carga) coherente y repetible.
- Construya e implemente almacenes altamente escalables y repetibles.
Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos
21 HorasApache Druid es un almacén de datos distribuidos, de código abierto, orientado a columnas, escrito en Java . Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar paneles de control rápidos, interactivos y analíticos para usuarios finales. Druid es utilizado por empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal y Yahoo.
En este curso en vivo dirigido por un instructor, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en druidas en un entorno de laboratorio.
Formato del curso
- Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para evaluar la comprensión
Greenplum Database
14 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o en el sitio) está dirigida a administradores que desean configurar Greenplum Database soluciones de inteligencia empresarial y almacenamiento de datos.
Al final de esta capacitación, los participantes serán capaces de:
- Aborde las necesidades de procesamiento con Greenplum.
- Realizar operaciones ETL para el procesamiento de datos.
- Aproveche las infraestructuras de procesamiento de consultas existentes.
IBM Datastage For Administrators and Developers
35 HorasEsta capacitación en vivo dirigida por un instructor en Ecuador (en línea o en el sitio) está dirigida a profesionales de TI de nivel intermedio que desean tener una comprensión integral de IBM DataStage desde una perspectiva administrativa y de desarrollo, lo que les permite administrar y utilizar esta herramienta de manera efectiva en sus respectivos lugares de trabajo.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos básicos de DataStage.
- Aprenda a instalar, configurar y gestionar eficazmente los entornos de DataStage.
- Conéctese a varias fuentes de datos y extraiga datos de manera eficiente de bases de datos, archivos planos y fuentes externas.
- Implementar técnicas efectivas de carga de datos.
Apache Kylin: Del clásico OLAP al almacén de datos en tiempo real
14 HorasEsta formación en directo dirigida por un instructor en Ecuador (en línea o presencial) está destinada a profesionales de datos grandes de nivel intermedio que desean utilizar Apache Kylin para construir almacenes de datos en tiempo real y realizar análisis multidimensionales en conjuntos de datos a gran escala.
Al finalizar esta formación, los participantes podrán:
- Configurar e instalar Apache Kylin con fuentes de datos de transmisión en tiempo real.
- Diseñar y construir cubos OLAP para tanto datos por lotes como de transmisión.
- Ejecutar consultas complejas con latencia subsegundaria utilizando la interfaz SQL de Kylin.
- Integrar Kylin con herramientas BI para visualización interactiva de datos.
- Optimizar el rendimiento y gestionar los recursos de manera efectiva en Kylin.