Todos los cursos
En este programa, el participante adquiere las habilidades que le permiten comprender y desplegar el ecosistema de Hadoop on-premise, es decir en su propia infraestructura, utilizando tecnologías de virtualización como docker y kubernete, e identifica plenamente como dicho ecosistema es desplegado en los principales proveedores cloud: AWS, Azure y GCP, utilizando para ello, los principales servicios auto-gestionados, estando así en la capacidad de satisfacer la demanda creciente del mercado, en relación a contar con profesionales con conocimientos en entornos Híbridos de Big Data (on-presmise & on-cloud), así mismo el participante aprende el lenguaje de programación Python requerido en el contexto de proyectos de Big Data para transformar los datos de formatos crudos (RAW) a formatos estructurados.
Descargar Temario
En este programa, el participante adquiere las habilidades que le permiten comprender y desplegar el ecosistema de Hadoop on-premise, es decir en su propia infraestructura, utilizando tecnologías de virtualización como docker y kubernete, e identifica plenamente como dicho ecosistema es desplegado en los principales proveedores cloud: AWS, Azure y GCP, utilizando para ello, los principales servicios auto-gestionados, estando así en la capacidad de satisfacer la demanda creciente del mercado, en relación a contar con profesionales con conocimientos en entornos Híbridos de Big Data (on-presmise & on-cloud), así mismo el participante aprende el lenguaje de programación Python requerido en el contexto de proyectos de Big Data para transformar los datos de formatos crudos (RAW) a formatos estructurados.
Descargar Temario
En este programa, el participante adquiere las habilidades que le permiten comprender y desplegar el ecosistema de Hadoop on-premise, es decir en su propia infraestructura, utilizando tecnologías de virtualización como docker y kubernete, e identifica plenamente como dicho ecosistema es desplegado en los principales proveedores cloud: AWS, Azure y GCP, utilizando para ello, los principales servicios auto-gestionados, estando así en la capacidad de satisfacer la demanda creciente del mercado, en relación a contar con profesionales con conocimientos en entornos Híbridos de Big Data (on-presmise & on-cloud), así mismo el participante aprende el lenguaje de programación Python requerido en el contexto de proyectos de Big Data para transformar los datos de formatos crudos (RAW) a formatos estructurados.
Descargar Temario
En el programa de Data Engineer II, el participante adquiere las habilidades cognitivas que le permiten entender, diseñar y desarrollar según sea el caso procesos ETL y/o ELT, siendo capaz de identificar los principales frameworks ETL/ELT, formándose en el uso aplicado de Pentaho Data Integration (PDI), la cual forma parte de la suite de analítica provista por la compañía japonesa HITACHI, esto le permitirá desarrollar casos de uso y pruebas de concepto para el tratamiento de datos por streaming en real time y/o near real time, todo ello con el despliegue de clusters con Apache Kafka y Apache Flink.
Descargar Temario
Aprende a implementar soluciones de Cloud Big Data en la nube de Azure, desde la captura de datos hasta su explotación por medio de laboratorios 100% prácticos. En este programa aprenderás a utilizar herramientas de Big Data y Cloud como Azure SQL, Azure CLI, Data Studio, Azure VNets, Cosmos DB, Table Storage, Blob Storage, File Storage, Synapse Analytics, Spark sobre Databricks, HDInsight, Datafactory, Azure Functions, EventHub, Stream Analytics, entre muchas otras herramientas.
Aprende a implementar soluciones de Cloud Big Data en la nube de AWS, desde la captura hasta su explotación y visualización en tiempo real por medio de laboratorios prácticos: Kinesis Firehose, Kinesis Data Stream, DMS, S3, DynamoDB, WCU, Redshift, Lambda, Glue, Databricks, EMR, Hadoop, HIve, Spark, VPC, AWS CLI, RDS, EC2, S3, Cloudwatch, Boto3, Athena, IAM y muchas otras herramientas. Aprenderás a usar todas estas herramientas por medio de patrones de diseño e integración con entornos de Data Lakes.
Aprende a implementar soluciones de Cloud Big Data en nube utilizando el mix tecnológico oficial de Google Cloud Platform, Compute Engine, Cloud Storage, Cloud SQL, Kubernetes Engine, Big Query, Dataflow, entre muchas otras, desde la captura del dato, ingesta, almacenamiento, procesamiento, analítica y explotación del dato, considerando las vistas de seguridad y gobierno cross a nuestras soluciones.