Becas y ayudas disponibles
Programa de
Data Analytics
Aprende en 16 semanas a dominar las herramientas y los lenguajes que usan los analistas de datos:

3.800€ 3.499€
15 días de garantía


3.800€ 3.499€
15 días de garantía |
Aprende con el único método
que te permite seguir con tu vida



Transforma los datos en conocimientos que
tengan un impacto real en un negocio
Después de hacer este programa serás capaz de…
Conocer los principales roles y actividades necesarias para desarrollar proyectos de Data & Analytics.
Optimiza tus tiempos aprendiendo todo lo necesario para utilizar ChatGPT
Descubrir cómo interpretar datos de forma clara y concisa con herramientas como Tableau o Power BI.
Sacar partido de las enormes posibilidades que te brinda la Inteligencia Artificial.
Dominar las principales herramientas y lenguajes de un analista de datos como Python, SQL, Spark y otros.
Descubrir el marco regulatorio, privacidad y gobierno de los datos en las organizaciones.
Este programa es para ti si…


¿En qué se diferencia un Data Analyst, de
un Scientist y de un Engineer?



Algunas de las empresas que confían en nosotros prefieren contratar a los programadores mejor preparados.











Proceso de selección
Asegurate de que este
programa es para ti
Toma la decisión de invertir tiempo y
dinero en este programa SIN RIESGOS.
PASO 1
Descarga el dossier
Haz clic y descubre todo el contenido del programa.

PASO 2
Entrevista personal
Nuestros asesores resolverán todas tus dudas y te ayudarán a saber si este programa es perfecto para ti.


PASO 3
Elige como pagar
No queremos que el dinero sea un problema. Por eso ponemos a tu elección diferentes formas de pago.

Programa de estudio
Transformar datos en la información que necesita el
negocio para tomar decisiones en 16 semanas


Aprende en 16 semanas a dominar las herramientas y los lenguajes que usan los analistas de datos:
La mayoría de los bootcamps se quedan cortos. Por eso hemos creado un programa más profundo, que te permite adquirir más skills y tecnologías, y mejor adaptado a los requerimientos de los CTOS y de las Pruebas técnicas de los procesos de selección.
Hemos dividido el programa en 17 unidades.
BLOQUE 1
Introducción al bootcamp
✅ Introducción al bootcamp D&A Foundation
✅ ¿Qué es Data & Analytics en una empresa?
✅ ¿Por qué es importante y para qué se usa principalmente?
📊 Descriptivo.
📊 Prescriptivo.
📊 Cognitivo.
✅ Cómo es un proyecto de Big Data.
✅ Cómo es un proyecto de Visualización.
✅ Cómo es un proyecto de Machine Learning.
✅ Roles claves de Data & Analytics en un proyecto/empresa.
✅ Por qué es relevante el modelo de gobierno del dato y la privacidad del dato.
Principales piezas de una arquitectura D&A
✅ ¿Qué es una arquitectura informacional?
✅Principales capas de una arquitectura BigData: Una arquitectura en capas.
📊 Capa de integración de datos
📊 Inbound layer
📊 Capas de almacenamiento: Repositorios de Información
📊 Capa de integración de datos
📊 Outbound layer
📊 Capa de presentación
📊 Zona de Modelado
✅ Lenguajes para implementar: Python, SQL, Spark y otros (Scala, …)
✅ Frameworks
✅ Gobierno de las diferentes zonas e implementación de la seguridad.
✅ Otras herramientas: Orquestación, observabilidad,…
Introducción al lenguaje más relevante para trabajar en el mundo D&A: Python.
✅ Introducción a la programación.
✅ Escritura Python: Python Shell, IDE, Jupyter Notebook y Google Collab.
✅ Sintaxis: Variables y tipos de datos de datos básicos.
✅ Sintaxis para las operaciones aritméticas básicas.
✅ Sintaxis para la Toma de decisiones: sentencias if-then-else, while, y for.
✅ Sintaxis de funciones.
✅ Módulos y librerías básicas.
✅ Trabajo con ficheros.
Conoce las primeras funcionalidades y librerías que hacen de este lenguaje un fuera de serie para el mundo de D&A.
✅ Funciones lambdas
✅ Librería Pandas
✅ Visualización en python: Matlibplot y seaborn
📊 Introducción a matlibplot
📊 Principales gráficos 2D
📊 Seaborn
Presentación de las bases de datos más clásicas (bases de datos relacionales), así como otras bases de datos de propósito específico en el mundo de D&A.
✅ Tipos de bases de datos y problemas que resuelven cada una de ellas.
📊 Base de datos Relacional
📊 Bases de datos NoSQL
📊 Bases de datos Clave-Valor
📊 Base datos Columnar
📊 Grafos
✅ Bases de datos relacionales
📊 ¿Qué es una base de datos relacional?
📊 Instalación de PostgreSQL en Windows
📊 Creación de una base de datos en PostgreSQL
✅ Principales conceptos ligados a una base de datos relacional
📊 Principales entidades: tablas, registros y columnas
📊 Conceptos de Primary key, foreign keys e integridad referencial
📊 Transacciones, ACID operations
📊 Límites de una base de datos relacional relacional
✅ Base de datos NoSQL (Cumlaude)
📊 Instalación de MongoDB
📊 Operaciones CRUD
📊 Que son objetos: create, select, update, delete, insert
📊 Arrays
Primera introducción al lenguaje SQL con el que se acceden y modifican los datos en las principales bases de datos relacionales.
✅ Conceptos básicos: Tablas, registros y columnas
✅ Creación y borrado de registros y columnas
✅ Comandos básicos SQL: select, insert, update, delete
✅ Sentencias de acceso a datos SQL: select, from, where
✅ Funciones SQL: distinct, max, avg, sum, group by, order by
✅ Joiners SQL: cross, inner, outer, left and right (Cumlaude)
Presentación de la arquitectura de referencia implementada en los grandes cloud providers: AWS, Google Cloud y Azure
✅ Deep Dive en la arquitectura de referencia implementada en Google Cloud
📊 Integration
📊 Cloud DataWarehouse
📊 Transformation with Spark
📊 VERTEX
✅ Deep Dive en la arquitectura Amazon (AWS) (Cumlaude)
📊 Integration
📊 Cloud DataWarehouse
📊 Transformation with Spark
✅ Deep Dive en la arquitectura Microsoft (Azure) (Cumlaude)
📊 Integration
📊 Cloud DataWarehouse
📊 Transformation with Spark
✅ Herramienta ioDraw para diagramar arquitecturas: ejemplo Google Cloud (Cumlaude)
Origen, fundamentos y cómo funcionan los proyectos Apache más relevantes en el mercado
✅ Presentación de Hadoop
📊 ¿Qué es Hadoop? Introducción
📊 La arquitectura de Hadoop
📊 Almacenamiento/Persistencia en Hadoop
📊 Storing data in Hadoop
📊 MapReduce
📊 Ejecutar un job en Hadoop
📊 Monitorización y gestión con YARN
✅ Presentación del lenguaje Spark
📊 Instalación y configuración
📊 Fundamentos de Apache Spark
📊 Arquitectura & Console to monitor Resources
📊 Apache Spark Core & PySpark & Scala
📊 DataFrames
📊 Joiners, Filters, Group by
📊 SQ, UDF
📊 Persisten
BLOQUE 2
Fundamentos y pasos a seguir para poder partir del dato en crudo y no siempre accesible hasta llegar a disponer de un Datamart con los posibles diseños que lo soportan (estrella, copo de nieve, etc).
✅ Introducción, sistemas OLTP vs OLAP
✅ Qué es un modelo Datamart y conceptos multidimensionales
✅ Modelo estrella, Copo de Nieve, Constelación
✅ Tipos de dimensiones (SCD Type 1, SCD Type 2)
✅ Modelos de procesamiento: OLAP/MOLAP/ROLAP principales diferencias.
Foco en la elaboración de cuadros de mando avanzados para alta dirección, fuerza de venta, recursos humanos, logística y cualquier otro departamento de una empresa mediante el uso de PowerBI
✅ Introducción (visualización, kpis, informes)
✅ Visualización de tus datos sin herramientas especializadas
📊 Visualización en Python (Matplotlib,Seaborn,Plotly)
✅ Visualización con una herramienta especializada: Microsoft PowerBI
📊 ¿Qué es? Tipos de versiones
📊 Cómo funciona – Arquitectura (Gateways, Azure, etc)
📊 ¿Qué es un workspace?
📊 Tipos de objetos que se pueden publicar: datasets, dashboards, reports
📊 PowerBI Desktop
⭕ ¿Cómo conectar orígenes de información?
⭕ ¿Cómo modelar orígenes conectados?
⭕ Creación de dashboard
⭕ Funciones DAX
⭕ ¿Cómo publicar y compartir dashboard?
✅ Auditoría: cómo saber y monitorizar el uso de un dashboard
✅ PowerBI Report Builder, reporting operativo
📊 ¿Cómo conectar orígenes de información?
📊 ¿Cómo modelar orígenes conectados?
📊 Creación de un report
📊 Filtros y paginación
📊 ¿Cómo publicar y compartir un report?
✅ Otras herramientas de Visualización con herramientas especializadas
📊 Tableau
📊 Spotfire
Introducción a los conceptos básicos de Inteligencia Artificial: La matemática en la que se basan, tipos de algoritmos y problemas que con ellos se resuelven en el ámbito empresarial
✅ Introducción
✅ Fundamentos matemáticos necesarios
✅ Introducción a los diferentes tipos de aprendizaje en Al
📊 Supervisado/Semisupervisado
📊 No-Supervisado
📊 Por refuerzo
📊 Deep learning
✅ Tipos de problemas que se aproximan con AI
📊 Clasificación
⭕ Binaria
⭕ Múltiple
⭕ Clustering
⭕ FrequentPatternMining
⭕ NLP
⭕ Computer vision
📊 Regresión
📊 Recomendadores
Visión práctica del empleo de AI mediante la librería TensorFlow.
✅ Introducción a las redes neuronales en Tensorflow
📊 Tensores
📊 Grafos
📊 Capas
📊 Tipos (MLP, CNN, RNN, RBF)
✅ TensorFlow 1.0 & TensorFlow 2.0
✅ Wrappers (Estimator and Keras)
✅ Implementando una Shallow NN (ejemplos típicos)
✅ Depuración de red neuronal
Presentación de las diferentes etapas en las que se identifica, valida y construye un modelo. De la misma forma se presentan los pasos necesarios para desplegarlo en la organización, medir su eficacia a lo largo del tiempo y su mantenimiento.
✅ Introducción: Un ciclo virtuoso
✅ Pregunta de negocio: La selección del caso de uso
✅ Exploración de los datos de partida
✅ Perfilado y clasificación de variables
✅ Ingeniería de características (features)
✅ Aumento de muestras (Data augmentation)
✅ Identificación del mejor algoritmo
✅ Entrenamiento y optimización de hiper-parámetros
✅ Productivización: ¿Cuando tiene sentido?
✅ Recalibrado de modelos y entrenamiento iterativo
Capítulo eminentemente práctico donde se ponen en funcionamiento la mayor parte de los conceptos avanzados presentados hasta el momento.
✅ Convolutational Neural Network (CNN) aplicadas al tratamiento de imágenes
✅ Librería OpenCV: Preparar y ajustar las imágenes
✅ Construir un clasificador de imágenes
✅ Redes inception de Google
Presentación de los servicios de analítica cognitiva, tratamiento de documentos o soluciones específicas de los principales Cloudvendors del mercado
✅ Introducción a los servicios SaaS para AI
✅ AutoML (zero code AI)
✅ Herramientas SaaS del científico de datos: AWS Sagemaker,….
✅ Principales tipos de servicios cognitivos en Google, AWS, Azure: NLP, STT, TTS
✅ Servicios de tratamiento de documentos (Estructurados y no estructurados)
✅ Otros servicios disponibles: Forecast, Fraude, Recomendación,…
Este capítulo avanzado, tiene la finalidad de explicar cómo gestionar y orquestar todos los procesos de Big Data: desde los data pipelines para extraer y transformar datos hasta la actualización de los Datamarts. Todo ello haciendo uso del proyecto Apache Airflow
✅ Qué es un orquestador?
✅ ¿Qué es Apache Airflow? Fundamentos
📊 Instalación y configuración
📊 Apache Airflow versiones
📊 DAG’s
📊 UI, cómo navegar, cómo ejecutar DAG’s
📊 Operadores principales
📊 Variables
Usos permitidos, sesgos, obtención de los datos, distribución de los resultados, son criterios que una organización tienen que tener en cuenta a la hora de poner en marcha un caso de análisis o IA
✅ Conceptos básicos de gobierno del dato
📊 Necesidad de gobierno para soportar autoconsumo y autoservicio.
📊 Principales modelos de gobierno y roles en las organizaciones.
📊 Herramientas de soporte al gobierno del dato.
✅ Conceptos básicos de privacidad del dato
📊 Fundamentos de privacidad
📊 Datos identificativos y de carácter personal
📊 Marco regulatorio: GDPR, AI Act
📊 Anonimización y pseudo-anonimización
📊 Privacy by design: Privacidad en el ciclo de vida del dato
Aprende en 16 semanas a dominar las herramientas y los lenguajes que usan los analistas de datos:
1. Data & Analytics Introduction
2. Principales piezas de una arquitectura D&A
3. Python Language: Introduction
4. Python Language: Functions and libraries for D&A
5. Data Bases: Introduction
6. SQL Language: Introduction
7. Cloud Big Data technologies
8. Data transformation: Big Data Engineering
9. Business Intelligence: Introduction
10. Data Visualization: Introduction
11. Artificial Intelligence: Introduction
12. Neural Networks in Tensorflow
13. Data Science Lifecyle: End to End
14. Artificial Intelligence: Visual Recognition (Cumlaude)
15. AI SaaS on the Cloud
16. Big Data Orchestrated (Cumlaude)
17. Gobierno y Privacidad del dato
Programa creado por los expertos de data
de las mejores empresas: Vodafone, Liberty Seguros,
Ernst & Young y Stratio.
…accede a algunas de las siguientes profesiones
Data Analytics

Web analytics









SQL Data Analyst









Analytics and Modeling analyst









Consultor Inteligencia Artificial









Machine Learning Analyst









Big Data









Business Intelligence









Que el precio no sea un problema
Encuentra la financiación que necesitas para
dar el salto profesional que estás buscando


Pago completo
3.800€
3.499€




Pago a plazos
3.800€


Paga cuando encuentres trabajo
3.800€


Únete hoy y aprende de Big Data, Machine Learning, Python, Inteligencia Artificial, Business Intelligence… sin tener que dejar tu trabajo