10
CICLO INTEGRAL BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS

CICLO INTEGRAL BIG DATA PARA EL DESARROLLO DE … · Soluciones Big Data con más de 25 años de experiencia en el ... clasificación y sistemas de recomendación con Spark ... generación

Embed Size (px)

Citation preview

CICLO INTEGRAL

BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS

¿QUIÉNES SOMOS?

Centro de Formación saXsa

El Centro de Formación saXsa es parte de saXsa, empresa líder en Soluciones Big Data con más de 25 años de experiencia en el manejo de grandes volúmenes de datos. saXsa es una compañía mexicana que surge en 1992 como una empresa pionera en soluciones Big Data debido a la creciente demanda del mercado para la gestión y tratamiento de grandes volúmenes de información. Su fundador, el Dr. Gabriel Guerrero, es matemático egresado de la Facultad de Ciencias de la UNAM, con doctorado en matemáticas e informática de la Universidad de Paris VI Pierre et Marie Curie, y cuenta con una amplia experiencia profesional de 15 años en Francia en proyectos de la Comunidad Europea y ha participado, a través de saXsa, en numerosos proyectos de innovación tecnológica y Big Data tanto en organizaciones públicas como privadas en México.

El objetivo general que se busca con la realización de los cursos, radica en que durante las clases, el alumno sea capaz de integrar conocimientos relacionados con la Ciencia de Datos para el manejo de grandes volúmenes de información para la toma de decisiones y la creación de valor en la organizaciones. Los cursos están dirigidos a las personas interesadas en obtener conocimientos generales sobre el manejo de grandes volúmenes de datos. Contamos con formaciones básicas, intermedias y avanzadas con la finalidad de ofrecer cursos adaptados a los conocimientos del participante. Los cursos son teórico-prácticos para que el participante aprenda las mejores prácticas del universo de la Ciencia de Datos a nivel mundial. Se ofrece una máquina virtual. Se recomienda traer laptop Intel i5 con 8Gb RAM.

En el Centro de Formación saXsa se han formado a más de 500 alumnos

sobre temas de Ciencia de Datos.

El Ciclo integral Big Data para el desarrollo de aplicaciones productivas es una formación compuesta de 4 módulos cuyo objetivo radica en que el participante, al finalizar el ciclo, sea capaz de integrar conocimientos relacionados con la Ciencia de Datos para el manejo de grandes volúmenes de información para la toma de decisiones y la creación de valor en las organizaciones. Módulo 1. Fundamentos BigData con Hadoop HDFS y Spark. Viernes 28 de julio 9:30 am – 6:30pm Módulo 2. BigData Analytics con Apache Spark. Sábado 29 de Julio 9:00 am – 4:00pm Módulo 3. Streaming Analytics. BigData en Tiempo Real. Viernes 4 de agosto 9:30 am – 6:30pm Módulo 4. Arquitectura Kafka para aplicaciones productivas y uso de datos geo-espaciales en un ambiente Spark. Sábado 5 de agosto 9:00 am – 4:00pm Se ofrece una máquina virtual.

Se recomienda traer laptop Intel i5 con 8Gb RAM.

CICLO INTEGRAL

BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS

MÓDULO I

FUNDAMENTOS BIG DATA CON HADOOP HDFS Y SPARK

DIFICULTAD

MEDIO

Duración: 1 sesión | 8 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Introducción al mundo Big Data. Manejo de HDFS. Acciones y transformaciones de PySpark. Aplicación Autosuficiente PySpark. Taller SQL Spark. Visualización SQL con Jupyter.

Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python, así como conocimientos de las estructuras que

maneja Spark haciendo uso de la biblioteca Spark SQL.

Ejercicios prácticos

¤ Viernes 28 de Julio ¤

MÓDULO II

BIG DATA ANALYTICS CON APACHE SPARK

DIFICULTAD

MEDIO

Duración: 1 sesión | 7 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Big Data en la Empresa. Manejo de HDFS. Manejo de Spark PySpark. PySpark para aplicaciones autosuficientes. Spark MLlib principales modelos de la Ciencia de Datos. Algoritmo de clasificación para detección de Spam. Sistema de recomendación tipo Netflix con Python utilizando (SVD) en un ambiente Spark. Algoritmo de clasificación con Jupyter.

Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python, así como

conocimientos de algoritmos de aprendizaje automatizado, algoritmos de clasificación y sistemas de recomendación con Spark MLlib.

Ejercicios prácticos

¤ Sábado 29 de Julio ¤

MÓDULO III

STREAMING ANALYTICS BIG DATA EN TIEMPO REAL

DIFICULTAD

Duración: 1 sesión | 8 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Introducción a Big Data y Streaming. Fundamentos de las herramientas Big Data HDFS y Spark. Manejo de Torrentes de Datos en Tiempo Real con Spark Streaming. Análisis de sentimiento de Twitter con Spark Streaming. Aplicación de Algoritmos ML en Tiempo Real con Spark Streaming. Procesamiento de lenguaje natural con LSA.

Ejercicios prácticos

Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python y Scala, así como conocimientos en el manejo y procesamiento de torrentes de

datos en tiempo real, usando la biblioteca Spark Streaming aplicándolo a Twitter y a flujos de información.

¤ Viernes 4 de agosto ¤

MÓDULO IV

ARQUITECTURA KAFKA PARA APLICACIONES PRODUCTIVAS Y USO DE DATOS GEO-

ESPACIALES EN UN AMBIENTE SPARK

DIFICULTAD

Duración: 1 sesión | 7 horas Conocimientos previos: Se requieren conocimientos de Spark SQL, Spark Streaming y conocimientos básicos de programación en Python. ¿Qué aprenderás? Levantar servicios arquitectura Kafka, creación de productor, generación de tópicos, creación de consumidor, conexión consumidor-tópicos. Realizar de transformaciones con SparkSQL/ML de contenidos, almacenamiento en MongoDB, uso de Spark Streaming para recepción en tiempo real de contenidos y su procesamiento inmediato con Spark SQL y SparkML. Integrar fuentes de información de negocio con datos geoespaciales, con mecanismos de visualización y elaboración de mapas.

Ejercicios prácticos

Al término del curso el participante conocerá los fundamentos para instrumentar una arquitectura Kafka/Spark con integración de un número ilimitado de productores y consumidores. Se ofrece la instrumentación de una aplicación con recepción de

contenido en tiempo real, por medio de la arquitectura Kafka con procesamiento al instante, técnicas de Spark Streaming y almacenamiento en una plataforma

MongoDB. Se estudian los fundamentos para el uso de datos geoespaciales en una arquitectura Spark.

¤ Sábado 5 de agosto ¤

INFORMACIÓN SUPLEMENTARIA

El Ciclo integral Big Data para el desarrollo de aplicaciones productivas se llevará a cabo en el Centro de Formación saXsa.

Lugar: Centro de Formación saXsa Dirección: A 1 cuadra de la Glorieta de Insurgentes, Benito Juárez, Cuauhtémoc, 06600 CDMX Se entregará constancia.

Módulo   Horas   Fecha  módulo   Fecha  límite  de  pago  

I   Fundamentos  BigData  con  Hadoop  HDFS  y  Spark    

8   Viernes  28  de  julio    

24-­‐07-­‐2017  

II    BigData  AnalyCcs  con  Apache  Spark  

7   Sábado  29  de  julio    

24-­‐07-­‐2017  

III   Streaming  AnalyCcs.  BigData  en  Tiempo  Real  

8   Viernes  4  de  agosto  

31-­‐07-­‐2017  

IV   Arquitectura  KaNa  para  aplicaciones  producCvas  y  uso  de  datos  geo-­‐espaciales  en  un  ambiente  Spark  

7   Sábado  5  de  agosto  

31-­‐07-­‐2017  

TOTAL   30  

INVERSIÓN *Precio sin I.V.A

Módulo   Precio  de  Lista*  

Ex  Alumnos  saXsa*  

I   Fundamentos  BigData  con  Hadoop  HDFS  y  Spark    

$4,000   $3,600  

II    BigData  AnalyCcs  con  Apache  Spark   $4,000   $3,600  

III   Streaming  AnalyCcs.  BigData  en  Tiempo  Real  

$4,000   $3,600  

IV   Arquitectura  KaNa  para  aplicaciones  producCvas  y  uso  de  datos  geo-­‐espaciales  en  un  ambiente  Spark  

$4,000   $3,600  

Precio  especial  Ciclo  completo*   $12,000   $10,800  Facilidades de pago: - Pago por Módulo o Pago en una sola exhibición (Ciclo completo) Medios de pago: -  Pago por PayPal, depósito bancario, transferencia electrónica

Políticas: -  Apertura sujeta a quórum. -  La facturación se realizará una vez realizado el pago. -  El programa no incluye comida ni estacionamiento. -  El programa incluye coffee break -  En cada módulo se ofrece una máquina virtual con la instalación integral de Hadoop,

Spark, Jupyter y ejercicios. -  El material se entrega de manera electrónica. Se ofrecen más de 50 lecturas

complementarias.