Upload
trinhthuan
View
213
Download
0
Embed Size (px)
Citation preview
¿QUIÉNES SOMOS?
Centro de Formación saXsa
El Centro de Formación saXsa es parte de saXsa, empresa líder en Soluciones Big Data con más de 25 años de experiencia en el manejo de grandes volúmenes de datos. saXsa es una compañía mexicana que surge en 1992 como una empresa pionera en soluciones Big Data debido a la creciente demanda del mercado para la gestión y tratamiento de grandes volúmenes de información. Su fundador, el Dr. Gabriel Guerrero, es matemático egresado de la Facultad de Ciencias de la UNAM, con doctorado en matemáticas e informática de la Universidad de Paris VI Pierre et Marie Curie, y cuenta con una amplia experiencia profesional de 15 años en Francia en proyectos de la Comunidad Europea y ha participado, a través de saXsa, en numerosos proyectos de innovación tecnológica y Big Data tanto en organizaciones públicas como privadas en México.
El objetivo general que se busca con la realización de los cursos, radica en que durante las clases, el alumno sea capaz de integrar conocimientos relacionados con la Ciencia de Datos para el manejo de grandes volúmenes de información para la toma de decisiones y la creación de valor en la organizaciones. Los cursos están dirigidos a las personas interesadas en obtener conocimientos generales sobre el manejo de grandes volúmenes de datos. Contamos con formaciones básicas, intermedias y avanzadas con la finalidad de ofrecer cursos adaptados a los conocimientos del participante. Los cursos son teórico-prácticos para que el participante aprenda las mejores prácticas del universo de la Ciencia de Datos a nivel mundial. Se ofrece una máquina virtual. Se recomienda traer laptop Intel i5 con 8Gb RAM.
En el Centro de Formación saXsa se han formado a más de 500 alumnos
sobre temas de Ciencia de Datos.
El Ciclo integral Big Data para el desarrollo de aplicaciones productivas es una formación compuesta de 4 módulos cuyo objetivo radica en que el participante, al finalizar el ciclo, sea capaz de integrar conocimientos relacionados con la Ciencia de Datos para el manejo de grandes volúmenes de información para la toma de decisiones y la creación de valor en las organizaciones. Módulo 1. Fundamentos BigData con Hadoop HDFS y Spark. Viernes 28 de julio 9:30 am – 6:30pm Módulo 2. BigData Analytics con Apache Spark. Sábado 29 de Julio 9:00 am – 4:00pm Módulo 3. Streaming Analytics. BigData en Tiempo Real. Viernes 4 de agosto 9:30 am – 6:30pm Módulo 4. Arquitectura Kafka para aplicaciones productivas y uso de datos geo-espaciales en un ambiente Spark. Sábado 5 de agosto 9:00 am – 4:00pm Se ofrece una máquina virtual.
Se recomienda traer laptop Intel i5 con 8Gb RAM.
CICLO INTEGRAL
BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS
MÓDULO I
FUNDAMENTOS BIG DATA CON HADOOP HDFS Y SPARK
DIFICULTAD
MEDIO
Duración: 1 sesión | 8 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Introducción al mundo Big Data. Manejo de HDFS. Acciones y transformaciones de PySpark. Aplicación Autosuficiente PySpark. Taller SQL Spark. Visualización SQL con Jupyter.
Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python, así como conocimientos de las estructuras que
maneja Spark haciendo uso de la biblioteca Spark SQL.
Ejercicios prácticos
¤ Viernes 28 de Julio ¤
MÓDULO II
BIG DATA ANALYTICS CON APACHE SPARK
DIFICULTAD
MEDIO
Duración: 1 sesión | 7 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Big Data en la Empresa. Manejo de HDFS. Manejo de Spark PySpark. PySpark para aplicaciones autosuficientes. Spark MLlib principales modelos de la Ciencia de Datos. Algoritmo de clasificación para detección de Spam. Sistema de recomendación tipo Netflix con Python utilizando (SVD) en un ambiente Spark. Algoritmo de clasificación con Jupyter.
Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python, así como
conocimientos de algoritmos de aprendizaje automatizado, algoritmos de clasificación y sistemas de recomendación con Spark MLlib.
Ejercicios prácticos
¤ Sábado 29 de Julio ¤
MÓDULO III
STREAMING ANALYTICS BIG DATA EN TIEMPO REAL
DIFICULTAD
Duración: 1 sesión | 8 horas Conocimientos previos: Se requieren conocimientos básicos de programación en cualquier lenguaje (Scala, Java, Python, R) ¿Qué aprenderás? Introducción a Big Data y Streaming. Fundamentos de las herramientas Big Data HDFS y Spark. Manejo de Torrentes de Datos en Tiempo Real con Spark Streaming. Análisis de sentimiento de Twitter con Spark Streaming. Aplicación de Algoritmos ML en Tiempo Real con Spark Streaming. Procesamiento de lenguaje natural con LSA.
Ejercicios prácticos
Al término del curso el participante obtendrá los conocimientos fundamentales de HDFS Hadoop y Apache Spark con el lenguaje de programación Python y Scala, así como conocimientos en el manejo y procesamiento de torrentes de
datos en tiempo real, usando la biblioteca Spark Streaming aplicándolo a Twitter y a flujos de información.
¤ Viernes 4 de agosto ¤
MÓDULO IV
ARQUITECTURA KAFKA PARA APLICACIONES PRODUCTIVAS Y USO DE DATOS GEO-
ESPACIALES EN UN AMBIENTE SPARK
DIFICULTAD
Duración: 1 sesión | 7 horas Conocimientos previos: Se requieren conocimientos de Spark SQL, Spark Streaming y conocimientos básicos de programación en Python. ¿Qué aprenderás? Levantar servicios arquitectura Kafka, creación de productor, generación de tópicos, creación de consumidor, conexión consumidor-tópicos. Realizar de transformaciones con SparkSQL/ML de contenidos, almacenamiento en MongoDB, uso de Spark Streaming para recepción en tiempo real de contenidos y su procesamiento inmediato con Spark SQL y SparkML. Integrar fuentes de información de negocio con datos geoespaciales, con mecanismos de visualización y elaboración de mapas.
Ejercicios prácticos
Al término del curso el participante conocerá los fundamentos para instrumentar una arquitectura Kafka/Spark con integración de un número ilimitado de productores y consumidores. Se ofrece la instrumentación de una aplicación con recepción de
contenido en tiempo real, por medio de la arquitectura Kafka con procesamiento al instante, técnicas de Spark Streaming y almacenamiento en una plataforma
MongoDB. Se estudian los fundamentos para el uso de datos geoespaciales en una arquitectura Spark.
¤ Sábado 5 de agosto ¤
INFORMACIÓN SUPLEMENTARIA
El Ciclo integral Big Data para el desarrollo de aplicaciones productivas se llevará a cabo en el Centro de Formación saXsa.
Lugar: Centro de Formación saXsa Dirección: A 1 cuadra de la Glorieta de Insurgentes, Benito Juárez, Cuauhtémoc, 06600 CDMX Se entregará constancia.
Módulo Horas Fecha módulo Fecha límite de pago
I Fundamentos BigData con Hadoop HDFS y Spark
8 Viernes 28 de julio
24-‐07-‐2017
II BigData AnalyCcs con Apache Spark
7 Sábado 29 de julio
24-‐07-‐2017
III Streaming AnalyCcs. BigData en Tiempo Real
8 Viernes 4 de agosto
31-‐07-‐2017
IV Arquitectura KaNa para aplicaciones producCvas y uso de datos geo-‐espaciales en un ambiente Spark
7 Sábado 5 de agosto
31-‐07-‐2017
TOTAL 30
INVERSIÓN *Precio sin I.V.A
Módulo Precio de Lista*
Ex Alumnos saXsa*
I Fundamentos BigData con Hadoop HDFS y Spark
$4,000 $3,600
II BigData AnalyCcs con Apache Spark $4,000 $3,600
III Streaming AnalyCcs. BigData en Tiempo Real
$4,000 $3,600
IV Arquitectura KaNa para aplicaciones producCvas y uso de datos geo-‐espaciales en un ambiente Spark
$4,000 $3,600
Precio especial Ciclo completo* $12,000 $10,800 Facilidades de pago: - Pago por Módulo o Pago en una sola exhibición (Ciclo completo) Medios de pago: - Pago por PayPal, depósito bancario, transferencia electrónica
Políticas: - Apertura sujeta a quórum. - La facturación se realizará una vez realizado el pago. - El programa no incluye comida ni estacionamiento. - El programa incluye coffee break - En cada módulo se ofrece una máquina virtual con la instalación integral de Hadoop,
Spark, Jupyter y ejercicios. - El material se entrega de manera electrónica. Se ofrecen más de 50 lecturas
complementarias.