Programa del Curso

Introducción

  • Información general sobre las características y la arquitectura de Spark y Hadoop
  • Entendiendo el big data
  • Python Conceptos básicos de programación

Empezar

  • Configuración de Python, Spark y Hadoop
  • Descripción de las estructuras de datos en Python
  • Descripción de la API PySpark
  • Descripción de HDFS y MapReduce

Integración de Spark y Hadoop con Python

  • Implementación de Spark RDD en Python
  • Procesamiento de datos mediante MapReduce
  • Creación de conjuntos de datos distribuidos en HDFS

Machine Learning con Spark MLlib

Procesamiento Big Data con Spark Streaming

Trabajar con sistemas de recomendación

Trabajar con Kafka, Sqoop, Kafka y Flume

Apache Mahout con Spark y Hadoop

Solución de problemas

Resumen y próximos pasos

Requerimientos

  • Experiencia con Spark y Hadoop
  • Python Experiencia en programación

Audiencia

  • Científicos de datos
  • Desarrolladores
 21 Horas

Número de participantes


Precio por Participante​

Testimonios (3)

Próximos cursos

Categorías Relacionadas