Programa del Curso
Introducción
Comprender Big Data
Descripción de Spark
Descripción de Python
Descripción de PySpark
- Distribuir datos utilizando un marco de conjuntos de datos distribuidos resilientes
- Distribución de la computación usando los operadores de Spark API
Configurando Python con Spark
Configurando PySpark
Uso de las instancias de Amazon Web Services (AWS) EC2 para Spark
Configurando Databricks
Configuración del clúster EMR de AWS
Aprender los principios básicos de la programación Python
- Comenzando con Python
- Usando el cuaderno Jupyter
- Usando variables y tipos de datos simples
- Trabajando con listas
- Usando if Declaraciones
- Uso de entradas de usuario
- Trabajando con while Loops
- Funciones de implementación
- Trabajando con Clases
- Trabajando con archivos y excepciones
- Trabajando con proyectos, datos y API
Aprender los conceptos básicos de Spark DataFrame
- Primeros pasos con Spark DataFrames
- Implementando Operaciones Básicas con Spark
- Usando Groupby y operaciones agregadas
- Trabajando con marcas de tiempo y fechas
Trabajando en un ejercicio de proyecto Spark DataFrame
Entender el aprendizaje automático con MLlib
Trabajando con MLlib, Spark y Python para el aprendizaje automático
Entender las regresiones
- Aprendizaje de la teoría de regresión lineal
- Implementando un código de evaluación de regresión
- Trabajando en un ejercicio de regresión lineal de muestra
- Aprender la teoría de la regresión logística
- Implementando un Código de Regresión Logística
- Trabajando en un ejemplo de ejercicio de regresión logística
Comprender los bosques aleatorios y los árboles de decisión
- Teoría de los métodos del árbol de aprendizaje
- Implementando Árboles de Decisión y Códigos Forestales Aleatorios
- Trabajando en un ejemplo de ejercicio de clasificación aleatoria de bosques
Trabajando con K-means Clustering
- Comprender la teoría de agrupamiento de K-means
- Implementando un código de agrupamiento K-means
- Trabajando en un ejemplo de ejercicio de agrupamiento
Trabajando con los sistemas de recomendación
Implementando el procesamiento del lenguaje natural
- Comprender el procesamiento del lenguaje natural (NLP)
- Descripción de las herramientas de PNL
- Trabajando en un ejercicio de muestra NLP
Streaming con Spark en Python
- Descripción general Streaming with Spark
- Ejercicio Spark Streaming de muestra
Observaciones finales
Requerimientos
- Habilidades de programación general
Audiencia
- Desarrolladores
- Profesionales de TI
- Científicos de datos
Testimonios (6)
I liked that it was practical. Loved to apply the theoretical knowledge with practical examples.
Aurelia-Adriana - Allianz Services Romania
Curso - Python and Spark for Big Data (PySpark)
The course was about a series of very complex related topics & Pablo has in-depth expertise of each of them. Sometimes nuances were lost in communication and/or due to time pressures and possibly expectations were not quite met due to this. Also there were some UHG/Azure Databricks setup issues however Pablo / UHG resolved these quickly once they became apparent - this to me showed a high level of understanding and professionalism between UHG & Pablo,
Michael Monks - Tech NorthWest Skillnet
Curso - Python and Spark for Big Data (PySpark)
Individual attention.
ARCHANA ANILKUMAR - PPL
Curso - Python and Spark for Big Data (PySpark)
Hands on Training..
Abraham Thomas - PPL
Curso - Python and Spark for Big Data (PySpark)
The lessons were taught in a Jupyter notebook. The topics were structured with a logical sequence and naturally helped develop the session from the easier parts to the more complex. I'm already an advanced user of Python with background in Machine Learning, so found the course easier to follow than, possibly, some of my classmates that took the training course. I appreciate that some of the most elementary concepts were skipped and that he focused on the most substantial matters.
Angela DeLaMora - ADT, LLC
Curso - Python and Spark for Big Data (PySpark)
practice tasks