Programa do Curso

Introdução

Descrição geral das características e da arquitetura da Spark Streaming

  • Fontes de dados suportadas
  • APIs principais

Preparação do ambiente

  • Dependências
  • Spark e contexto de streaming
  • Conectando ao Kafka

Processando mensagens

  • Analisar mensagens de entrada como JSON
  • Processos ETL
  • Iniciar o contexto de streaming

Efetuar um Windowed Stream Processing

  • Intervalo de deslizamento
  • Configuração de entrega de pontos de controlo
  • Lançamento do ambiente

Prototipagem do código de processamento

  • Conectando a um tópico do Kafka
  • Recuperação de JSON da fonte de dados usando Paw
  • Variações e processamento adicional

Transmissão em fluxo do código

  • Variáveis de controlo do trabalho
  • Definição de valores para correspondência
  • Funções e condições

Aquisição da saída do fluxo

  • Contadores
  • Saída do Kafka (correspondente e não correspondente)

Resolução de problemas

Resumo e conclusão

Requisitos

  • Experiência com Python e Apache Kafka
  • Familiaridade com plataformas de processamento de fluxos

Público

  • Engenheiros de dados
  • Cientistas de dados
  • Programadores
 7 Horas

Número de participantes


Preço por participante

Declaração de Clientes (5)

Próximas Formações Provisórias

Categorias Relacionadas