Pular para o conteúdo principal
Início

Cursos Spark

Com o Spark, os dados são lidos na memória, as operações são realizadas e os resultados são gravados de volta, resultando em uma execução mais rápida. Aprenda os princípios básicos e os pacotes comuns no DataCamp.

Crie sua conta gratuita

ou

Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.
Group

Treinar 2 ou mais pessoas?

Tentar DataCamp for Business

Recomendado para iniciantes no Spark

Desenvolva suas habilidades no Spark com cursos interativos organizados por especialistas do mundo real

Curso

Introdução ao PySpark

IntermediárioNível de habilidade
4 horas
1.2K
Aprenda a implementar gestão de dados distribuídos e aprendizado de máquina no Spark com PySpark.

Programa

Big Data com PySpark

25 horas
2.1K
Aprenda a processar big data e aproveitá-lo de forma eficiente com o Apache Spark usando a API PySpark.

Não sabe por onde começar?

Faça Uma Avaliação

Navegar cursos e trilhas Spark

9 Projetos

Curso

Introduction to PySpark

IntermediárioNível de habilidade
4 horas
6.3K
Master PySpark to handle big data with ease—learn to process, query, and optimize massive datasets for powerful analytics!

Curso

Machine learning com PySpark

AvançadoNível de habilidade
4 horas
1.3K
Saiba como fazer previsões a partir de dados com o Apache Spark, usando árvores de decisão, regressão logística, regressão linear, conjuntos e pipelines.

Curso

Introdução ao PySpark

IntermediárioNível de habilidade
4 horas
1.2K
Aprenda a implementar gestão de dados distribuídos e aprendizado de máquina no Spark com PySpark.

Curso

Feature Engineering with PySpark

AvançadoNível de habilidade
4 horas
593
Learn the gritty details that data scientists are spending 70-80% of their time on; data wrangling and feature engineering.

Curso

Introduction to Spark SQL in Python

AvançadoNível de habilidade
4 horas
559
Learn how to manipulate data and create machine learning feature sets in Spark using SQL in Python.

Curso

Introduction to Spark with sparklyr in R

IntermediárioNível de habilidade
4 horas
275
Learn how to run big data analysis using Spark and the sparklyr package in R, and explore Spark MLIb in just 4 hours.

Recursos relacionados em Spark

Tutorial

Tutorial do Pyspark: Primeiros passos com o Pyspark

Descubra o que é o Pyspark e como ele pode ser usado, com exemplos.
Natassha Selvaraj's photo

Natassha Selvaraj

10 min


Você está pronto para aplicar suas habilidades?

Os projetos permitem que você aplique seu conhecimento a uma ampla variedade de conjuntos de dados para que você resolva problemas do mundo real em seu navegador

Perguntas frequentes

Qual curso do Spark é o melhor para iniciantes absolutos?

Para novos alunos, o DataCamp tem três cursos introdutórios do Spark nas linguagens de programação mais populares:

Introdução ao PySpark 

Introdução ao Spark com o sparklyr em R 

Curso de introdução ao Spark SQL em Python

Preciso de alguma experiência prévia para fazer um curso Spark?

Você precisará ter concluído um curso de introdução à linguagem de programação na qual está usando o Spark. 

Tudo isso você pode encontrar aqui:

Introdução ao Python

Introdução ao R

Introdução ao SQL

Além disso, qualquer pessoa pode começar a usar o Spark por meio de exercícios simples e interativos no DataCamp.

Para que o PySpark é usado?

Se você já estiver familiarizado com Python e bibliotecas como Pandas, o PySpark é uma boa linguagem para aprender a criar análises e pipelines mais dimensionáveis.

O Apache Spark é basicamente um mecanismo de computação que trabalha com grandes conjuntos de dados, processando-os em sistemas paralelos e em lote.

O Spark é escrito em Scala, e o PySpark foi lançado para dar suporte à colaboração do Spark e do Python.

Como o Spark pode ajudar minha carreira?

Você adquirirá a capacidade de analisar dados e treinar modelos de aprendizado de máquina em conjuntos de dados de grande escala - uma habilidade valiosa para se tornar um cientista de dados. 

Ter o conhecimento necessário para trabalhar com estruturas de big data, como o Apache Spark, fará com que você se destaque.

O que é o Apache Spark?

O Apache Spark é um sistema de processamento distribuído e de código aberto usado para cargas de trabalho de big data. 

Ele utiliza cache na memória e execução de consultas otimizada para consultas analíticas rápidas em dados de qualquer tamanho. 

Ele fornece APIs de desenvolvimento em Java, Scala, Python e R, e oferece suporte à reutilização de código em várias cargas de trabalho - processamento em lote, consultas interativas, análise em tempo real, aprendizado de máquina e processamento de gráficos.

Outras tecnologias e tópicos

tecnologias