Direkt zum Inhalt
Startseite

Spark-Kurse

Mit Spark werden Daten in den Speicher eingelesen, Operationen durchgeführt und die Ergebnisse zurückgeschrieben, was zu einer schnelleren Ausführung führt. Lerne auf dem DataCamp die wichtigsten Prinzipien und gängigen Pakete kennen.

Kostenloses Konto erstellen

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.
Group

Trainierst du 2 oder mehr?

Versuchen DataCamp for Business

Empfohlen für Spark-Anfänger

Baue deine Spark-Fähigkeiten mit interaktiven Kursen auf, die von Experten aus der Praxis kuratiert werden.

Kurs

Einführung in PySpark

Mittlere SchwierigkeitSchwierigkeitsgrad
4 Stunden
2.6K
Lernen Sie, verteiltes Datenmanagement und maschinelles Lernen in Spark mit dem PySpark-Paket umzusetzen.

Lernpfad

Big Data mit PySpark

25 Stunden
2K
Meistere, wie du Big Data mit Apache Spark und der PySpark-API verarbeitest und effizient einsetzt.

Bist du dir nicht sicher, wo du anfangen sollst?

Jetzt Testen Lassen

Blättern Spark Kurse und Lernpfade

9 Projekte

Kurs

Introduction to PySpark

Mittlere SchwierigkeitSchwierigkeitsgrad
4 Stunden
4.7K
Master PySpark to handle big data with ease—learn to process, query, and optimize massive datasets for powerful analytics!

Kurs

Einführung in PySpark

Mittlere SchwierigkeitSchwierigkeitsgrad
4 Stunden
2.6K
Lernen Sie, verteiltes Datenmanagement und maschinelles Lernen in Spark mit dem PySpark-Paket umzusetzen.

Kurs

Machine Learning with PySpark

Hohe SchwierigkeitSchwierigkeitsgrad
4 Stunden
1K
Learn how to make predictions from data with Apache Spark, using decision trees, logistic regression, linear regression, ensembles, and pipelines.

Kurs

Cleaning Data with PySpark

Hohe SchwierigkeitSchwierigkeitsgrad
4 Stunden
983
Learn how to clean data with Apache Spark in Python.

Kurs

Feature Engineering with PySpark

Hohe SchwierigkeitSchwierigkeitsgrad
4 Stunden
548
Learn the gritty details that data scientists are spending 70-80% of their time on; data wrangling and feature engineering.

Kurs

Introduction to Spark SQL in Python

Hohe SchwierigkeitSchwierigkeitsgrad
4 Stunden
539
Learn how to manipulate data and create machine learning feature sets in Spark using SQL in Python.

Kurs

Introduction to Spark with sparklyr in R

Mittlere SchwierigkeitSchwierigkeitsgrad
4 Stunden
239
Learn how to run big data analysis using Spark and the sparklyr package in R, and explore Spark MLIb in just 4 hours.

Verwandte Ressourcen auf Spark

Lernprogramm

Pyspark Tutorial: Erste Schritte mit Pyspark

Erfahre, was Pyspark ist und wie es verwendet werden kann, und gib Beispiele.
Natassha Selvaraj's photo

Natassha Selvaraj

10 Min.


Bist du bereit, deine Fähigkeiten einzusetzen?

Projekte ermöglichen es dir, dein Wissen auf eine breite Palette von Datensätzen anzuwenden um reale Probleme in deinem Browser zu lösen

Häufig gestellte Fragen

Welcher Spark-Kurs ist der beste für absolute Anfänger?

Für neue Lernende bietet DataCamp drei Spark-Einführungskurse in den gängigsten Programmiersprachen an:

Einführung in PySpark 

Einführung in Spark mit sparklyr in R 

Einführung in Spark SQL in Python Kurs

Brauche ich Vorkenntnisse, um an einem Spark-Kurs teilzunehmen?

Du musst einen Einführungskurs in die Programmiersprache absolviert haben, in der du Spark einsetzen willst. 

All das kannst du hier finden:

Einführung in Python

Einführung in R

Einführung in SQL

Darüber hinaus kann jeder durch einfache, interaktive Übungen auf dem DataCamp in Spark einsteigen.

Wofür wird PySpark verwendet?

Wenn du bereits mit Python und Bibliotheken wie Pandas vertraut bist, dann ist PySpark eine gute Sprache, um skalierbare Analysen und Pipelines zu erstellen.

Apache Spark ist im Grunde eine Rechenmaschine, die mit großen Datenmengen arbeitet, indem sie diese in Parallel- und Batch-Systemen verarbeitet.

Spark ist in Scala geschrieben, und PySpark wurde veröffentlicht, um die Zusammenarbeit von Spark und Python zu unterstützen.

Wie kann Spark meiner Karriere helfen?

Du erwirbst die Fähigkeit, Daten zu analysieren und Machine-Learning-Modelle auf großen Datensätzen zu trainieren - eine wertvolle Fähigkeit, um ein/e Data Scientist zu werden. 

Wenn du mit Big-Data-Frameworks wie Apache Spark arbeiten kannst, hebst du dich von anderen ab.

Was ist Apache Spark?

Apache Spark ist ein verteiltes Open-Source-Verarbeitungssystem, das für Big Data-Workloads verwendet wird. 

Sie nutzt das In-Memory-Caching und die optimierte Abfrageausführung für schnelle analytische Abfragen von Daten beliebiger Größe. 

Es bietet Entwicklungs-APIs in Java, Scala, Python und R und unterstützt die Wiederverwendung von Code für verschiedene Arbeitslasten - Batch-Verarbeitung, interaktive Abfragen, Echtzeit-Analysen, maschinelles Lernen und Graphenverarbeitung.

Weitere Technologien und Themen

Technologien