Direkt zum Inhalt

Snowflake Tutorial für Anfänger: Von der Architektur zum Betrieb von Datenbanken

Lerne die Grundlagen des Cloud Data Warehouse Management mit Snowflake. Snowflake ist eine cloudbasierte Plattform, die Unternehmen, die so schnell und effizient wie möglich möglichst viele Erkenntnisse aus ihren Daten gewinnen wollen, erhebliche Vorteile bietet.
Aktualisierte 16. Jan. 2025  · 12 Min. Lesezeit

Was ist Snowflake?

Wenn mich jemand bitten würde, Snowflake mit so wenigen Worten wie möglich zu beschreiben, würde ich diese wählen:

  • Data Warehouses
  • Groß angelegte Daten
  • Multi-Cloud
  • Abtrennung
  • Skalierbar
  • Flexibel
  • Einfach

Wenn sie wollten, dass ich etwas ausführlicher werde, habe ich die Wörter so aneinandergereiht:

Snowflake ist eine weit verbreitete Cloud-basierte Plattform zur Verwaltung von Data Warehouses. Es hebt sich von der Konkurrenz ab, weil es große Datenmengen und Arbeitslasten schneller und effizienter verarbeiten kann. Seine überragende Leistung beruht auf seiner einzigartigen Architektur, die getrennte Speicher- und Rechenschichten verwendet und dadurch unglaublich flexibel und skalierbar ist. Außerdem ist es nativ mit mehreren Cloud-Anbietern integriert. Trotz dieser fortschrittlichen Funktionen ist es einfach zu erlernen und umzusetzen.

Wenn sie noch mehr Details verlangen, dann würde ich dieses Tutorial schreiben. Wenn du ganz neu auf dem Gebiet bist, ist der Kurs "Einführung in Snowflake " von DataCamp ein guter Einstieg.

Warum Snowflake benutzen?

Snowflake bedient mehr als 8900 Kunden weltweit und verarbeitet täglich 3,9 Milliarden Anfragen. Diese Art von Nutzungsstatistiken sind keineswegs ein Zufall.

Nachfolgend sind die besten Vorteile von Snowflake aufgeführt, die so viel Anziehungskraft haben:

1. Cloud-basierte Architektur

Snowflake wird in der Cloud betrieben und ermöglicht es Unternehmen, Ressourcen je nach Bedarf auf- und abzubauen, ohne sich um die physische Infrastruktur (Hardware) kümmern zu müssen. Die Plattform übernimmt auch routinemäßige Wartungsaufgaben wie Software-Updates, Hardware-Management und Leistungsoptimierung. Dadurch wird der Wartungsaufwand verringert und die Unternehmen können sich auf das Wesentliche konzentrieren: die Wertschöpfung aus den Daten.

2. Elastizität und Skalierbarkeit

Snowflake trennt Speicher- und Rechenebenen und ermöglicht es den Nutzern, ihre Rechenressourcen unabhängig von ihrem Speicherbedarf zu skalieren. Diese Elastizität ermöglicht die effiziente Bewältigung unterschiedlicher Arbeitslasten mit optimaler Leistung und ohne unnötige Kosten.

3. Gleichzeitigkeit und Leistung

Snowflake kann problemlos mit hoher Gleichzeitigkeit umgehen: Mehrere Nutzer können ohne Leistungseinbußen auf die Daten zugreifen und sie abfragen.

4. Datenaustausch

Die Sicherheitsvorkehrungen von Snowflake ermöglichen die gemeinsame Nutzung von Daten durch andere Organisationen, interne Abteilungen, externe Partner, Kunden oder andere Interessengruppen. Komplexe Datenübertragungen sind nicht erforderlich.

5. Zeitreise

Snowflake verwendet für die Versionierung von Daten den schicken Begriff "Time Travel". Bei jeder Änderung in der Datenbank erstellt Snowflake einen Snapshot. So können die Nutzer/innen zu verschiedenen Zeitpunkten auf historische Daten zugreifen.

6. Kosteneffizienz

Snowflake bietet ein Pay-as-you-go-Modell, da es die Ressourcen dynamisch skalieren kann. Du zahlst nur für das, was du nutzt.

All diese Vorteile machen Snowflake zu einem begehrten Tool für das Data Warehouse Management.

Werfen wir nun einen Blick auf die zugrunde liegende Architektur von Snowflake, die diese Funktionen freischaltet.

Werde Dateningenieur

Werde ein Dateningenieur durch fortgeschrittenes Python-Lernen
Kostenloses Lernen beginnen

Was ist ein Data Warehouse?

Bevor wir uns mit der Architektur von Snowflake beschäftigen, sollten wir einen Blick auf die Data Warehouses werfen, um sicherzustellen, dass wir alle auf derselben Seite stehen.

Ein Data Warehouse ist ein zentraler Speicher, der große Mengen an strukturierten und organisierten Daten aus verschiedenen Quellen für ein Unternehmen speichert. Verschiedene Personas (Mitarbeiter/innen) in Organisationen nutzen die Daten, um unterschiedliche Erkenntnisse zu gewinnen.

Zum Beispiel können Datenanalysten in Zusammenarbeit mit dem Marketingteam einen A/B-Test für eine neue Marketingkampagne durchführen und dabei die Tabelle mit den Verkäufen verwenden. Personalspezialisten können die Mitarbeiterdaten abfragen, um die Leistung zu verfolgen.

Dies sind einige Beispiele dafür, wie Unternehmen weltweit Data Warehouses nutzen, um ihr Wachstum voranzutreiben. Aber ohne eine ordnungsgemäße Implementierung und Verwaltung mithilfe von Tools wie Snowflake bleiben Data Warehouses nur ein kompliziertes Konzept.

Mit unserem Kurs Data Warehousing kannst du mehr über dieses Thema erfahren.

Snowflake Architektur

Die einzigartige Architektur von Snowflake, die für schnellere analytische Abfragen entwickelt wurde, beruht auf der Trennung von Speicher- und Rechenebenen. Diese Unterscheidung trägt zu den Vorteilen bei, die wir bereits erwähnt haben.

Speicherschicht

In Snowflake ist die Speicherschicht eine wichtige Komponente, die Daten effizient und skalierbar speichert. Hier sind einige wichtige Merkmale dieser Ebene:

  1. Cloud-basiert: Snowflake lässt sich nahtlos in die großen Cloud-Anbieter wie AWS, GCP und Microsoft Azure integrieren.
  2. Säulenförmiges Format: Snowflake speichert Daten in einem spaltenförmigen Format, das für analytische Abfragen optimiert ist. Im Gegensatz zu den traditionellen zeilenbasierten Formaten, die von Tools wie Postgres verwendet werden, ist das Spaltenformat gut für die Datenaggregation geeignet. Bei der spaltenbasierten Speicherung greifen die Abfragen nur auf die benötigten Spalten zu, was sie effizienter macht. Bei zeilenbasierten Formaten hingegen muss für einfache Operationen wie die Berechnung von Durchschnitten auf alle Zeilen im Speicher zugegriffen werden.
  3. Mikro-Partitionierung: Snowflake verwendet eine Technik namens Mikropartitionierung, bei der Tabellen in kleinen Teilen im Speicher abgelegt werden. Jeder Chunk ist in der Regel unveränderlich und nur ein paar Megabyte groß, was die Optimierung und Ausführung von Abfragen deutlich beschleunigt.
  4. Null-Kopie-Klonen: Snowflake verfügt über eine einzigartige Funktion, mit der es virtuelle Klone von Daten erstellen kann. Das Klonen erfolgt sofort und verbraucht keinen zusätzlichen Speicherplatz, bis Änderungen an der neuen Kopie vorgenommen werden.
  5. Größe und Elastizität: Die Speicherebene ist horizontal skalierbar, d.h. sie kann wachsende Datenmengen bewältigen, indem sie weitere Server hinzufügt, um die Last zu verteilen. Außerdem erfolgt diese Skalierung unabhängig von den Rechenressourcen, was ideal ist, wenn du große Datenmengen speichern, aber nur einen kleinen Teil davon analysieren willst.

Schauen wir uns nun die Rechenschicht an.

Compute-Schicht

Wie der Name schon sagt, ist der Compute Layer die Engine, die deine Abfragen ausführt. Sie arbeitet mit der Speicherschicht zusammen, um die Daten zu verarbeiten und verschiedene Rechenaufgaben durchzuführen. Im Folgenden erfährst du mehr darüber, wie diese Ebene funktioniert:

  1. Virtuelle Lagerhäuser: Du kannst dir Virtual Warehouses als Teams von Computern (Compute Nodes) vorstellen, die für die Verarbeitung von Abfragen zuständig sind. Jedes Teammitglied bearbeitet einen anderen Teil der Abfrage, was die Ausführung beeindruckend schnell und parallel macht. Snowflake bietet virtuelle Lagerhäuser in verschiedenen Größen und damit auch zu verschiedenen Preisen an (die Größen sind XS, S, M, L, XL).
  2. Architektur mit mehreren Clustern und Knotenpunkten: Die Rechenschicht nutzt mehrere Cluster mit mehreren Knoten für hohe Gleichzeitigkeit, sodass mehrere Nutzer gleichzeitig auf die Daten zugreifen und sie abfragen können.
  3. Automatische Abfrageoptimierung: Das System von Snowflake analysiert alle Abfragen und identifiziert anhand historischer Daten Muster, die optimiert werden können. Zu den üblichen Optimierungen gehören das Bereinigen unnötiger Daten, die Verwendung von Metadaten und die Wahl des effizientesten Ausführungspfads.
  4. Ergebnis-Cache: Die Rechenschicht enthält einen Cache, in dem die Ergebnisse häufig ausgeführter Abfragen gespeichert werden. Wenn dieselbe Abfrage erneut ausgeführt wird, werden die Ergebnisse fast sofort zurückgegeben.

Diese Konstruktionsprinzipien der Rechenschicht tragen alle dazu bei, dass Snowflake unterschiedliche und anspruchsvolle Arbeitslasten in der Cloud bewältigen kann.

Ebene der Cloud-Dienste

Die letzte Ebene sind die Cloud-Dienste. Da diese Schicht in jede Komponente der Architektur von Snowflake integriert ist, gibt es viele Details zu ihrer Funktionsweise. Zusätzlich zu den Merkmalen der anderen Schichten hat sie die folgenden zusätzlichen Aufgaben:

  1. Sicherheit und Zugangskontrolle: Diese Schicht setzt Sicherheitsmaßnahmen durch, darunter Authentifizierung, Autorisierung und Verschlüsselung. Administratoren verwenden die rollenbasierte Zugriffskontrolle (Role-Based Access Control, RBAC), um Benutzerrollen und Berechtigungen zu definieren und zu verwalten.
  2. Datenaustausch: Diese Schicht implementiert sichere Protokolle für den Datenaustausch zwischen verschiedenen Konten und sogar Drittorganisationen. Datenkonsumenten können auf die Daten zugreifen, ohne sie bewegen zu müssen, was die Zusammenarbeit und die Monetarisierung der Daten fördert.
  3. Unterstützung für halbstrukturierte Daten: Ein weiterer einzigartiger Vorteil von Snowflake ist die Fähigkeit, semi-strukturierte Daten wie JSON und Parquet zu verarbeiten, obwohl es sich um eine Data Warehouse Management Plattform handelt. Es kann leicht halbstrukturierte Daten abfragen und die Ergebnisse in bestehende Tabellen integrieren. Diese Flexibilität ist bei anderen RDBMS-Tools nicht gegeben.

Nachdem wir nun einen Überblick über die Architektur von Snowflake haben, können wir ein paar SQL-Anweisungen für die Plattform schreiben.

Einrichten von SnowflakeSQL

Snowflake hat seine eigene Version von SQL, SnowflakeSQL. Der Unterschied zwischen ihm und anderen SQL-Dialekten ist vergleichbar mit dem Unterschied zwischen englischen Akzenten.

Viele der analytischen Abfragen, die du in Dialekten wie PostgreSQL durchführst, ändern sich nicht, aber es gibt einige Diskrepanzen bei den DDL-Befehlen (Data Definition Language).

Snowflake bietet zwei Schnittstellen, um SnowSQL auszuführen:

  • Snowsight: Ein Webinterface für die Interaktion mit der Plattform.
  • SnowSQL: Ein CLI-Client (Command Line Interface) zur Verwaltung und Abfrage von Datenbanken.

Wir werden sehen, wie man beides einrichtet und einige Abfragen durchführt!

Snowsight: Web-Interface

image3.png

Um mit Snowsight zu beginnen, navigiere zur Snowflake Homepage und wähle "Kostenlos starten". Gib deine persönlichen Daten ein und wähle einen der aufgeführten Cloud-Anbieter aus. Die Wahl ist eigentlich egal, denn die kostenlose Testversion enthält Guthaben im Wert von 400 Dollar für jede der Optionen (du musst die Cloud-Anmeldedaten nicht selbst einrichten).

Nachdem du deine E-Mail verifiziert hast, wirst du auf die Seite mit den Arbeitsblättern weitergeleitet. Arbeitsblätter sind interaktive Live-Coding-Umgebungen, in denen du deine SQL-Abfragen schreiben, ausführen und die Ergebnisse ansehen kannst.

image8.png

Um einige Abfragen durchzuführen, brauchen wir eine Datenbank und eine Tabelle (wir werden die Beispieldaten in Snowsight nicht verwenden). Das GIF unten zeigt, wie du eine neue Datenbank mit dem Namen "test_db" und eine Tabelle mit dem Namen "diamonds" mithilfe einer lokalen CSV-Datei erstellen kannst. Du kannst die CSV-Datei herunterladen, indem du den Code in diesem GitHub gist in deinem Terminal ausführst.

image6.gif

Im GIF informiert uns Snowsight, dass es ein Problem mit einem der Spaltennamen gibt. Da das Wort "Tabelle" ein reserviertes Schlüsselwort ist, habe ich es in doppelte Anführungszeichen gesetzt.

Danach wirst du zu einem neuen Arbeitsblatt weitergeleitet, auf dem du jede beliebige SQL-Abfrage ausführen kannst. Wie im GIF zu sehen ist, ist die Oberfläche des Arbeitsblatts recht einfach und sehr funktional. Nimm dir ein paar Minuten Zeit, um dich mit den Bedienfeldern, den Tasten und ihren jeweiligen Positionen vertraut zu machen.

SnowSQL: CLI

Nichts ist so aufregend wie die Verwaltung und Abfrage einer vollwertigen Datenbank von deinem Terminal aus. Deshalb gibt es SnowSQL!

Um es zum Laufen zu bringen, müssen wir jedoch ein paar Schritte befolgen, was in der Regel langsamer ist als der Einstieg in Snowsight.

Als ersten Schritt lädst du das SnowSQL-Installationsprogramm von der Snowflake Developers Download-Seite herunter. Lade die entsprechende Datei herunter. Da ich WSL2 verwende, werde ich mich für eine Linux-Version entscheiden:

image1.gif

Im Terminal lade ich die Datei über den kopierten Link herunter und führe sie mit bash aus:

$ curl -O https://sfc-repo.snowflakecomputing.com/snowsql/bootstrap/1.2/linux_x86_64/snowsql-1.2.31-linux_x86_64.bash
$ bash snowsql-1.2.31-linux_x86_64.bash

Für andere Plattformen kannst du die Installationsschritte auf dieser Seite der Snowflake-Dokumente befolgen.

Nach erfolgreicher Installation solltest du die folgende Meldung erhalten:

image4.png

Hinweis: Auf Unix-ähnlichen Systemen ist es wichtig, dass der Befehl snowsql in allen Terminalsitzungen verfügbar ist. Um dies zu erreichen, solltest du das Verzeichnis /home/username/bin zu deiner $PATH-Variablen hinzufügen. Du kannst dies tun, indem du die folgende Zeile an deine .bashrc, .bash_profile oder .zshrc Dateien anhängst: export PATH=/home/yourusername/bin:$PATH. Denke daran, yourusername durch deinen tatsächlichen Benutzernamen zu ersetzen.

Die Meldung fordert uns auf, die Kontoeinstellungen für die Verbindung mit Snowflake zu konfigurieren. Es gibt zwei Möglichkeiten, dies zu tun:

  1. Gib die Kontodaten interaktiv im Terminal ein.
  2. Konfiguriere die Anmeldedaten in einer globalen Snowflake-Konfigurationsdatei.

Da sie dauerhafter und sicherer ist, werden wir uns für die zweite Option entscheiden. Plattformspezifische Anweisungen findest du auf der Seite Verbinden über SnowSQL in der Dokumentation. Die folgenden Anweisungen gelten für Unix-ähnliche Systeme.

Gehe als Erstes zu deiner E-Mail-Adresse und suche die Willkommens-E-Mail von Snowflake. Er enthält deinen Kontonamen im Anmeldelink: account-name.snowflakecomputing.com. Kopiere es.

image9.png

Als nächstes öffnest du die Datei ~/.snowsql/config mit einem Texteditor wie VIM oder VSCode. Entferne im Abschnitt connections die Kommentare in den folgenden drei Feldern:

  • Kontoname
  • Benutzername
  • Passwort

Ersetze die Standardwerte durch den Kontonamen, den du kopiert hast, und den Benutzernamen und das Passwort, die du bei der Anmeldung angegeben hast. Wenn du das getan hast, speichere und schließe die Datei.

Dann kehrst du zu deinem Terminal zurück und gibst snowsql ein. Der Client sollte sich automatisch verbinden und dir einen SQL-Editor mit Funktionen wie Code-Hervorhebung und Tabulator-Vervollständigung zur Verfügung stellen. So sollte es aussehen:

image5.png

Verbinden mit einer bestehenden Datenbank in SnowSQL

Im Moment sind wir mit keiner Datenbank verbunden. Um das zu ändern, verbinden wir uns mit der Datenbank test_db, die wir mit Snowsight erstellt haben. Prüfe zunächst die verfügbaren Datenbanken mit SHOW DATABASES:

$ SHOW DATABASES
$ USE DATABASE TEST_DB

Als Nächstes gibst du an, dass du von nun an die Datenbank test_db verwenden wirst (Groß- und Kleinschreibung wird nicht berücksichtigt). Dann kannst du eine beliebige SQL-Abfrage über die Tabellen der verbundenen Datenbank ausführen.

$ SELECT COUNT(*) FROM DIAMONDS

image2.png

Erstellen einer neuen Datenbank und Tabelle in SnowSQL

Wenn du zu einem großen Unternehmen gehörst, kann es vorkommen, dass die Verantwortung für die Erstellung einer Datenbank und deren Befüllung mit vorhandenen Daten auf deinen Schultern ruht. Um für dieses Szenario zu üben, laden wir den Diamonds-Datensatz als Tabelle in SnowSQL in eine neue Datenbank hoch. Hier sind die Schritte, die du befolgen kannst:

1. Erstelle eine neue Datenbank:

CREATE DATABASE IF NOT EXISTS new_db;

2. Nutze die Datenbank:

USE DATABASE new_db;

3. Erstelle ein Dateiformat für CSV:

CREATE OR REPLACE FILE FORMAT my_csv_format -- Can be named anything
 TYPE = CSV
 FIELD_DELIMITER = ','
 SKIP_HEADER = 1;  -- Assuming the first row is a header

Wir müssen ein Dateiformat manuell definieren und es benennen, da Snowflake das Schema und die Struktur von Datendateien wie CSV, JSON oder XML nicht ableiten kann. Das Dateiformat, das wir oben definiert haben, ist für die diamonds.csv Datei geeignet, die wir haben (sie ist kommagetrennt und enthält eine Kopfzeile).

4. Erstelle eine interne Bühne:

CREATE OR REPLACE STAGE my_local_files;

Eine Stage in Snowflake ist ein Speicherbereich, in den du deine lokalen Dateien hochladen kannst. Dabei kann es sich um strukturierte und halbstrukturierte Datendateien handeln. Oben haben wir eine Bühne mit dem Namen my_local_files erstellt.

5. Lege die CSV-Datei auf der Bühne ab:

PUT file:///home/bexgboost/diamonds.csv @my_local_files;

6. Erstelle die Tabelle:

CREATE TABLE diamonds (
 carat FLOAT,
 cut VARCHAR(255),
 color VARCHAR(255),
 clarity VARCHAR(255),
 depth FLOAT,
 table FLOAT,
 price INTEGER,
 x FLOAT,
 y FLOAT,
 z FLOAT
);

7. Lade die Daten von der Bühne in die Tabelle:

COPY INTO diamonds
 FROM @my_local_files/diamonds.csv
 FILE_FORMAT = my_csv_format;

8. Verify:

SELECT COUNT(*) FROM diamonds;

In diesen Schritten erstellst du eine neue Snowflake-Datenbank, definierst ein CSV-Dateiformat, erstellst eine Stage zum Speichern lokaler Dateien, lädst eine CSV-Datei in die Stage hoch, erstellst eine neue Tabelle, lädst die CSV-Daten in die Tabelle und überprüfst schließlich den Vorgang, indem du die Anzahl der Zeilen in der Tabelle zählst.

Wenn das Ergebnis die Zeilenzahl zurückgibt, herzlichen Glückwunsch, du hast erfolgreich eine Datenbank erstellt und mit SnowSQL lokale Daten in sie geladen. Jetzt kannst du die Tabelle auf jede beliebige Weise abfragen.

Fazit und weiteres Lernen

Uff! Wir haben mit einfachen Konzepten angefangen, aber zum Ende hin haben wir uns in die knorrigen Details gestürzt. Das ist meine Vorstellung von einem anständigen Lernprogramm.

Du hast wahrscheinlich schon geahnt, dass Snowflake noch viel mehr zu bieten hat als das, was wir hier beschrieben haben. Die Snowflake-Dokumentation enthält sogar Schnellstartanleitungen, die 128 Minuten lang sind! Aber bevor du diese in Angriff nimmst, empfehle ich dir, dich mit einigen anderen Ressourcen vertraut zu machen. Wie wäre es mit diesen:

Danke fürs Lesen!

Lass dich für deine Traumrolle als Data Engineer zertifizieren

Unsere Zertifizierungsprogramme helfen dir, dich von anderen abzuheben und potenziellen Arbeitgebern zu beweisen, dass deine Fähigkeiten für den Job geeignet sind.

Hol dir deine Zertifizierung
Timeline mobile.png

Bex Tuychiev's photo
Author
Bex Tuychiev
LinkedIn

Ich bin ein Data Science Content Creator mit über 2 Jahren Erfahrung und einem der größten Follower auf Medium. Ich schreibe gerne ausführliche Artikel über KI und ML mit einem etwas sarkastischen Stil, denn man muss etwas tun, damit sie nicht so langweilig sind. Ich habe mehr als 130 Artikel verfasst und einen DataCamp-Kurs gemacht, ein weiterer ist in Vorbereitung. Meine Inhalte wurden von über 5 Millionen Augenpaaren gesehen, von denen 20.000 zu Followern auf Medium und LinkedIn wurden. 

Themen

Beginne deine Reise durch die Datenbank noch heute!

Kurs

Introduction to Snowflake

3 hr
23.8K
This course will take you from Snowflake's foundational architecture to mastering advanced SnowSQL techniques.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

20 Min.

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Der Blog

Die 32 besten AWS-Interview-Fragen und Antworten für 2024

Ein kompletter Leitfaden zur Erkundung der grundlegenden, mittleren und fortgeschrittenen AWS-Interview-Fragen, zusammen mit Fragen, die auf realen Situationen basieren. Es deckt alle Bereiche ab und sorgt so für eine abgerundete Vorbereitungsstrategie.
Zoumana Keita 's photo

Zoumana Keita

30 Min.

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Mehr anzeigenMehr anzeigen