Direkt zum Inhalt

Arten von KI: Ein umfassender Leitfaden

Entdecke das ganze Spektrum der künstlichen Intelligenz, von diskriminierender KI und Vorhersagemodellen bis hin zu autonomen Agenten und dem agentenbasierten Framework.
Aktualisiert 30. Dez. 2025  · 15 Min. lesen

Wenn es so aussieht, als wäre künstliche Intelligenz (KI) plötzlich überall, dann liegt das daran, dass es tatsächlich so ist. Laut einer aktuellen Marktstudie von McKinsey ist die weltweite Nutzung von KI von etwa 50–60 % der Unternehmen in den Jahren 2020–2021 auf beeindruckende 88 % im Jahr 2025 gestiegen.

Dieses schnelle Wachstum hat aber ein sprachliches Problem verursacht. „KI“ ist mittlerweile ein Modewort, das für ganz unterschiedliche Technologien benutzt wird. Es wird für einfache regelbasierte Chatbots, Bildgeneratoren und futuristische Science-Fiction-Roboter verwendet.

Für Leute, die mit Daten arbeiten, ist diese Unklarheit echt nervig. Wenn jemand nach einer „KI-Lösung” fragt, solltest du wissen: Brauchen sie ein einfaches Regressionsmodell, einen generativen Agenten oder ein Computer-Vision-System?

In diesem umfassenden Leitfaden schauen wir uns diese Begriffe genauer an. Wir werden nicht einfach nur Definitionen auflisten, sondern das Ganze aus vier verschiedenen Blickwinkeln anschauen: wie es aufgebaut ist, was es kann, wie es entscheidet und wie es in echte Arbeitsabläufe passt.

Wenn du dich noch nicht so gut mit dem Thema auskennst, empfehle ich dir den Kurs „Künstliche Intelligenz verstehen “.

Was ist KI?

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich damit beschäftigt, intelligente Systeme zu entwickeln, die Aufgaben erledigen können, für die man normalerweise menschliche Intelligenz braucht, wie zum Beispiel Probleme lösen, Sprache erkennen und Entscheidungen treffen.

KI ist eine interdisziplinäre Wissenschaft mit vielen verschiedenen Ansätzen. Es kann regelbasiert sein (unter vordefinierten Bedingungen laufen) oder Algorithmen für maschinelles Lernen nutzen, um aus Daten zu lernen, sodass sich Systeme an unerwartete Szenarien anpassen können.

Allerdings ist es echt schwierig, KI genau zu definieren, weil es diesen „KI-Effekt“ gibt, von dem die Forscher reden. Dieses Phänomen zeigt, wie sich die Sichtweise der Gesellschaft auf KI ständig ändert, wenn die Technologien besser werden. Wenn eine Funktion alltäglich wird, hören die Leute auf, sie als „KI“ zu bezeichnen, und sehen sie einfach als normale Software an. 

Wegen dieser sich ändernden Definition und dem breiten Anwendungsbereich reicht eine einzige Klassifizierung nicht aus. Wir brauchen mehrere Blickwinkel, um das ganze Bild zu sehen:

  • Technologie: Die zugrunde liegenden Algorithmen und Architekturen. 
  • Fähigkeit: Intelligenz messen, von gering bis superintelligent.
  • Funktionalität: Wie verarbeiten Systeme Infos und behalten sie im Gedächtnis?

Arten von KI, nach Fähigkeiten, Funktionen und Technologien sortiert.

Zum Beispiel ein selbstfahrendes Auto auf drei Arten gleichzeitig klassifiziert werden:

  • Schmale KI ( basierend auf ihrer spezifischen Fähigkeit).
  • Deep Learning ( basierend auf der zugrunde liegenden Technologie).
  • Begrenzter Speicher (basierend auf seiner Funktionalität).

In den nächsten Abschnitten schauen wir uns diese speziellen Arten genauer an.

Für eine ganz einfache Einführung in die Grundlagen schau dir am besten unseren KI-Leitfaden für Anfänger an.

Technologiebasierte Arten von KI

Die strengste Art, KI zu klassifizieren, ist nach der zugrunde liegenden Technologie, also dem „Motor“, der das System antreibt. Diese Einteilung trennt Systeme danach, wie sie Daten verarbeiten und lernen. Schauen wir uns mal die verschiedenen Arten an.

Maschinelles Lernen

Machine Learning (ML) ist ein Teilbereich der KI, der sich auf Systeme konzentriert, die aus Daten lernen und sich verbessern, ohne dass sie für jede einzelne Regel extra programmiert werden müssen. Anstatt Code zu schreiben, der sagt „wenn dies, dann das“, gibst du dem Algorithmus Daten und lässt ihn die Muster finden.

Maschinelles Lernen lässt sich in drei Hauptparadigmen einteilen, die jeweils für unterschiedliche Problemtypen geeignet sind:

  • Überwachtes Lernen: Die häufigste Form im Geschäftsleben. Es nutzt beschriftete Daten (Input-Output-Paare), um Algorithmen zu trainieren. Du könntest dem Modell zum Beispiel 1.000 E-Mails zeigen, die als „Spam” oder „Kein Spam” markiert sind, und es lernt dann, die nächste E-Mail einzuteilen. Zu den gängigen Algorithmen gehören lineare Regression, K-Nearest Neighbors (KNN) und Entscheidungsbäume.
  • Unüberwachtes Lernen: Der Algorithmus kriegt Daten ohne Beschriftung und muss selbst versteckte Strukturen oder Muster finden. Das wird oft für die Kundensegmentierung (Clustering) genutzt. K-Means-Clustering und die Hauptkomponentenanalyse (PCA) gehören zu den am häufigsten verwendeten Algorithmen.
  • Verstärkendes Lernen (RL): RL geht einen ganz anderen Weg und bringt Agenten durch Ausprobieren mit einem Belohnungs- und Bestrafungssystem was bei. Ein RL-Agent kriegt Feedback zu seiner Interaktion mit der Umgebung und lernt nach und nach, welche Verhaltensweisen die kumulativen Belohnungen im Laufe der Zeit maximieren. Das ist die Methode, mit der Roboter und fortschrittliche Spiel-KI wie AlphaGo trainiert werden.

Deep Learning ist ein Teilbereich des maschinellen Lernens, das wiederum ein Teilbereich der künstlichen Intelligenz ist.

Um dir eine gute Grundlage im Bereich maschinelles Lernen zu holen, empfehle ich dir, den Skill Track „Grundlagen des maschinellen Lernens mit Python” durchzuarbeiten.

Tiefes Lernen

Deep Learning (DL) ist ein spezieller Teilbereich des ML, der von der Struktur des menschlichen Gehirns inspiriert ist. Es nutzt künstliche neuronale Netze mit vielen Schichten (daher „tief“), um komplexe, nichtlineare Beziehungen in riesigen Datensätzen zu modellieren. Während traditionelles ML mit mehr Daten vielleicht nicht mehr besser wird, macht DL oft noch Fortschritte.

Wichtige Architekturen sind:

  • Faltungsneuronale Netze (CNNs): Der Goldstandard für die Bildbearbeitung. Sie nutzen „Filter“, um Bilder automatisch zu scannen und räumliche Hierarchien wie Kanten, Formen und Texturen zu erkennen.
  • Rekursive neuronale Netze (RNNs): Entwickelt für sequenzielle Daten wie Zeitreihen oder Sprache. Sie merken sich frühere Eingaben, um die aktuelle Ausgabe zu beeinflussen.
  • Transformatoren: Die Architektur hinter modernen großen Sprachmodellen (LLMs) wie GPT 5.2 und Gemini 3. Es nutzt einen Aufmerksamkeitsmechanismus, um ganze Datensequenzen gleichzeitig zu verarbeiten, wobei die Bedeutung verschiedener Wörter im Verhältnis zueinander abgewogen wird, anstatt sie einzeln zu verarbeiten.
  • Generative Adversarial Networks (GANs): Ein Rahmen, in dem zwei Netzwerke gegeneinander antreten: ein „Generator“, der gefälschte Daten erstellt, und ein „Diskriminator“, der versucht, die Fälschungen als solche zu erkennen. Dieser Wettbewerb führt zu echt realistischen synthetischen Ergebnissen.
  • Diffusionsmodelle: Der Motor hinter Tools wie Midjourney. Sie machen hochwertige Bilder, indem sie lernen, zufälliges Rauschen systematisch in klare, gut erkennbare Bilder umzuwandeln.

Wenn du diese Modelle selbst erstellen möchtest, empfehle ich dir, mit dem Kurs „Einführung in Deep Learning mit PyTorch“ zu beginnen.

Natürliche Sprachverarbeitung

Bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) geht's darum, dass Computer menschliche Sprache richtig verstehen, interpretieren und auf sinnvolle Weise erzeugen können. NLP macht die Kommunikation zwischen Menschen und Maschinen einfacher, indem es mit der Mehrdeutigkeit, Kontextabhängigkeit und Komplexität von natürlicher Sprache klarkommt.

Zu den Techniken gehören: 

Schauen wir uns mal ein Beispiel für eine Stimmungsanalyse mit „ transformers ” in Python an:

# Example: Sentiment analysis using transformers
from transformers import pipeline
# Load pre-trained sentiment analysis model
sentiment_analyzer = pipeline("sentiment-analysis")
# Analyze multiple texts
texts = [
    "This product exceeded my expectations!",
    "Terrible customer service, very disappointed.",
    "The quality is okay, nothing special."
]
results = sentiment_analyzer(texts)
for text, result in zip(texts, results):
    print(f"Text: {text}")
    print(f"Sentiment: {result['label']}, Confidence: {result['score']:.2f}\n")
Text: This product exceeded my expectations!
Sentiment: POSITIVE, Confidence: 1.00

Text: Terrible customer service, very disappointed.
Sentiment: NEGATIVE, Confidence: 1.00

Text: The quality is okay, nothing special.
Sentiment: NEGATIVE, Confidence: 0.98

Computersicht

Computer Vision lässt Maschinen aus digitalen Bildern und Videos wichtige Infos herauslesen, sodass Computer visuelle Daten ähnlich wie wir Menschen wahrnehmen und verstehen können. Hier geht's darum, Sachen zu erkennen, Entfernungen zu messen oder sogar Muster zu erkennen, die man mit bloßem Auge nicht sehen kann.

Computersichtsysteme kombinieren Bildverarbeitungstechniken mit maschinellem Lernen, vor allem Deep Learning, um immer abstraktere Darstellungen aus rohen Bilddaten zu gewinnen. Zu den wichtigsten Aufgaben gehören:

  • Bildklassifizierung: Herausfinden, was auf einem Bild zu sehen ist (z. B. „Das ist eine Katze“).
  • Objekterkennung: Herausfinden, wo sich ein Objekt befindet (z. B. „An den Koordinaten x, y ist ein Fußgänger“).
  • Gesichtserkennung: Identitätsprüfung anhand von Gesichtszügen.

Die medizinische Bildgebung ist eine der wichtigsten Anwendungen der Bildverarbeitung, bei der KI-Systeme Tumore in Röntgenbildern, CT- und MRT-Scans erkennen und dabei genauso genau oder sogar genauer sind als menschliche Radiologen. Diese Systeme ersetzen keine medizinischen Fachkräfte, sondern helfen ihnen, indem sie zum Beispiel auf mögliche Auffälligkeiten hinweisen, die dann von Experten überprüft werden können.

Audioverarbeitung

Die Audioverarbeitung konzentriert sich darauf, auditive Signale zu erkennen, zu interpretieren und zu synthetisieren, darunter sowohl menschliche Sprache als auch Umgebungsgeräusche. Das Ziel ist, Maschinen in die Lage zu versetzen, Audioinhalte zu hören, zu verstehen und zu generieren, um so die Lücke zwischen Schallwellen und semantischer Bedeutung zu schließen. 

Automatische Spracherkennung (ASR) macht aus gesprochener Sprache geschriebenen Text und ist die Basis für Sprachassistenten, Transkriptionsdienste und Tools für Barrierefreiheit. Moderne ASR-Systeme nutzen Transformer-Architekturen, um Audio-Wellenformen direkt in Textsequenzen umzuwandeln. Damit erreichen sie bei klarer Sprache eine fast menschliche Genauigkeit und werden auch bei schwierigen Bedingungen wie Hintergrundgeräuschen oder akzentuierter Sprache immer besser. 

Text-to-Speech-Engines (TTS) wie Amazon Polly machen das Gegenteil und machen aus geschriebenem Text natürlich klingende Sprache. Dazu nutzen sie neuronale Vocoder, die realistische Prosodie, Intonation und emotionale Ausdruckskraft erzeugen. Heutige TTS-Systeme können Stimmen schon aus ein paar Minuten Audio-Beispiel klonen, was sowohl kreative Möglichkeiten als auch ethische Fragen aufwirft.

Die Anwendungen gehen über die Sprachverarbeitung hinaus und reichen bis in kreative und praktische Bereiche. Die Technologie zum Klonen von Stimmen macht personalisierte virtuelle Assistenten, Hörbucher mit gleichbleibenden Stimmen und auch umstrittene Deepfake-Audios möglich.

Robotik und verkörperte KI

Das ist die Schnittstelle zwischen KI und Technik. Bei der verkörperten KI geht's darum, fortschrittliche „Gehirne“ (wie Bild-Sprach-Modelle) in physische Roboterkörper zu packen. Während ein Großteil der KI nur digital existiert, muss sich die verkörperte KI mit Schwerkraft, Reibung und der unvorhersehbaren Komplexität physischer Umgebungen auseinandersetzen. 

Diese Verankerung in der Realität bringt Herausforderungen mit sich, die bei rein rechnergestützter KI nicht auftreten, ermöglicht aber auch die direkte Interaktion mit der physischen Welt. Früher mussten Roboter für jede Aufgabe extra programmiert werden, wobei Ingenieure die genauen Bewegungen und Entscheidungsbäume manuell programmierten, um bestimmte Ergebnisse zu erzielen. 

Moderne KI-Systeme können natürliche Sprachbefehle wie „Nimm den Apfel auf“ oder „Öffne die Tür“ verstehen. Sie nutzen ihre visuelle Wahrnehmung, um Objekte zu erkennen und passende Aktionen zu planen, ohne dass dafür spezielle Programmierungen nötig sind. 

Dieser Fortschritt geht auf Moravec's Paradox ein, also die Beobachtung, dass Aufgaben, die für Menschen einfach sind, wie Wäsche zusammenlegen, Türen öffnen und sich in unaufgeräumten Räumen zurechtfinden, für Roboter echt schwierig sind, während Aufgaben, die Menschen als Herausforderung sehen, wie Schach oder Mathematik, für KI vergleichsweise einfach sind. 

Verkörperte KI, die auf Grundlagenmodellen basiert, schließt endlich diese Lücke, indem sie Robotern das Wahrnehmungsvermögen und die adaptive Planung gibt, die für uns Menschen ganz normal sind. Zu den Anwendungen gehören Verbrauchergeräte wie Staubsaugerroboter, industrielle kollaborative Roboter (Cobots) und fortschrittliche Humanoide wie Atlas von Boston Dynamics.

Fähigkeitsbasierte Arten von KI

Während die Technologie bestimmt, wie eine KI aufgebaut ist, zeigt die Leistungsfähigkeit, was sie im Vergleich zur menschlichen Intelligenz kann. Diese Einteilung zeigt, wie sich KI entwickelt hat, von den aktuellen Einschränkungen bis hin zu theoretischen Zukunftsszenarien.

Künstliche enge Intelligenz

Künstliche schwache Intelligenz (ANI), auch als schwache KI bekannt, ist die künstliche Intelligenz, die wir heute haben. Das heißt, Systeme, die für bestimmte, vorher festgelegte Aufgaben super sind, aber total versagen, wenn sie mit irgendwas außerhalb ihrer engen Trainingsparameter konfrontiert werden. Ein Schachbot kann kein Auto fahren, und ein medizinisches Diagnosegerät kann keine Gedichte schreiben.

Die „enge“ Definition wird aber immer weiter gefasst. Der aktuelle Stand der Technik umfasst moderne multimodale Large Language Models (LLMs). Wir sehen gerade die Veröffentlichung von Modellen wie GPT-5.2 und Gemini 3, die Text-, Audio- und visuelle Eingaben gleichzeitig verarbeiten können. 

Auch wenn sie logisches Denken nachmachen, fehlt ihnen immer noch ein echtes Verständnis von der Welt. Entwickler nutzen APIs, um mit diesen ANI-Systemen zu interagieren und sie in Anwendungen einzubauen.

Der nächste Schritt bei ANI ist die agentische KI. Das sind Systeme, die mehr können als nur chatten; sie können selbstständig mehrere Schritte machen, wie zum Beispiel im Internet nach einem Flug suchen, und sind so eine Brücke zu umfassenderer Intelligenz.

Künstliche allgemeine Intelligenz

Künstliche Allgemeine Intelligenz (AGI) ist das große Ziel der KI-Forschung. Das ist so ein theoretisches Stadium, wo eine Maschine die Fähigkeit hat, zu lernen, zu denken und Probleme in total unterschiedlichen Bereichen zu lösen, so wie es auch beim Menschen mit seiner kognitiven Flexibilität der Fall ist.

Der entscheidende Unterschied ist die Verallgemeinerung. Ein ANI-System, das darauf trainiert ist, Portugiesisch zu sprechen, kann dieses Wissen nicht nutzen, um schneller Spanisch zu lernen. Ein AGI-System könnte Logik aus einem Bereich auf einen anderen übertragen, ohne dass manuelles Umtrainieren nötig ist.

Der Zeitplan für AGI ist ein Thema, über das viel diskutiert wird. Die Optimisten in der Branche denken, dass es zwischen 2026 und 2029 so weit sein wird. Andererseits sagen Skeptiker, dass uns die grundlegende Architektur (genauer gesagt, genaue „Weltmodelle“) fehlt, um das zu schaffen, und denken, dass das erst 2040 oder später klappen wird.

Künstliche Superintelligenz

Künstliche Superintelligenz (ASI) ist so ein hypothetisches Stadium, in dem KI die klügsten menschlichen Köpfe in fast allen Bereichen übertrifft: wissenschaftliche Kreativität, allgemeine Weisheit, soziale Fähigkeiten und Problemlösung. ASI würde Einstein oder Da Vinci nicht nur das Wasser reichen können, sondern sie sogar noch übertreffen – genauso krass, wie sie die durchschnittliche menschliche Intelligenz übertroffen haben.

Die größte Sorge bei künstlicher Superintelligenz ist die rekursive Selbstverbesserung. Dabei gestaltet eine künstliche Superintelligenz ihre eigene Architektur um, um schlauer zu werden, und nutzt dann diese verbesserte Intelligenz, um sich weiter zu verbessern. Das führt zu einer außer Kontrolle geratenen Rückkopplungsschleife, die die Intelligenz immer schneller macht. 

Diese Intelligenzexplosion könnte schnell Systeme hervorbringen, die so weit über das menschliche Verständnis hinausgehen, dass es unmöglich wird, ihr Verhalten vorherzusagen, was tiefgreifende Sicherheitsfragen hinsichtlich Ausrichtung und Kontrolle aufwirft. Wenn die Ziele einer ASI auch nur ein bisschen von den menschlichen Werten abweichen, könnte ihre überlegene Intelligenz diese Ziele auf eine Art verfolgen, die der Menschheit schadet.

Künstliche enge Intelligenz vs. Künstliche allgemeine Intelligenz vs. Künstliche Superintelligenz

Es gibt keinen vernünftigen Plan, wie man ASI entwickeln könnte, und viele Forscher fragen sich, ob Superintelligenz überhaupt möglich oder als Konzept überhaupt sinnvoll ist. Trotzdem regt die theoretische Möglichkeit von ASI zu ernsthaften wissenschaftlichen Arbeiten über die Ausrichtung der KI an, damit immer leistungsfähigere Systeme nützlich und kontrollierbar bleiben. 

Funktionsbasierte Arten von KI

Während die Leistungsfähigkeit die Stärke misst, geht es bei der Funktionalität darum, wie das System mit der Welt interagiert und Daten verarbeitet. Mit dieser Einteilung können wir zwischen einem Schachcomputer aus den 1990er Jahren und den sozialen Robotern der Zukunft unterscheiden. Schauen wir uns die einzelnen Typen an.

Reaktive Maschinen

Reaktive Maschinen sind die einfachste und älteste Form der KI. Diese Systeme haben kein Konzept von Vergangenheit oder Zukunft, sondern funktionieren nur mit sofortigen Eingaben, die auf vorprogrammierten Regeln basieren.

Das Hauptmerkmal von reaktiver KI ist, dass sie zustandslos und deterministisch ist. Wenn du zehnmal genau dieselbe Eingabe in eine reaktive Maschine machst, wird sie zehnmal genau dieselbe Ausgabe liefern. Es kann nicht aus Erfahrungen lernen, weil es keine Erinnerungen speichert.

Ein gutes Beispiel dafür ist Deep Blue von IBM, der Schachcomputer, der Garry Kasparov geschlagen hat. Es hat Kasparovs Psychologie nicht verstanden. Es hat einfach den besten Zug basierend auf dem aktuellen Spielstand berechnet. Auch normale Spamfilter, die bestimmte Wörter markieren, ohne deine E-Mail-Historie zu checken, gehören dazu.

KI mit begrenztem Speicher

KI mit begrenztem Speicher dominiert moderne Anwendungen. Durch das vorübergehende Speichern aktueller Daten oder Kontexte, um fundierte Entscheidungen zu treffen, ermöglichen KI-Systeme mit begrenztem Speicher dynamisches Verhalten. Anders als reaktive Maschinen beziehen sie sich auf historische Infos innerhalb eines begrenzten Kontextfensters.

Fast alle Predictive-AI- und Generative-AI-Tools, die heute benutzt werden, fallen in diese Kategorie. LLMs wie Claude Opus 4.5 merken sich den Gesprächsverlauf und denken daran, was du vor ein paar Minuten gesagt hast, um passende Antworten zu geben, die auf dem, was vorher gesagt wurde, aufbauen. Das Kontextfenster entscheidet, wie viele alte Infos das System abrufen kann. 

Selbstfahrende Autos verfolgen die Geschwindigkeit und den Weg von Autos in der Nähe über mehrere Sekunden und sagen voraus, wo sie bald sein werden, anstatt nur auf ihre aktuelle Position zu reagieren.

Theorie des Geistes KI

Die Theory of Mind KI ist ein umstrittenes Gebiet zwischen Forschungsprototyp und praktischer Anwendbarkeit. Systeme, die in diese Kategorie fallen, würden menschliche mentale Zustände, Überzeugungen, Absichten, Emotionen und Wünsche modellieren, um Verhalten genau vorherzusagen. 

Diese Fähigkeit ist für natürliche soziale Interaktion echt wichtig, weil sie es der KI ermöglicht, versteckte Hinweise zu verstehen, Täuschungen zu erkennen oder ihre Antworten an die Stimmung eines Benutzers anzupassen. 

Frühere Modelle wie GPT-4 von OpenAI haben schon Ergebnisse auf menschlichem Niveau bei Aufgaben mit falschen Annahmen erzielt, wie zum Beispiel bei der Vorhersage von Handlungen aufgrund falscher Annahmen, wie die PNAS-Studie von Michal Kosinski, einem Forscher aus Stanford, aus dem Jahr 2024 zeigt. 

Aber Experten diskutieren, ob das heißt, dass moderne LLMs schon als echte Theory-of-Mind-Systeme gelten können oder einfach nur Muster aus dem Sprachtraining anwenden. Zu den Prototypen gehört DeepMinds ToMnet, das entwickelt wurde, um die Überzeugungen anderer Akteure in simulierten Umgebungen zu ermitteln.

Selbstbewusste KI

Selbstbewusste KI beschreibt ein Konzept von Maschinen, die Bewusstsein, Empfindungsfähigkeit und ein klares Verständnis ihrer eigenen Existenz haben, das von der Welt um sie herum getrennt ist. 

Das ist nicht nur Intelligenz, sondern auch subjektive Erfahrung. So eine Maschine würde nicht nur Infos über sich selbst verarbeiten, sondern auch ein Gefühl von „Ich existiere“ haben, mit den dazugehörigen Gefühlen, Bedürfnissen und Wünschen.

Diese Ebene geht über die Rechenleistung hinaus und führt uns in philosophische Bereiche über die Natur des Bewusstseins selbst. Würde eine selbstbewusste KI Schmerz, Freude oder Angst vor der Abschaltung fühlen? Wenn ja, hat es dann moralische Rücksichtnahme oder Rechte verdient? Diese Fragen verlagern das Gespräch vom Thema Technik hin zur Ethik.

Kein anderes System kommt an dieses Niveau ran. Fiktive Beispiele, wie HAL 9000 aus „ “ 2001: „A Space Odyssey“ “ oder „Data“ aus „Star Trek“ zeigen das Konzept, aber es bleibt fraglich, ob es jemals so weit kommen wird.

Wichtige Arten von KI-Modellen

Über die hochrangige Theorie hinaus müssen Datenpraktiker die spezifischen Architekturen verstehen, denen sie in der Produktion begegnen werden. Im Großen und Ganzen kann man die Arten von KI-Modellen, die heute in der Industrie verwendet werden, entweder als Ersteller oder als Analysatoren einstufen. Mehr über diesen Unterschied kannst du in diesem Artikel über generative und diskriminative Modelle lesen.

Generative KI: Die Macher

Generative KI-Modelle sind so gemacht, dass sie neue Dateninstanzen erzeugen, die deinen Trainingsdaten ähnlich sind. Diese Modelle lernen die zugrunde liegende Wahrscheinlichkeitsverteilung eines Datensatzes, um originelle Texte, Bilder, Codes oder Audiodateien zu erstellen. Dieser Wechsel von der Analyse zur Kreation bietet viele Möglichkeiten für skalierbare Inhaltserstellung, kreative Erweiterung und Simulation. 

Beliebte Beispiele sind LLMs wie Claude zum Schreiben und Programmieren, Diffusionsmodelle wie Midjourney oder Nano Banana Pro für die Bildsynthese und Videogenerierungsmodelle wie Sora, die komplexe Szenen simulieren können. Es ist wichtig zu wissen, dass nicht alle Bildgeneratoren auf Diffusion setzen; Modelle wie GPT Image 1.5 nutzen stattdessen eine autoregressive Architektur.

Generative KI ist ein großer Fortschritt bei agentenbasierten KI-Workflows, bei denen Modelle nicht nur reagieren, sondern auch selbstständig Assets oder Pläne erstellen. Wir werden uns später genauer mit KI-Agenten beschäftigen.

Diskriminierende KI: Die Analysten

Während generative KI die Schlagzeilen beherrscht, bleibt diskriminierende KI, auch bekannt als prädiktive KI, das Rückgrat des Unternehmensbetriebs. Diese Modelle machen keine neuen Daten, sondern lernen die Grenze zwischen den Klassen in einem Datensatz, um Eingaben zu klassifizieren oder zukünftige Werte vorherzusagen.

Generative KI vs. Diskriminative KI

Der geschäftliche Wert von diskriminierender KI liegt darin, dass sie bei der Entscheidungsfindung hilft und Risiken einschätzen kann. Unternehmen nutzen diese Modelle, um Entscheidungen zu automatisieren, die eine einheitliche Anwendung gelernter Kriterien erfordern.

Im Gegensatz zu generativen Modellen geht es bei diskriminativen Modellen nicht um Kreativität, sondern um Genauigkeit und Zuverlässigkeit. Sie werden oft in Situationen eingesetzt, in denen Fehler schwerwiegende Folgen haben können.

Beispiele sind:

  • Kreditbewertungsmodelle, die das Risiko von Kreditausfällen einschätzen.
  • Spamfilter, die E-Mails als Junk oder echt einstufen.
  • Medizinische Diagnosetools, die Anomalien in Röntgenbildern erkennen.
  • Finanzüberwachungssysteme, die betrügerische Transaktionen erkennen. 

Grundlagenmodelle

Foundation-Modelle werden mit riesigen, vielfältigen Datensätzen wie Texten, Bildern, Code und strukturierten Daten trainiert und lernen so allgemeine Muster, die in verschiedenen Bereichen funktionieren. Ein Grundlagenmodell lernt nicht nur, Bilder zu klassifizieren oder Texte zu generieren, sondern entwickelt ein umfassendes Verständnis von Sprache, logischem Denken und Weltwissen, das mit minimalem zusätzlichem Training auf neue Aufgaben übertragen werden kann.

Grundlagenmodelle

Dieser Ansatz spart echt viel Zeit und Daten, die man sonst braucht, um KI für neue Anwendungen einzusetzen. Anstatt für jedes Problem ein eigenes Modell zu entwickeln, optimieren Unternehmen ein einziges Basismodell für verschiedene Aufgaben, von der Analyse juristischer Dokumente über die Codegenerierung bis hin zur Sprachübersetzung.

Im Moment gibt's immer mehr kleine Sprachmodelle (SLMs). Das sind effiziente, kompakte Versionen von Basismodellen, die für den lokalen Einsatz auf Geräten wie Laptops oder Smartphones entwickelt wurden. Sie bieten Datenschutz und Geschwindigkeit, ohne dass die riesigen Rechenkosten der Cloud-basierten Giganten anfallen.

Arten von KI-Agenten

KI entwickelt sich von passiven Tools zu autonomen Agenten, die komplexe Arbeitsabläufe ausführen können. Während ein Standardmodell auf eine Eingabe wartet, um eine Ausgabe zu erzeugen, kann ein KI-Agent seine Umgebung wahrnehmen, überlegen, wie ein Ziel erreicht werden kann, und Maßnahmen ergreifen, um es umzusetzen. Um die Architektur hinter Agenten zu verstehen und zu lernen, wie man sie entwickelt, empfehle ich, mit unserem Kurs „Einführung in KI-Agenten“ anzufangen.

Arten von KI-Agenten werden normalerweise nach ihrem Grad an Komplexität und Autonomie eingeteilt. Schauen wir sie uns mal an.

Einfache Reflexmittel

Reflexmittel sind die einfachste Art von Mitteln. Sie halten sich strikt an die „Bedingung-Aktion“-Regel, reagieren nur auf das, was sie gerade wahrnehmen, und ignorieren die Vergangenheit. Ein smarter Thermostat macht das mit Regeln wie diesen klar: Wenn die Temperatur unter 20 °C fällt, mach die Heizung an. Wenn es über 22 °C geht, schalt die Kühlung ein. 

Fließbandroboter sind ein weiteres Beispiel: Sie machen was, wenn Sensoren erkennen, dass Teile bestimmte Positionen erreicht haben. Reflexagenten sind super bei sich wiederholenden Aufgaben in stabilen Umgebungen, haben aber Probleme, wenn sich die Bedingungen plötzlich ändern, weil ihnen das Verständnis für den Kontext fehlt, um sich anzupassen.

Modellbasierte Reflexagenten

Modellbasierte Reflexagenten haben ein internes Weltmodell und verfolgen den Zustand im Laufe der Zeit, um mit teilweise beobachtbaren Umgebungen klarzukommen. Sie reagieren nicht nur, sondern merken sich auch wichtige Infos, die für den richtigen Betrieb nötig sind.

Autonome Notbremssysteme zeigen das, indem sie Daten von Radar und Kameras zusammenführen, um die Fahrbahn des Autos im Laufe der Zeit zu verfolgen, anstatt nur auf unmittelbare Gefahren zu reagieren. Sie behalten auch bei unvollständigen Infos genaue Zustandsabschätzungen bei, wie zum Beispiel, wenn sie sich die ungefähre Position eines Autos merken, nachdem es hinter einem LKW verschwunden ist.

Zielorientierte Agenten

Zielorientierte Agenten handeln, um bestimmte Ziele zu erreichen, anstatt nur zu reagieren. Wenn sie ein Ziel wie „einen Urlaub in Italien planen“ haben, denken sie über verschiedene Vorgehensweisen nach und überlegen, welche davon am besten zum Ziel führt. Das ist echt das Neueste in Sachen agentenbasierter KI.

Tools wie Roo Code für die Softwareentwicklung oder autonome Buchungsassistenten machen mehrstufige Abläufe wie Suchen, Vergleichen, Überprüfen von Einschränkungen und Treffen von Entscheidungen, um ganze Jobs zu erledigen. Workflow-Plattformen wie n8n machen es möglich, komplexe Prozesse zu entwickeln, bei denen KI-Agenten Entscheidungspunkte und adaptive Logik übernehmen.

Wenn du dir ein solides Fundament im Bereich KI-Agenten aufbauen willst, empfehle ich dir unseren Lernpfad „Grundlagen der KI-Agenten ”.

Nutzungsbasierte Agenten 

Nutzungsbasierte Agenten gehen sogar noch einen Schritt weiter: Sie suchen nicht einfach irgendeinen Weg, der funktioniert, sondern den besten Weg zum Ziel. Dazu benutzen sie Nutzenfunktionen, die den Ergebnissen numerische Werte zuweisen, was einen quantitativen Vergleich ermöglicht. 

Während ein zielorientierter Agent einfach irgendeinen Flug nach Rom bucht, denkt ein nutzungsorientierter Agent über Sachen wie Kosten, Dauer, Zwischenstopps und Abflugzeiten nach, um den Gesamtnutzen zu maximieren.

Beispiele sind algorithmische Handelssysteme, die Gewinn und Risiko gegeneinander abwägen, und Navigations-Apps wie Waze, die Routen nach den Vorlieben der Nutzer optimieren, z. B. schnellste Zeit, kürzeste Entfernung oder Vermeidung von Mautgebühren.

Lernende Agenten

Lernende Agenten arbeiten in unbekannten oder sich verändernden Umgebungen und verbessern sich durch Erfahrung immer weiter, ohne dass jemand eingreifen muss. Die Architektur hat einen Kritiker, der Feedback zur Leistung gibt, und ein Lernelement, das die Strategie des Agenten anpasst. 

Marsrover lernen, welche Geländemerkmale auf sichere Wege hinweisen, wenn sie auf neue geologische Formationen stoßen. Der Empfehlungsalgorithmus von Netflix ist ein weiteres Beispiel: Er lernt ständig dazu, was die Nutzer mögen, indem er sich an ihren bisherigen Sehgewohnheiten orientiert, und wird so mit der Zeit immer besser bei seinen Vorschlägen.

Agentische Rahmenbedingungen: Die Agenten erstellen

Agentische Frameworks sind sozusagen das Betriebssystem für komplexe Agenten. Sie verbinden den Denk-Kern (meist ein LLM) mit dem Speicher, den Tools und der Multi-Agenten-Koordination. Sie schaffen das:

  • Orchestrierung: Entscheiden, welcher Agent welche Teilaufgabe übernimmt, und den Arbeitsablauf zwischen den Komponenten organisieren
  • Planung: Komplexe Ziele in umsetzbare Schritte aufteilen und bei veränderten Umständen anpassen
  • Werkzeuggebrauch: Agenten Zugriff auf Suchmaschinen, Datenbanken, APIs oder Codeausführung geben
  • Speicher: Gesprächsverlauf und langfristigen Kontext über die unmittelbaren Interaktionen hinaus aufbewahren

Beliebte Frameworks sind:

  • LangChain/LangGraph: Der Standard in der Branche, um LLMs mit Datenquellen zu verbinden, mit vielen Integrationsmöglichkeiten.
  • Google ADK: Open-Source-Framework zum Erstellen von komplexen Agenten auf Vertex AI.
  • CrewAI: Koordiniert mehrere Rollenspiel-Agenten, die bei komplizierten Aufgaben zusammenarbeiten.

Für einen schnellen Überblick über diese Architekturen schau dir am besten das AI Agents-Spickzettel an. 

Fazit

Wir haben hier viel besprochen; lass uns zum Schluss kommen. 

Anstatt KI als eine einzige Technologie zu sehen, sollten wir sie als ein vielfältiges System aus speziellen Ansätzen betrachten, die jeweils für bestimmte Probleme geeignet sind. Um KI wirklich zu verstehen, muss man sie aus drei verschiedenen Blickwinkeln betrachten: Technologie, Fähigkeiten und Funktionalität.

Wir sind gerade dabei, von einer engen KI, die sich auf bestimmte Aufgaben konzentriert, zu frühen Formen der agentenbasierten KI überzugehen, die komplexe Arbeitsabläufe selbstständig erledigt. Das ist ein wichtiger Wendepunkt für die Einführung in verschiedenen Branchen.

Mach den ersten Schritt, um ein KI-Experte zu werden, indem du dich für den Lernpfad „KI-Grundlagen“ anmeldest.

Arten von KI – Häufig gestellte Fragen

Was sind die wichtigsten Arten von KI?

KI wird in drei verschiedene Kategorien eingeteilt: technologiebasiert (maschinelles Lernen, Deep Learning, NLP), fähigkeitsbasiert (ANI, AGI, ASI) und funktionsbasiert (reaktive Maschinen, begrenzter Speicher, Theory of Mind, selbstbewusste KI).

Was ist der Unterschied zwischen generativer KI und prädiktiver KI?

Generative KI macht neue Sachen wie Texte, Bilder oder Codes, während prädiktive KI (diskriminierende KI) Daten sortiert und Ergebnisse anhand von alten Mustern vorhersagt.

Was sind KI-Agenten und wie funktionieren sie?

KI-Agenten sind selbstständige Systeme, die mehrstufige Arbeitsabläufe planen und ausführen. Dazu nutzen sie ein Sprachmodell zum Denken, Tools für die Interaktion mit der Außenwelt und eine Koordinationsschicht, um Aufgaben zu verwalten.

Was ist Agentic AI?

Agentische KI sind autonome Systeme, die selbstständig komplexe, mehrstufige Abläufe ausführen, um Ziele zu erreichen. Sie gehen über das einfache Beantworten von Fragen hinaus und erledigen Aufgaben aktiv.

Was ist der Unterschied zwischen ANI und AGI?

Künstliche enge Intelligenz (ANI) ist super bei bestimmten Aufgaben, hat aber Probleme außerhalb ihres Trainingsbereichs. Gleichzeitig würde die künstliche allgemeine Intelligenz (AGI) die kognitive Flexibilität des Menschen in allen Bereichen erreichen, eine Fähigkeit, die es noch nicht gibt.


Author
Rajesh Kumar
LinkedIn

Ich bin Data Science Content Writer. Ich liebe es, Inhalte rund um KI/ML/DS-Themen zu erstellen. Außerdem erforsche ich neue KI-Tools und schreibe über sie.

Themen

KI-Kurse

Lernpfad

Grundlagen der KI

0 Min.
Lerne die Grundlagen der KI kennen, finde heraus, wie du KI effektiv bei der Arbeit nutzen kannst, und tauche in Modelle wie chatGPT ein, um dich in der dynamischen KI-Landschaft zurechtzufinden.
Details anzeigenRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Blog

Arten von KI-Agenten: Ihre Rollen, Strukturen und Anwendungen verstehen

Lerne die wichtigsten Arten von KI-Agenten kennen, wie sie mit ihrer Umgebung interagieren und wie sie in verschiedenen Branchen eingesetzt werden. Verstehe einfache reflexive, modellbasierte, zielbasierte, nutzenbasierte, lernende Agenten und mehr.
Vinod Chugani's photo

Vinod Chugani

14 Min.

Blog

Die 36 wichtigsten Fragen und Antworten zum Thema generative KI für 2026

Dieser Blog hat eine ganze Reihe von Fragen und Antworten zu generativer KI, von den Grundlagen bis hin zu fortgeschrittenen Themen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Blog

Die 50 wichtigsten AWS-Interviewfragen und Antworten für 2026

Ein kompletter Leitfaden, um die grundlegenden, mittleren und fortgeschrittenen AWS-Interviewfragen zu checken, zusammen mit Fragen, die auf echten Situationen basieren.
Zoumana Keita 's photo

Zoumana Keita

15 Min.

Tutorial

Abstrakte Klassen in Python: Ein umfassender Leitfaden mit Beispielen

Lerne mehr über abstrakte Klassen in Python, wozu sie gut sind und wie du mit dem Modul „abc“ einheitliche Schnittstellen sicherstellen kannst. Enthält praktische Beispiele und bewährte Methoden für eine effektive Umsetzung.
Derrick Mwiti's photo

Derrick Mwiti

Tutorial

Python Switch Case Statement: Ein Leitfaden für Anfänger

Erforsche Pythons match-case: eine Anleitung zu seiner Syntax, Anwendungen in Data Science und ML sowie eine vergleichende Analyse mit dem traditionellen switch-case.
Matt Crabtree's photo

Matt Crabtree

Tutorial

Python-Lambda-Funktionen: Ein Leitfaden für Anfänger

Lerne mehr über Python-Lambda-Funktionen, wozu sie gut sind und wann man sie benutzt. Enthält praktische Beispiele und bewährte Methoden für eine effektive Umsetzung.
Mark Pedigo's photo

Mark Pedigo

Mehr anzeigenMehr anzeigen