Kurs
1973 waren die KI-Forscher auf dem Höhepunkt. Maschinen konnten Algebra-Probleme lösen, Schach spielen und einfache Sätze verstehen. Dann ging die Finanzierung fast über Nacht nicht mehr weiter. Labore wurden geschlossen, Karrieren kamen zum Stillstand, und „künstliche Intelligenz” wurde zu einem Begriff, der Investoren in die Flucht schlug. Das war nicht nur eine Marktkorrektur. Es war ein KI-Winter, und der sollte fast ein Jahrzehnt dauern.
Solche Phasen des plötzlichen Zusammenbruchs gab es in der Geschichte der KI schon zweimal, und sie haben alles geprägt, wie wir heute an dieses Gebiet rangehen. Hier ist, was du in diesem Leitfaden findest: die historische Zeitleiste beider KI-Winter, die zugrunde liegenden Muster, die sie ausgelöst haben, und die praktischen Lehren, die wir anwenden können, um eine Wiederholung dieser Zyklen zu vermeiden.
Das Phänomen des KI-Winters erklären
Ein KI-Winter ist eine Phase, in der es weniger Geld, Interesse und Vertrauen in die Forschung zur künstlichen Intelligenz gibt. Der Begriff kam aus der Forschungswelt selbst und nutzt die Metapher der saisonalen Kälte, um zu zeigen, wie Begeisterung und Investitionen nach Wachstumsphasen plötzlich einfrieren. Das sind keine kurzen Abschwünge. Die KI-Winter haben zwischen 6 und 13 Jahre gedauert und die Entwicklung in diesem Bereich echt durcheinandergebracht. Wenn wir die Muster erkennen, die diese Zeiten prägen, können wir sowohl historische Ereignisse als auch aktuelle Risiken besser verstehen und vielleicht sogar verhindern, dass es in Zukunft wieder zu solchen Krisen kommt.
Der Hype-Desillusionierungszyklus
Im Kern jedes KI-Winters steckt eine vorhersehbare Dynamik. Die ersten Durchbrüche sorgen für Medienaufmerksamkeit und Begeisterung in der Öffentlichkeit, was zu überhöhten Erwartungen an das führt, was KI in naher Zukunft leisten kann. Diese Begeisterung zieht Geld von staatlichen Stellen und privaten Investoren an, was mehr Forschung und mehr Ergebnisse bringt (einige echt, andere übertrieben). Irgendwann wird der Unterschied zwischen dem, was versprochen wurde, und dem, was geliefert wird, einfach zu groß, um ihn zu ignorieren. Wenn Systeme diese Versprechen nicht einhalten, kommt Skepsis auf und die Finanzierung bricht zusammen.
Der Gartner Hype Cycle ist hier ein nützlicher Rahmen: Technologien erreichen einen „Gipfel überhöhter Erwartungen“, bevor sie in eine „Tal der Enttäuschungen“ fallen. Genau das ist mit der KI in den 1970er und 1980er Jahren passiert. Dieser Zyklus ähnelt den Wirtschaftsblasen in anderen Technologiebereichen, aber KI-Winter haben ihre eigenen Besonderheiten. Im Gegensatz zu reinen Finanzblasen kommen KI-Winter von grundlegenden technischen Einschränkungen, die Forscher am Anfang vielleicht nicht so richtig einschätzen können. Probleme, die „in ein paar Jahren“ lösbar scheinen, brauchen am Ende noch Jahrzehnte mehr Arbeit.
Strukturelle Phasen
Wir können erkennen, wie KI-Winter in der Praxis tatsächlich ablaufen. Diese Phasen durchlaufen verschiedene Abschnitte, die einem vorhersehbaren Verlauf folgen.
Zuerst kommt die Phase der übertriebenen Versprechungen. Forscher und Institutionen machen selbstbewusste Vorhersagen über Fähigkeiten, die erst in Jahren oder Jahrzehnten möglich sein werden. Die Medien machen diese Behauptungen noch lauter, und die Geldgeber machen ihre Investitionsentscheidungen nach optimistischen Zeitplänen. Dann kommt die Realität. In der Praxis gehen Systeme kaputt, die Rechenanforderungen sind zu hoch und der Unterschied zwischen Demos und den echten Lösungen wird deutlich.
Als Nächstes kommt das, was Forscher als „Wissensdiaspora” bezeichnen. Wenn die Finanzierung wegfällt, wechseln KI-Forscher in andere Bereiche. Computer-Vision-Experten wechseln zur Grafik. Forscher im Bereich maschinelles Lernen wechseln zur Statistik. Dieser Braindrain hat langfristige Auswirkungen, weil er den Aufbau von Fachwissen stört. Wenn das Interesse irgendwann wiederkommt, muss das Fachgebiet seine Wissensbasis teilweise neu aufbauen. Dieses Muster zu verstehen ist echt hilfreich, weil es erklärt, warum jeder Winter das Feld so stark zurückgeworfen hat und warum es so wichtig ist, das zu verhindern.
Geschichte und Zeitachse der KI-Winter
Schauen wir uns mal an, wie sich diese Muster in der Vergangenheit tatsächlich entwickelt haben. KI hat zwei große Einbrüche erlebt, die zwar durch unterschiedliche Umstände ausgelöst wurden, aber genau den eben beschriebenen Mustern folgten.
Die intellektuellen Grundlagen der KI wurden in den 1950er Jahren von Leuten wie Alan Turing, John McCarthy und Marvin Minsky gelegt. Die berühmte Dartmouth-Konferenz im Jahr 1956 war der offizielle Startschuss für dieses Forschungsgebiet. Da trafen sich Forscher, die davon überzeugt waren, dass künstliche Intelligenz innerhalb einer Generation möglich sein würde. Dieser Optimismus war nicht ganz unbegründet. Frühe Programme konnten mathematische Theoreme beweisen, Dame spielen und Rätsel lösen.
Aber die Warnzeichen waren schon früher da, als die meisten Leute denken. Der ALPAC-Bericht von 1966 hat Maschinenübersetzungsprojekte kritisch angeschaut und festgestellt, dass Computer menschliche Übersetzer nicht ersetzen können und das wahrscheinlich auch in nächster Zeit nicht schaffen werden. 1969 haben Marvin Minsky und Seymour Papert in ihrem Buch „Perceptrons“ gezeigt, dass einlagige neuronale Netze mathematisch begrenzt sind, was diese Forschungsrichtung vorübergehend zum Stillstand gebracht hat. Diese frühen Rückschläge waren ein Vorzeichen für die systematischen Probleme, die den ersten KI-Winter auslösten.
Der erste KI-Winter (1974–1980)
Aufgrund dieser ersten Warnsignale fing 1974 der erste KI-Winter an und dauerte bis etwa 1980. Das hat die Forschungsschwerpunkte und Karrierewege in diesem Bereich total verändert. Mal sehen, wie sich der zuvor besprochene Zyklus aus Hype und Ernüchterung in der Praxis entwickelt hat.
Vorläufer und früher Hype
Die Zeit von 1956 bis 1973 wird oft als „goldene Ära” von AI bezeichnet. Forscher haben symbolische Logiksysteme, frühe natürliche Sprachverarbeitung und Problemlösungsprogramme entwickelt, die sowohl Wissenschaftler als auch die Öffentlichkeit beeindruckt haben. Behörden, vor allem in den USA und Großbritannien, haben viel Geld in die KI-Forschung gesteckt. Von der DARPA finanzierte Uni-Labore und die Medien haben regelmäßig Geschichten über Maschinen gebracht, die bald wie Menschen denken würden.
Dieser Hype hat unrealistische Erwartungen geweckt. Manchmal haben Forscher auch zu dem Problem beigetragen. Marvin Minsky hat 1970 gesagt, dass wir in „drei bis acht Jahren eine Maschine haben werden, die so schlau ist wie ein durchschnittlicher Mensch“. Diese selbstbewussten Zeitpläne haben die Finanzierungsentscheidungen und die öffentliche Meinung beeinflusst und damit die Voraussetzungen für Enttäuschungen geschaffen.
Der Lighthill-Bericht und seine Auswirkungen
1973 hat Sir James Lighthill dem britischen Wissenschaftsrat einen Bericht gegeben, in dem er die KI-Forschung ziemlich scharf kritisiert hat. Lighthill meinte, dass KI ihre Ziele nicht erreicht hat und dass viele Probleme mit einer „kombinatorischen Explosion” zu kämpfen haben, bei der die Anzahl der zu prüfenden Möglichkeiten exponentiell wächst, wenn ein Problem größer wird. Das bedeutete, dass die benötigten Rechenressourcen einfach zu groß wurden, was praktische Anwendungen in der realen Welt unmöglich machte.
Diese Einschätzung hat die KI-Forschung in Großbritannien echt fertiggemacht. Die britische Regierung hat die Mittel für KI an den Unis gekürzt, und viele Forscher haben entweder das Fachgebiet verlassen oder sind in die USA gegangen. Der Lighthill-Bericht hatte nicht nur in Großbritannien Einfluss, sondern gab auch Leuten auf der ganzen Welt, die an der Finanzierung von KI zweifelten, Argumente und trug dazu bei, dass die DARPA 1974 beschloss, die Unterstützung für die KI-Forschung zu reduzieren.
Kürzungen der Mittel und ihre Folgen
Als DARPA und andere Behörden ihre Unterstützung zurückzogen, spürte man die Auswirkungen im ganzen Forschungsbereich. Universitäten haben ihre KI-Labore zugemacht, Doktorandenprogramme wurden gekürzt und vielversprechende Forscher haben zu anderen Bereichen gewechselt, nur um ihren Job zu behalten. Der Begriff „künstliche Intelligenz” wurde in Finanzierungsanträgen zum Reizwort. Forscher haben angefangen, umschreibende Begriffe wie „Informatik” oder „computergestützte Intelligenz” zu benutzen, um das negative Image zu vermeiden.
Die Wissensdiaspora fing an. Die Forscher sind in benachbarte Fachgebiete gewechselt oder haben die Wissenschaft komplett verlassen. Durch diese Zersplitterung musste, als das Interesse an KI in den 1980er Jahren wieder auflebte, viel institutionelles Wissen von Grund auf neu aufgebaut werden. Dieser Aufschwung kam durch Expertensysteme, die einen praktischeren, bereichsspezifischen Ansatz für KI versprachen.
Der zweite KI-Winter (Ende der 1980er bis Mitte der 1990er Jahre)
Trotz des vielversprechenden Starts mit Expertensystemen kam Ende der 1980er Jahre der zweite KI-Winter, was zeigt, dass die Lösung einer Reihe von Problemen nicht verhindert, dass neue Schwachstellen auftauchen.
Die Blase der Expertensysteme
Anfang der 1980er Jahre haben Expertensysteme menschliches Fachwissen in bestimmten Bereichen mithilfe von handgefertigten Regeln erfasst. Systeme wie MYCIN (für medizinische Diagnosen) und XCON (für die Computerkonfiguration) haben echt was gebracht, und die Firmen haben viel in diese regelbasierten Systeme reingesteckt. Eine ganze Industrie hat sich um das Thema „Wissensengineering“ herum entwickelt, und Japans Projekt „Fifth Generation Computer“ wollte massiv parallele Computer bauen, die für Expertensysteme optimiert sind, was in den USA und Europa zu konkurrierenden Reaktionen geführt hat.
Aber es gab schnell Probleme. Ein einziges System aufzubauen, könnte Jahre dauern, in denen man Experten interviewt und ihr Wissen in feste Regeln umwandelt. Die Wartung war noch schwieriger. Als die Wissensdatenbanken wuchsen, haben die Regeln auf unvorhersehbare Weise miteinander interagiert, was das Debuggen schwierig gemacht hat. Das Problem der Fragilität wurde beim Einsatz deutlich: Expertensysteme funktionierten gut bei den Beispielen, für die sie entwickelt worden waren, versagten aber bei allem, was auch nur geringfügig davon abwich. Sie konnten mit den chaotischen, unklaren Situationen, die echte Probleme ausmachen, einfach nicht umgehen. Diese Kluft zwischen kontrollierten Demos und dem tatsächlichen Einsatz spiegelt das Problem wider, das den ersten Winter ausgelöst hat.
Auslöser für Zusammenbrüche
Der Markt für Expertensysteme ist 1987 zusammengebrochen. Die Hardwarekosten waren hier echt wichtig. Expertensysteme liefen normalerweise auf speziellen „Lisp-Maschinen“, die viel teurer waren als normale Computer. Als PCs und Workstations stark genug wurden, um ähnliche Software zu einem Bruchteil der Kosten zu laufen, war der wirtschaftliche Grund für spezielle KI-Hardware weg. Der Markt für Lisp-Maschinen ist zusammengebrochen, und Japans Projekt der fünften Generation ist gescheitert, ohne seine ehrgeizigen Ziele zu erreichen.
Firmen, die in Expertensysteme investiert hatten, merkten, dass die laufenden Wartungskosten den Nutzen dieser Systeme überstiegen. Wissensdatenbanken mussten ständig aktualisiert werden, was teure Wissensingenieure erforderte. In der Zwischenzeit haben einfachere Ansätze bei vielen Problemen oft besser funktioniert. Die Diskrepanz zwischen Forschungszielen und geschäftlichen Anforderungen konnte nicht mehr ignoriert werden. Große Projekte haben ihre Versprechen nicht eingehalten, und es kam zu einer Enttäuschung.
Rückgang der Industrie
Der Markt für KI-Hardware ist total eingebrochen. Firmen, die spezielle KI-Workstations gemacht haben, haben zugemacht oder sind in andere Märkte gewechselt. Dieser Zusammenbruch hat auch die Expertensystembranche mitgerissen und zu einem weiteren Einfrieren der Mittel für die KI-Forschung geführt. Start-ups mussten aufgeben, und akademische Programme mussten mit krassen Kürzungen klarkommen.
Der zweite Winter hat die KI-Forscher noch mehr verstreut als der erste. Einige sind in verwandte Bereiche der Informatik wie Datenbanken oder Softwareentwicklung gewechselt. Andere haben sich der Kognitionswissenschaft oder Neurowissenschaft zugewandt. Forscher im Bereich maschinelles Lernen haben ihre Arbeit oft als „Statistik“ oder „Data Mining“ bezeichnet, um das negative Image der KI zu vermeiden. Die psychischen Belastungen waren echt heftig. Forscher, die ihre Karriere in die KI gesteckt hatten, waren plötzlich beruflich auf dem Trockenen und viele haben das Feld für immer verlassen.
Die Erholung vom zweiten Winter hat viel länger gedauert als vom ersten. In den 1990er und frühen 2000er Jahren war „künstliche Intelligenz” immer noch ein schwieriger Begriff. Leute, die sich mit maschinellem Lernen, Computervision oder natürlicher Sprachverarbeitung beschäftigen, haben es oft vermieden, ihre Arbeit als „KI” zu bezeichnen. Als die Finanzierung wieder da war, ging es mehr um konkrete, erreichbare Ziele als um allgemeine Behauptungen über allgemeine Intelligenz.
Wiederkehrende Muster in beiden Wintern
Nachdem wir beide historischen KI-Winter durchlebt haben, können wir jetzt drei Hauptmuster erkennen, die diese Einbrüche ausgelöst haben. Wenn wir diese Muster verstehen, können wir ähnliche Schwachstellen in der heutigen KI-Umgebung erkennen.
Technische Einschränkungen
Beide KI-Winter kamen durch grundlegende technische Probleme, die die Forscher unterschätzt haben. Der erste Winter hat eine kombinatorische Explosion gezeigt, bei der die für komplexe Probleme benötigten Rechenressourcen echt schnell zugenommen haben. Der zweite Winter hat gezeigt, wie anfällig Expertensysteme sind, dass sie nicht lernen können und mit Unsicherheiten nicht klarkommen. In jedem Fall haben Technologien, die bei sorgfältig ausgewählten Testfällen super funktioniert haben, versagt, als sie mit der Komplexität der realen Welt konfrontiert wurden. Der Winter kam, als der Unterschied zwischen Laborversuchen und dem echten Einsatz so groß wurde, dass man ihn nicht mehr ignorieren konnte.
Hype-Dynamik und Erwartungsmanagement
Beide Winter haben sich wie der Gartner Hype Cycle entwickelt. Die ersten Durchbrüche sorgten für Aufregung, die Medienberichterstattung hat die Erfolge noch verstärkt, und die Finanzierung kam aufgrund überhöhter kurzfristiger Erwartungen ins Rollen. Marvin Minskys Vorhersage, dass künstliche Intelligenz „in drei bis acht Jahren“ das Niveau des menschlichen Verstandes erreichen würde, war ein gutes Beispiel für die übertriebene Zuversicht des ersten Winters. Expertensysteme wurden auch als skalierbare Lösungen vermarktet, um menschliches Fachwissen zu erfassen. Als die Realität hinter den Versprechungen zurückblieb, kam es schnell und heftig zu einer Korrektur. Medien, Förderagenturen und institutionelle Strukturen haben alle dazu beigetragen, Erwartungen zu wecken, die die Technologie nicht erfüllen konnte.
Finanzierungsvolatilität und staatliche Beteiligung
Beide Winter waren von Boom-Bust-Zyklen geprägt, bei denen massive Investitionen plötzlich eingestellt wurden. Behörden wie die DARPA haben ganze Forschungsökosysteme geprägt, und als die Finanzierung wegfiel, haben sich die Forscher auf andere Bereiche verteilt. Diese Wissensflucht war echt schädlich, weil man für die KI-Forschung echt viel Zeit braucht, um Fachwissen aufzubauen. Der Bereich hat nicht nur Geld verloren, sondern auch Kontinuität und gesammelte Erfahrung. Was diese Rückschläge noch schlimmer machte, war, dass man sich nur auf ein paar Ansätze konzentrierte – symbolische KI im ersten Winter, Expertensysteme im zweiten. Als diese gezielten Wetten nicht klappten, gab's kaum finanzierte Alternativen, um den Fortschritt weiter voranzutreiben.
Die aktuelle Situation und die Möglichkeit zukünftiger KI-Winter
Nachdem du gesehen hast, wie sich zwei große Winter entwickelt haben, fragst du dich wahrscheinlich, wie es heute um das KI-Ökosystem steht. Steuern wir auf einen weiteren Zusammenbruch zu, oder ist diesmal irgendwas anders? Schauen wir uns mal die aktuelle Situation durch die Brille dieser historischen Muster an.
Der aktuelle Boom (seit 2012)
Der aktuelle KI-Boom hat so um 2012 angefangen, als es bei Deep Learning richtig losging. Die krassen Verbesserungen von AlexNet bei der Bilderkennung waren ein echter Wendepunkt. Seitdem hat Deep Learning echt beeindruckende Ergebnisse in den Bereichen Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache und bei Spielen erzielt.
Ein paar Sachen machen diesen Boom anders als früher. Die Rechenleistung hat sich mega verbessert (GPUs haben das Training großer neuronaler Netze möglich gemacht). Die Datenverfügbarkeit ist mit dem Internet und den mobilen Geräten total explodiert. Und Deep Learning hat sofort praktische Anwendungen in Produkten gefunden, die die Leute jeden Tag benutzen.
Aber es gibt Schwachstellen. Deep Learning braucht echt viele Daten und viel Rechenleistung. Wenn die Modelle größer werden, steigen die Schulungskosten echt krass. Seit den 1980er-Jahren, als Expertensysteme angesagt waren, hat sich das Feld noch nie so sehr auf einen Ansatz (tiefe neuronale Netze) konzentriert wie jetzt.
Die Rechenkosten sind echt ein Problem. Das Training von Frontier-Modellen kostet jetzt mehrere zehn oder hundert Millionen Dollar, und diese Kosten steigen mit der Größe des Modells exponentiell an. Wenn man für den Fortschritt immer größere Modelle braucht, aber die praktischen Vorteile nicht mehr zunehmen, wird das Ganze wirtschaftlich nicht mehr tragbar. Genau diese strukturelle Schwachstelle war schon bei früheren Wintern ein Problem.
Die Lücke zwischen der Benchmark-Performance und dem tatsächlichen Nutzen ist ein weiteres Problem. Modelle machen bei Standardtests echt gute Ergebnisse, aber beim Einsatz klappen sie nicht, weil sie zu anfällig sind, voreingenommen sind oder mit Sonderfällen nicht klarkommen. Kommt dir das bekannt vor? Das zeigt die Kluft zwischen Expertensystem-Demos und dem Einsatz in der Praxis, die zum zweiten Winter beigetragen hat.
Aktuelle Diskussionen und Schwachstellen
Der heutige Diskurs über KI erinnert manchmal an die übertriebenen Versprechungen früherer Zeiten. Begriffe wie „künstliche allgemeine Intelligenz” und Vorhersagen, dass KI in ein paar Jahren jede Branche verändern wird, wecken übertriebene Erwartungen. Das heißt aber nicht, dass die aktuelle KI eine Blase ist, die bald platzen wird. Anders als in den 1970er Jahren haben wir jetzt funktionierende Anwendungen und echten wirtschaftlichen Wert. Aber die Begeisterung bei jeder neuen Modellversion und die Tendenz, die Möglichkeiten zu übertreiben, schaffen Bedingungen, unter denen die Erwartungen die Realität übersteigen könnten.
Allerdings machen es ein paar Sachen unwahrscheinlicher, dass es wieder zu einem AI-Winter kommt. Erstens ist KI total in Sachen eingebaut, die wir jeden Tag benutzen. Suchmaschinen, Smartphones, soziale Medien und Online-Shopping – sie alle nutzen KI. Diese Integration sorgt für wirtschaftliche Stabilität, die es vorher nicht gab.
Zweitens hat sich der internationale Umfang der KI-Forschung stark vergrößert. Auch wenn die Finanzierung in einem Land oder einer Region zurückgeht, geht die Arbeit woanders weiter. China, Europa und andere Regionen haben ihre eigenen KI-Ökosysteme.
Drittens hat der Privatsektor eine führende Rolle übernommen. Auch wenn staatliche Mittel immer noch wichtig sind, können Firmen wie Google, Meta und Anthropic ihre Forschung mit den Einnahmen aus ihrem Kerngeschäft finanzieren. Diese Vielfalt an Finanzierungsquellen macht uns widerstandsfähig gegen einen plötzlichen Rückzug der Regierung.
Lektionen und zukünftige Ausrichtung
Was können wir also aus dieser Geschichte lernen? Die Muster, die wir uns angeschaut haben, bieten praktische Tipps für Forscher, Unternehmen und Politiker, die sich heute mit KI beschäftigen. Schauen wir mal, wie das Verständnis dieser Zyklen uns helfen kann, eine nachhaltigere Zukunft für diesen Bereich zu gestalten.
Realistische Erwartungen
Die wichtigste Erkenntnis aus beiden KI-Wintern ist, dass man nicht zu viel versprechen sollte. Wenn Forscher, Firmen oder Medien Erwartungen wecken, die die Technologie kurzfristig nicht erfüllen kann, kann die Enttäuschung, die dann kommt, dazu führen, dass die Finanzierung gestrichen wird und die Leute skeptisch werden, was den Bereich um Jahre zurückwirft.
Das heißt nicht, dass man keine ehrgeizigen Ziele haben soll. Die KI-Forschung sollte transformative Fähigkeiten anstreben. Aber es ist echt wichtig, über Zeitpläne und Einschränkungen zu reden. Eine klare Unterscheidung zwischen dem, was wir jetzt können, und dem, was in Zukunft möglich sein könnte, hilft dabei, glaubwürdig zu bleiben. Wenn man sich nicht sicher ist, ob ein Ansatz skalierbar oder verallgemeinerbar ist, ist es besser, ehrlich zu sein und diese Einschränkungen zu sagen, als mit optimistischen Spekulationen zu arbeiten. Das ist gerade in der heutigen Zeit wichtig, wo Medienberichte und die Erwartungen der Investoren Behauptungen weit über ihren ursprünglichen Kontext hinaus aufbauschen können.
Vielfältige Ansätze
Beide historischen Winter kamen nach Zeiten, in denen man viel in einzelne Paradigmen gesteckt hat. Symbolische KI war im ersten Winter der Renner, Expertensysteme im zweiten. Als diese Ansätze an ihre Grenzen stießen, litt das ganze Gebiet darunter. Die heutige Konzentration auf Deep Learning bringt ähnliche Risiken mit sich.
Die Forschung zu alternativen Ansätzen weiterzuführen, ist echt wichtig für die Widerstandsfähigkeit. Neurosymbolische KI, probabilistische Programmierung und andere Ansätze könnten neue Wege aufzeigen, wenn die aktuellen Methoden an ihre Grenzen stoßen. Das heißt nicht, dass man erfolgreiche Ansätze einfach so aufgeben soll – Deep Learning hat sich echt bewährt. Aber wenn man in verschiedene Forschungsrichtungen investiert, hat man mehr Optionen, wenn ein einzelner Ansatz an seine Grenzen stößt.
Stabile Finanzierungsmodelle
Boom-Bust-Finanzierungszyklen stören die Kontinuität der Forschung und zerstreuen Fachwissen. In beiden Fällen ging es um einen plötzlichen Rückzug der Finanzierung, der die langfristige Gesundheit des Bereichs beeinträchtigt hat. Stabilere Finanzierungsmodelle (egal ob durch staatliche Unterstützung für langfristige Forschung oder durch verschiedene Investitionen aus der Privatwirtschaft) helfen dabei, den Fortschritt sowohl in Zeiten von Durchbrüchen als auch in Zeiten von Stillstand aufrechtzuerhalten.
Der Trend zu kürzeren Förderzyklen und sofortigen Ergebnissen nach dem KI-Winter könnte die Grundlagenforschung gebremst haben. Langfristige Finanzierung, die auch mal ruhigere Phasen als ganz normalen Teil der Forschung sieht, hilft dabei, die Panik zu vermeiden, die zu einem Einbruch führen kann. Wenn Geldgeber damit rechnen, dass manche Projekte scheitern und andere nur langsam vorankommen, wird das Feld widerstandsfähiger gegen Rückschläge.
Innovation und Regulierung in Einklang bringen
Politische und regulatorische Rahmenbedingungen sind echt wichtig, um KI-Winter zu vermeiden und gleichzeitig Innovationen am Leben zu erhalten. Beide historischen Winter passierten zum Teil, weil staatliche Förderagenturen plötzlich ihre Unterstützung zurückzogen – in den 1970er Jahren die DARPA und in den 1980er Jahren die britischen Forschungsräte –, sodass es keine Sicherheitsnetze mehr gab. Die heutigen Entscheidungsträger müssen aus diesen Zyklen lernen, ohne Vorschriften zu machen, die den guten Fortschritt bremsen könnten.
Die Regulierungslandschaft ist von Region zu Region ziemlich unterschiedlich. Das EU-KI-Gesetz geht nach einem risikobasierten Ansatz vor und stellt strengere Anforderungen an Anwendungen mit hohem Risiko. Die USA finden branchenspezifische Regeln mit Selbstregulierung der Industrie in vielen Bereichen gut. China hat sein eigenes System aufgebaut, das sowohl Innovation als auch Kontrolle in den Vordergrund stellt. Diese Ansätze sind wie ein natürliches Experiment, das zeigt, wie Politik die Forschung und die Marktentwicklung beeinflusst.
Die Herausforderung: einen Mittelweg finden zwischen der Vermeidung von KI-Wintern und der Aufrechterhaltung der Voraussetzungen für Durchbrüche. Zu viele Einschränkungen könnten die Forschung unerschwinglich teuer oder rechtlich riskant machen. Es besteht die Gefahr, dass sich die Hype-getriebenen Zyklen der letzten Winter wiederholen. Eine gute Politik sollte sich auf eine stabile, langfristige Finanzierung der Grundlagenforschung und auf Mechanismen konzentrieren, die verschiedene Ansätze fördern.
Technologische Nachhaltigkeit und ethische Überlegungen
Abgesehen von der Stabilität der Finanzierung stellt der Energiebedarf von KI echte Herausforderungen für die Nachhaltigkeit dar. Das Training großer Modelle braucht echt viel Strom. Forscher suchen nach effizienteren Strukturen und Trainingsmethoden, aber der Trend zu größeren Modellen passt nicht zu den Nachhaltigkeitszielen.
Verschiedene Datenquellen und gründliche Bewertungsmetriken helfen dabei, zuverlässigere KI-Systeme zu entwickeln. Wenn man sich zu sehr auf kleine Datensätze oder Benchmark-Spiele verlässt, entstehen Systeme, die im Labor funktionieren, aber in der Praxis versagen. Diese Lektion kommt direkt aus der Zeit der Expertensysteme, wo Systeme, die nur mit wenigen Beispielen trainiert wurden, mit der Komplexität der realen Welt nicht klarkamen. Um diese technischen Herausforderungen zu meistern, muss man während der ganzen Entwicklung sorgfältig auf ethische Aspekte achten. Unsere Kurs „KI-Ethik” beschäftigt sich damit, wie man verantwortungsbewusste KI-Systeme entwickelt, die Innovation und gesellschaftliche Auswirkungen in Einklang bringen.
Erkenntnisse aus anderen Technologiebooms und -crashs
Der Dotcom-Boom und -Crash zeigen ein paar interessante Parallelen. Genau wie die KI in den 1970er und 1980er Jahren hatten auch die Internet-Technologien mit übertriebenen Erwartungen, riesigen Investitionen, einem plötzlichen Einbruch und schließlich einer Erholung auf einer stabileren Basis zu kämpfen. Der Hauptunterschied? Die Infrastruktur wurde während der Krise immer besser, und die Firmen haben gelernt, sich auf funktionierende Geschäftsmodelle zu konzentrieren, statt nur vage Versprechungen zu machen.
Auch andere technologische Revolutionen (Elektrizität, Autos, PCs) haben Hype-Zyklen durchlaufen. Das Muster zeigt, dass transformative Technologien Zeit brauchen, um passende Anwendungen zu finden und anfängliche Einschränkungen zu überwinden. Wenn wir dieses größere Muster verstehen, können wir sowohl in Boom- als auch in Abschwungphasen die Perspektive behalten.
Fazit
Der aktuelle KI-Boom hat eine solidere Basis als die vorherigen Zyklen. Wir haben praktische Anwendungen, wirtschaftliche Integration und technische Möglichkeiten, die früher nicht da waren. Aber die gleichen Schwachstellen sind immer noch da: zu viel Vertrauen in bestimmte Ansätze, Rechenkosten, die Kluft zwischen Hype und tatsächlichen Fähigkeiten und das ständige Risiko, mehr zu versprechen, als wir halten können.
Der Weg nach vorne braucht ein Gleichgewicht zwischen Ambition und Realismus. Um nachhaltig voranzukommen, braucht's ehrliche Kommunikation, verschiedene Forschungsansätze, stabile Finanzierungsstrukturen und ein Auge auf technische und ethische Herausforderungen. Wenn wir wissen, was in den letzten Wintern passiert ist, können wir ähnliche Risiken heute besser erkennen – und so ein robustes, fundiertes KI-Feld aufbauen, das sowohl Durchbrüche als auch Rückschläge überstehen kann.
Wenn du deine KI-Kenntnisse auf einer soliden Basis ausbauen willst, schau dir unseren Associate AI Engineer for Developers oder vertieft euch in strategische Überlegungen mit unserem Kurs „Strategie für künstliche Intelligenz”. Wenn du sowohl die technischen Möglichkeiten als auch den historischen Kontext der KI verstehst, kannst du dich besser in der Zukunft dieses Bereichs zurechtfinden, egal welche Herausforderungen sie mit sich bringt.
KI-Upskilling für Einsteiger
Als erfahrener Experte für Data Science, maschinelles Lernen und generative KI widmet sich Vinod der Weitergabe von Wissen und der Befähigung angehender Data Scientists, in diesem dynamischen Bereich erfolgreich zu sein.
FAQs
Was waren die Hauptgründe für den ersten KI-Winter?
Der erste KI-Winter (1974–1980) kam durch zu hohe Erwartungen und technische Probleme. Die Forscher dachten, dass es in ein paar Jahren KI auf menschlichem Niveau geben würde, aber die Rechenleistung und die Algorithmen konnten die ehrgeizigen Ziele nicht erreichen. Kritische Berichte wie der britische Lighthill-Bericht haben die KI-Forschung genau unter die Lupe genommen und festgestellt, dass sie nicht genug leistet, was zu massiven Kürzungen der Mittel geführt hat. Behörden wie DARPA haben die Unterstützung für allgemeine KI-Forschung eingestellt und konzentrieren sich jetzt auf eng gefasste, klar definierte Probleme.
Wie hat der Lighthill-Bericht die KI-Forschung in Großbritannien beeinflusst?
Der Bericht von Sir James Lighthill aus dem Jahr 1973 an den britischen Wissenschaftsrat hat die KI-Forschung in Großbritannien ziemlich fertiggemacht. Der Bericht hat den Bereich dafür kritisiert, dass er seine Versprechen nicht eingehalten hat, und die „kombinatorische Explosion” als ein großes Hindernis genannt. Danach hat die britische Regierung die Mittel für die KI-Forschung stark gekürzt und damit die Unterstützung für die meisten KI-Projekte an britischen Unis im Grunde genommen gestrichen. Viele Forscher haben das Feld verlassen oder sind ins Ausland gegangen, und Großbritannien hat seine Position in der KI-Forschung jahrzehntelang nicht wieder ganz zurückerobert.
Welche Rolle hat DARPA in den KI-Winterphasen der 1970er und 1980er Jahre gespielt?
Die DARPA hat beim ersten KI-Winter echt eine große Rolle gespielt, sowohl beim Anfangen als auch beim Beenden. Die Agentur war in den 1960er und frühen 1970er Jahren der größte Geldgeber für KI-Forschung und hat Uni-Labore und coole Projekte unterstützt. Als diese Projekte keine praktischen militärischen Anwendungen brachten, hat die DARPA ab 1974 die Finanzierung für allgemeine KI-Forschung gestrichen, was den ersten Winter ausgelöst hat. In den 1980er Jahren hat die DARPA die Finanzierung der KI wieder aufgenommen, sich aber auf konkrete, erreichbare Ziele konzentriert, statt auf allgemeine Intelligenzforschung.
Wie hat der Zusammenbruch des Lisp-Maschinenmarktes zum zweiten KI-Winter beigetragen?
LISP-Maschinen waren spezielle Computer, die für die Ausführung von KI-Software, vor allem Expertensystemen, optimiert waren. Mitte der 1980er Jahre hatten Firmen wie Symbolics und LMI einen Markt aufgebaut, der jährlich Hunderte Millionen wert war. Als Firmen wie Apple und Sun Microsystems Workstations für den allgemeinen Gebrauch auf den Markt brachten, die genauso gut waren wie LISP-Maschinen, aber viel weniger kosteten, ging der Markt für spezielle Hardware um 1987–1988 ziemlich schnell den Bach runter. Dieser Einbruch hat Hardwarefirmen und die darauf angewiesenen Expertensystemfirmen mitgerissen und den zweiten KI-Winter ausgelöst.
Was sind die wichtigsten Unterschiede zwischen den KI-Wintern der 1970er und 1980er Jahre?
Der erste KI-Winter (1974–1980) hat vor allem die akademische Forschung getroffen, weil es bei der symbolischen KI grundlegende Einschränkungen gab und die Regierung die Finanzierung gestrichen hat. Der zweite Winter (1987–1993) war für die Branche noch härter, nachdem Expertensysteme und spezielle KI-Hardware nicht so gut liefen. Der erste Winter kam, weil man zu viel von der allgemeinen Intelligenz erwartet hatte, während der zweite Winter durch die Einschränkungen von engen, regelbasierten Systemen verursacht wurde, die sich nicht anpassen oder lernen konnten. Auch die Erholungsmuster waren unterschiedlich: Am Ende des ersten Winters hatten Expertensysteme einen praktischen Nutzen, während im zweiten Winter komplett neue Ansätze wie maschinelles Lernen und neuronale Netze nötig waren.
Gibt's Anzeichen dafür, dass wir vielleicht auf einen dritten KI-Winter zusteuern?
Die aktuelle KI hat sowohl gute Seiten als auch potenzielle Schwachstellen. Zu den stabilisierenden Faktoren gehören praktische Anwendungen, die echte Einnahmen bringen, beispiellose Rechenressourcen, riesige Datensätze und die Integration von KI in die Kerngeschäftsprozesse. Zu den besorgniserregenden Mustern gehören die übermäßige Abhängigkeit von Deep Learning ohne klare Alternativen, exponentiell steigende Rechenkosten für marginale Verbesserungen, Lücken zwischen Forschungsbenchmarks und der realen Umsetzung sowie bekannte Zyklen überhöhter Erwartungen. Ob das wieder einen Winter auslöst, hängt davon ab, ob man die Erwartungen im Griff hat, die Forschungsansätze diversifiziert und einen nachhaltigen praktischen Wert schafft, statt nur beeindruckende Demos zu zeigen.
Wie können Forscher und Organisationen verhindern, dass sie zu zukünftigen KI-Wintern beitragen?
Um zukünftige Krisen zu vermeiden, müssen wir realistische Aussagen über unsere aktuellen Fähigkeiten machen, die Forschung über einzelne dominante Ansätze hinaus diversifizieren, uns auf messbare Fortschritte statt auf große Visionen konzentrieren, sicherstellen, dass die Forschung praktische Probleme angeht und nicht nur Benchmark-Leistungen, Transparenz über Misserfolge wahren, Systeme mit klarem Nutzen statt nur beeindruckenden Demos aufbauen und eine stabile langfristige Finanzierung fördern. Unternehmen können helfen, indem sie ehrliche Bewertungen statt übertriebener Versprechungen belohnen und auch in Zeiten langsamerer Fortschritte weiter in Forschung investieren.
Welche Lehren aus den KI-Wintern kann man für die aktuelle KI-Entwicklung und -Einsatz ziehen?
Die historischen KI-Winter zeigen uns ein paar Sachen. Technische Möglichkeiten hinken oft Jahre hinter dem anfänglichen Optimismus hinterher, also denk daran, das bei der Planung mit einzubeziehen. Eng gefasste Benchmarks garantieren keine echte Nützlichkeit. Verbesserungen der Infrastruktur in ruhigeren Zeiten können später oft zu Durchbrüchen führen, deshalb lohnt es sich, auch in ruhigeren Zeiten weiter zu investieren. Der Wissensverlust hat langfristige Auswirkungen, deshalb ist es wichtig, Forschungsgemeinschaften zu erhalten. Wenn man etwas zu sehr kommerzialisiert, bevor die Technologie richtig ausgereift ist, kann das zu Gegenreaktionen führen. Unternehmen, die heute KI einsetzen, sollten sich darauf konzentrieren, bestimmte Probleme gut zu lösen, statt nur nach allgemeinen Fähigkeiten zu streben. Sie sollten realistische Erwartungen an Zeitpläne haben und auf bewährten Techniken aufbauen, während sie Alternativen ausprobieren.

