Cours
En 1973, les chercheurs en intelligence artificielle étaient au sommet de leur gloire. Les machines pouvaient résoudre des problèmes d'algèbre, jouer aux échecs et comprendre des phrases simples. Ensuite, le financement s'est tari presque du jour au lendemain. Les laboratoires ont fermé, les carrières ont été interrompues et l'expression « intelligence artificielle » a suscité la fuite des investisseurs. Il ne s'agissait pas simplement d'une correction du marché. C'était un hiver pour l'IA, et il allait durer près d'une décennie.
Ces périodes d'effondrement soudain se sont produites à deux reprises dans l'histoire de l'IA et ont façonné notre approche actuelle dans ce domaine. Voici ce que vous trouverez dans ce guide : la chronologie historique des deux hivers de l'IA, les schémas sous-jacents qui les ont déclenchés et les leçons pratiques que nous pouvons en tirer pour éviter que ces cycles ne se répètent.
Définition du phénomène de l'hiver de l'IA
Un hiver de l'IA désigne une période de baisse des financements, de l'intérêt et de la confiance dans la recherche sur l'intelligence artificielle. Ce terme a été inventé par la communauté scientifique elle-même, qui a utilisé la métaphore du froid saisonnier pour décrire comment l'enthousiasme et les investissements se figent soudainement après des périodes de croissance. Il ne s'agit pas de ralentissements passagers. Les hivers de l'IA ont duré entre 6 et 13 ans et ont profondément bouleversé la trajectoire du domaine. Identifier les schémas qui définissent ces périodes peut nous aider à comprendre à la fois les événements historiques et les risques actuels, et peut-être même à prévenir de futurs hivers.
Le cycle enthousiasme-désillusion
Au cœur de chaque période de ralentissement de l'IA se trouve une dynamique prévisible. Les premières avancées suscitent l'intérêt des médias et l'enthousiasme du public, ce qui conduit à des attentes exagérées quant à ce que l'IA peut accomplir à court terme. Cet enthousiasme attire des financements provenant d'agences gouvernementales et d'investisseurs privés, ce qui permet d'intensifier la recherche et d'obtenir davantage de résultats (certains réels, d'autres exagérés). Finalement, l'écart entre ce qui est promis et ce qui est livré devient trop important pour être ignoré. Lorsque les systèmes ne parviennent pas à tenir ces promesses, le scepticisme s'installe et le financement s'effondre.
Le cycle de hype de Gartner fournit un cadre utile à cet égard : les technologies atteignent un « pic d'attentes exagérées » avant de plonger dans un « creux de désillusion ». C'est précisément ce qui s'est produit avec l'intelligence artificielle dans les années 1970 et 1980. Ce cycle reflète les bulles économiques observées dans d'autres secteurs technologiques, mais les hivers de l'IA présentent leurs propres caractéristiques. Contrairement aux bulles purement financières, les hivers de l'IA découlent de limitations techniques fondamentales que les chercheurs peuvent ne pas pleinement apprécier au départ. Les problèmes qui semblent pouvoir être résolus « en quelques années » nécessitent en réalité des décennies de travail supplémentaire.
Phases structurelles
Nous pouvons identifier comment les hivers de l'IA se déroulent concrètement. Ces périodes évoluent à travers des phases distinctes qui suivent une trajectoire prévisible.
Tout d'abord, il y a la phase des promesses excessives. Les chercheurs et les institutions émettent des prévisions fiables concernant des capacités qui ne seront disponibles que dans plusieurs années, voire plusieurs décennies. Les médias amplifient ces affirmations, et les organismes de financement fondent leurs décisions d'investissement sur des calendriers optimistes. Puis la réalité s'impose. Les systèmes rencontrent des défaillances dans les applications réelles, les exigences informatiques dépassent ce qui est réalisable, et l'écart entre les démonstrations et les solutions déployées devient évident.
Vient ensuite ce que les chercheurs appellent la « diaspora du savoir ». Lorsque le financement diminue, les chercheurs en IA se tournent vers d'autres domaines. Les experts en vision par ordinateur se tournent vers le graphisme. Les chercheurs en apprentissage automatique s'orientent vers les statistiques. Cette fuite des cerveaux a des effets durables, car elle perturbe l'accumulation de l'expertise. Lorsque l'intérêt revient, le domaine doit partiellement reconstruire sa base de connaissances. Il est utile de comprendre ce schéma, car il explique pourquoi chaque hiver a considérablement retardé les progrès dans ce domaine et pourquoi il est si important de les prévenir.
Histoire et chronologie des hivers de l'IA
En gardant ces modèles à l'esprit, examinons comment ils se sont effectivement déroulés au cours de l'histoire. L'IA a connu deux hivers majeurs, chacun déclenché par des circonstances différentes, mais suivant les mêmes trajectoires que celles que nous venons de décrire.
Les fondements intellectuels de l'IA ont pris forme dans les années 1950 grâce à des pionniers tels qu'Alan Turing, John McCarthy et Marvin Minsky. La célèbre conférence de Dartmouth en 1956 a marqué la naissance officielle de ce domaine, réunissant des chercheurs convaincus que l'intelligence artificielle pourrait être atteinte en l'espace d'une génération. Cet optimisme n'était pas totalement infondé. Les premiers programmes pouvaient prouver des théorèmes mathématiques, jouer aux dames et résoudre des énigmes.
Cependant, des signes avant-coureurs sont apparus plus tôt que la plupart des gens ne le pensent. Le rapport ALPAC de 1966 a évalué de manière critique les projets de traduction automatique, concluant que les ordinateurs ne pouvaient pas rivaliser avec les traducteurs humains et ne le pourraient probablement pas avant longtemps. En 1969, l'ouvrage « Perceptrons » de Marvin Minsky et Seymour Papert a démontré les limites mathématiques des réseaux neuronaux à couche unique, interrompant temporairement cette orientation de recherche. Ces premiers revers ont annoncé les problèmes systémiques qui allaient déclencher le premier hiver de l'IA.
Le premier hiver de l'IA (1974-1980)
Sur la base de ces premiers signes avant-coureurs, le premier hiver de l'IA a débuté en 1974 et s'est prolongé jusqu'en 1980 environ, remodelant fondamentalement les priorités de recherche et les parcours professionnels dans ce domaine. Examinons comment le cycle d'engouement et de désillusion dont nous avons discuté précédemment s'est déroulé dans la pratique.
Précurseurs et engouement initial
La période allant de 1956 à 1973 est souvent considérée comme « l'âge d'or » de l'IA. Les chercheurs ont développé des systèmes de raisonnement symbolique, les prémices du traitement du langage naturel et des programmes de résolution de problèmes qui ont impressionné tant les universitaires que le grand public. Les organismes gouvernementaux, en particulier aux États-Unis et au Royaume-Uni, ont investi de manière significative dans la recherche sur l'intelligence artificielle. Les laboratoires universitaires financés par la DARPA et les médias ont régulièrement publié des articles sur des machines qui seraient bientôt capables de penser comme des humains.
Ce battage médiatique a suscité des attentes irréalistes. Les chercheurs ont parfois contribué au problème. Marvin Minsky a prédit en 1970 que « d'ici trois à huit ans, nous disposerons d'une machine dotée de l'intelligence générale d'un être humain moyen ». Ces échéances optimistes ont influencé les décisions de financement et la perception du public, créant ainsi un terrain propice à la déception.
Le rapport Lighthill et son impact
En 1973, Sir James Lighthill a présenté un rapport au Conseil britannique de la recherche scientifique qui critiquait systématiquement la recherche en IA. Lighthill a soutenu que l'IA n'avait pas atteint ses objectifs et que de nombreux problèmes étaient confrontés à une « explosion combinatoire », où le nombre de possibilités à examiner augmente de manière exponentielle à mesure que le problème prend de l'ampleur. Cela impliquait que les ressources informatiques nécessaires devenaient excessivement importantes, rendant les applications concrètes peu pratiques.
Cette évaluation a eu un effet dévastateur sur la recherche britannique en matière d'intelligence artificielle. Le gouvernement britannique a réduit le financement de l'IA dans les universités, et de nombreux chercheurs ont quitté le domaine ou se sont installés aux États-Unis. L'influence du rapport Lighthill s'est étendue au-delà de la Grande-Bretagne, fournissant des arguments aux sceptiques du financement à travers le monde et contribuant à la décision de la DARPA de réduire son soutien à la recherche en IA en 1974.
Réductions budgétaires et leurs répercussions
Lorsque la DARPA et d'autres agences ont retiré leur soutien, les répercussions se sont fait sentir dans l'ensemble de l'écosystème de la recherche. Les universités ont fermé leurs laboratoires d'IA, les programmes d'études supérieures ont été réduits et des chercheurs prometteurs ont changé de domaine afin de conserver leur emploi. Le terme « intelligence artificielle » est devenu problématique dans les propositions de financement. Les chercheurs ont commencé à utiliser des euphémismes tels que « informatique » ou « intelligence computationnelle » afin d'éviter la stigmatisation.
La diaspora du savoir a commencé. Les chercheurs se sont orientés vers des domaines connexes ou ont quitté le milieu universitaire. Cette dispersion a eu pour conséquence que, lorsque l'intérêt pour l'IA a repris dans les années 1980, une grande partie des connaissances institutionnelles a dû être reconstruite à partir de zéro. Cette renaissance s'est produite grâce aux systèmes experts, qui promettaient une approche plus pratique et spécifique à un domaine particulier de l'IA.
Le deuxième hiver de l'IA (fin des années 1980 - milieu des années 1990)
Malgré les débuts prometteurs des systèmes experts, le deuxième hiver de l'IA est survenu à la fin des années 1980, démontrant que la résolution d'un ensemble de problèmes n'empêche pas l'émergence de nouvelles vulnérabilités.
La bulle des systèmes experts
Au début des années 1980, les systèmes experts ont permis de capturer l'expertise humaine dans des domaines restreints grâce à des règles élaborées manuellement. Des systèmes tels que MYCIN (pour le diagnostic médical) et XCON (pour la configuration informatique) ont apporté une réelle valeur ajoutée aux entreprises, qui ont investi massivement dans ces systèmes basés sur des règles. Toute une industrie s'est développée autour de l'« ingénierie des connaissances », et le projet japonais « Cinquième génération d'ordinateurs » visait à construire des ordinateurs massivement parallèles optimisés pour les systèmes experts, suscitant des réponses concurrentielles aux États-Unis et en Europe.
Cependant, des difficultés sont rapidement apparues. La mise en place d'un système unique pourrait nécessiter des années d'entretiens avec des experts du domaine et la traduction de leurs connaissances en règles formelles. La maintenance s'est avérée encore plus difficile. À mesure que les bases de connaissances se développaient, les règles interagissaient de manière imprévisible, rendant le débogage difficile. Le problème de fragilité est apparu clairement lors du déploiement : les systèmes experts fonctionnaient bien sur les exemples pour lesquels ils avaient été conçus, mais échouaient dès qu'il s'agissait de cas légèrement différents. Ils n'étaient pas en mesure de gérer les situations complexes et ambiguës qui caractérisent les problèmes du monde réel. Cet écart entre les démonstrations contrôlées et le déploiement pratique reflète le problème qui a déclenché le premier hiver.
Déclencheurs d'effondrement
Le marché des systèmes experts s'est effondré en 1987. Les coûts matériels ont joué un rôle important dans ce contexte. Les systèmes experts fonctionnaient généralement sur des « machines Lisp » spécialisées, dont le coût était bien supérieur à celui des ordinateurs standard. Lorsque les ordinateurs personnels et les stations de travail sont devenus suffisamment puissants pour exécuter des logiciels similaires à un coût nettement inférieur, l'intérêt économique du matériel informatique spécialisé dans l'intelligence artificielle a disparu. Le marché des machines Lisp s'est effondré et le projet japonais de cinquième génération a pris fin sans avoir atteint ses objectifs ambitieux.
Les entreprises qui avaient investi dans des systèmes experts ont constaté que les coûts de maintenance courants dépassaient la valeur apportée par ces systèmes. Les bases de connaissances nécessitaient une mise à jour constante, ce qui exigeait le recours à des ingénieurs spécialisés coûteux. Par ailleurs, des approches plus simples se sont souvent révélées plus efficaces pour résoudre de nombreux problèmes. Le décalage entre les objectifs de la recherche et les besoins des entreprises est devenu impossible à ignorer. Les grands projets n'ont pas tenu leurs promesses, et la désillusion s'est installée.
Contraction du secteur
Le marché du matériel informatique dédié à l'intelligence artificielle a connu un effondrement significatif. Les entreprises qui produisaient des postes de travail spécialisés dans l'IA ont cessé leurs activités ou se sont réorientées vers d'autres marchés. Cet effondrement a entraîné dans son sillage l'industrie des systèmes experts, provoquant un nouveau gel des financements destinés à la recherche en IA. Les start-ups ont cessé leurs activités et les programmes universitaires ont subi des coupes budgétaires importantes.
Le deuxième hiver a dispersé les chercheurs en intelligence artificielle encore plus largement que le premier. Certains se sont orientés vers des domaines connexes de l'informatique, tels que les bases de données ou le génie logiciel. D'autres se sont orientés vers les sciences cognitives ou les neurosciences. Les chercheurs en apprentissage automatique ont souvent rebaptisé leurs travaux « statistiques » ou « exploration de données » afin d'éviter la stigmatisation associée à l'IA. Le coût psychologique a été considérable. Les chercheurs qui avaient consacré leur carrière à l'IA se sont retrouvés dans une situation professionnelle incertaine, et beaucoup ont quitté définitivement ce domaine.
La reprise après le deuxième hiver a pris beaucoup plus de temps que celle après le premier. Tout au long des années 1990 et au début des années 2000, le terme « intelligence artificielle » est resté une notion problématique. Les chercheurs travaillant dans les domaines de l'apprentissage automatique, de la vision par ordinateur ou du traitement du langage naturel évitaient souvent de qualifier leurs travaux d'« IA ». Lorsque le financement a repris, il s'est concentré sur des objectifs spécifiques et réalisables plutôt que sur des revendications générales concernant l'intelligence en général.
Motifs récurrents au cours des deux hivers
Après avoir traversé ces deux hivers historiques de l'IA, nous pouvons désormais identifier trois schémas fondamentaux qui ont déclenché ces effondrements. La compréhension de ces modèles nous aide à identifier des vulnérabilités similaires dans l'environnement actuel de l'IA.
Limites technologiques
Les deux hivers de l'IA ont été causés par des obstacles techniques fondamentaux que les chercheurs avaient sous-estimés. Le premier hiver a révélé une explosion combinatoire, où les ressources informatiques nécessaires pour résoudre des problèmes complexes ont augmenté de manière exponentielle. Le deuxième hiver a révélé la fragilité des systèmes experts, leur incapacité à apprendre ou à gérer l'incertitude. Dans chaque cas, les technologies qui fonctionnaient parfaitement sur des cas tests soigneusement sélectionnés ont échoué lorsqu'elles ont été confrontées à la complexité du monde réel. Les hivers sont arrivés alors que cet écart entre les démonstrations en laboratoire et le déploiement pratique était devenu trop évident pour être ignoré.
Dynamique du battage médiatique et gestion des attentes
Les deux hivers ont suivi la trajectoire du cycle de hype de Gartner. Les premières avancées ont suscité l'enthousiasme, la couverture médiatique a amplifié les résultats obtenus et les financements ont afflué sur la base d'attentes à court terme exagérées. La prédiction de Marvin Minsky concernant l'intelligence humaine « d'ici trois à huit ans » illustrait bien l'excès de confiance du premier hiver. Les systèmes experts ont également été commercialisés comme des solutions évolutives permettant de capturer l'expertise humaine. Lorsque la réalité ne correspondait pas aux promesses, la correction était rapide et sévère. Les médias, les organismes de financement et les structures institutionnelles ont tous contribué à créer des attentes que la technologie n'a pas pu satisfaire.
Volatilité du financement et implication du gouvernement
Les deux hivers ont été marqués par des cycles d'expansion et de ralentissement, où des investissements massifs ont été suivis d'un retrait soudain. Des agences gouvernementales telles que la DARPA ont façonné des écosystèmes de recherche complets, et lorsque le financement a cessé, les chercheurs se sont dispersés vers d'autres domaines. Cette fuite des cerveaux s'est avérée particulièrement préjudiciable, car la recherche en IA nécessite des efforts soutenus pour acquérir une expertise. Le domaine a perdu non seulement des financements, mais également sa continuité et le savoir accumulé. Ce qui a aggravé ces échecs, c'est la concentration des ressources dans des approches uniques : l'IA symbolique lors du premier hiver, les systèmes experts lors du second. Lorsque ces paris ciblés ont échoué, il existait peu d'alternatives financées pour soutenir les progrès.
L'époque actuelle et le potentiel d'un futur hiver de l'IA
Après avoir observé le déroulement de deux hivers importants, vous vous interrogez probablement sur l'écosystème actuel de l'IA. Sommes-nous en train de nous exposer à un nouvel effondrement, ou la situation est-elle fondamentalement différente cette fois-ci ? Examinons la situation actuelle à la lumière de ces modèles historiques.
L'essor actuel (2012-présent)
L'essor actuel de l'IA a débuté vers 2012 avec les avancées significatives dans le domaine de l'apprentissage profond. L'amélioration significative d'AlexNet en matière de reconnaissance d'images a constitué un tournant décisif. Depuis lors, l'apprentissage profond a obtenu des résultats remarquables dans les domaines de la vision par ordinateur, de la reconnaissance vocale, du traitement du langage naturel et des jeux vidéo.
Plusieurs facteurs distinguent cet essor des périodes précédentes. La puissance de calcul a considérablement augmenté (les processeurs graphiques ont rendu possible l'entraînement de grands réseaux neuronaux). La disponibilité des données a connu une croissance exponentielle avec l'avènement d'Internet et des appareils mobiles. Le deep learning a trouvé des applications pratiques immédiates dans des produits que les gens utilisent quotidiennement.
Cependant, des vulnérabilités existent. L'apprentissage profond repose largement sur de grands ensembles de données et des calculs intensifs. À mesure que les modèles évoluent, les coûts de formation augmentent de manière exponentielle. Ce domaine s'est concentré sur une approche (les réseaux neuronaux profonds) plus que jamais depuis que les systèmes experts dominaient les années 1980.
Les coûts informatiques constituent une préoccupation réelle. La formation des modèles de pointe coûte actuellement des dizaines, voire des centaines de millions de dollars, et ces coûts augmentent de manière exponentielle avec la taille des modèles. Si le progrès nécessite des modèles toujours plus grands mais que les avantages pratiques plafonnent, l'économie devient non viable. Il s'agit précisément du type de vulnérabilité structurelle qui a précédé les hivers précédents.
L'écart entre les performances de référence et l'utilité réelle crée une autre vulnérabilité. Les modèles obtiennent des résultats impressionnants lors des tests standard, mais échouent lors de leur déploiement en raison de leur fragilité, de leurs biais ou de leur incapacité à gérer les cas limites. Cela vous semble-t-il familier ? Cela reflète l'écart entre les démonstrations des systèmes experts et leur déploiement dans le monde réel, qui a contribué au deuxième hiver.
Débats actuels et vulnérabilités
Le discours actuel sur l'IA fait parfois écho aux promesses excessives des époques précédentes. Des termes tels que « intelligence artificielle générale » et les prévisions selon lesquelles l'IA transformera tous les secteurs d'ici quelques années suscitent des attentes excessives. Cela ne signifie pas pour autant que l'IA actuelle est une bulle sur le point d'éclater. Contrairement aux années 1970, nous disposons aujourd'hui d'applications fonctionnelles et d'une véritable valeur économique. Cependant, l'enthousiasme suscité par chaque nouveau modèle et la tendance à extrapoler ses capacités créent des conditions dans lesquelles les attentes peuvent dépasser la réalité.
Cela dit, plusieurs facteurs rendent moins probable une répétition des hivers historiques de l'IA. Tout d'abord, l'IA est profondément intégrée dans les produits que les gens utilisent quotidiennement. Les moteurs de recherche, les smartphones, les réseaux sociaux et les achats en ligne dépendent tous de l'intelligence artificielle. Cette intégration apporte une stabilité économique qui n'existait pas auparavant.
Deuxièmement, la portée internationale de la recherche en IA s'est considérablement élargie. Même si le financement diminuait dans un pays ou une région, le travail se poursuivrait ailleurs. La Chine, l'Europe et d'autres régions disposent d'écosystèmes d'IA indépendants.
Troisièmement, le secteur privé a joué un rôle de premier plan. Bien que le financement public reste important, des entreprises telles que Google, Meta et Anthropic peuvent soutenir la recherche grâce aux revenus générés par leur activité principale. Cette diversité des sources de financement renforce la résilience face à un retrait soudain du gouvernement.
Leçons et orientations futures
Que pouvons-nous donc apprendre de cette histoire ? Les modèles que nous avons examinés offrent des conseils pratiques aux chercheurs, aux entreprises et aux décideurs politiques qui travaillent aujourd'hui dans le domaine de l'IA. Examinons comment la compréhension de ces cycles peut nous aider à construire un avenir plus durable pour ce domaine.
Gestion réaliste des attentes
La leçon la plus importante à retenir des deux hivers de l'IA est le risque lié aux promesses excessives. Lorsque les chercheurs, les entreprises ou les médias suscitent des attentes que la technologie ne peut satisfaire à court terme, la déception qui s'ensuit peut entraîner un retrait des financements et un scepticisme du public qui font reculer le domaine de plusieurs années.
Cela ne signifie pas qu'il faille éviter de se fixer des objectifs ambitieux. La recherche en intelligence artificielle devrait viser à développer des capacités transformatrices. Cependant, la communication concernant les délais et les contraintes revêt une importance considérable. Une distinction claire entre les capacités actuelles et les possibilités futures contribue à maintenir la crédibilité. Lorsqu'il existe une incertitude quant à la possibilité de transposer ou de généraliser une approche, il est préférable pour le domaine concerné de faire preuve d'honnêteté quant à ces limites plutôt que de se livrer à des spéculations optimistes. Cela revêt une importance particulière dans le contexte actuel, où la couverture médiatique et les attentes des investisseurs peuvent amplifier les déclarations bien au-delà de leur contexte initial.
Diversification des approches
Ces deux hivers historiques ont suivi des périodes d'investissements importants dans des paradigmes uniques. L'intelligence artificielle symbolique a dominé le premier hiver, les systèmes experts le second. Lorsque ces approches ont atteint leurs limites, l'ensemble du domaine en a souffert. L'accent mis aujourd'hui sur l'apprentissage profond engendre des risques similaires.
La poursuite des recherches sur des approches alternatives offre une résilience importante. L'IA neurosymbolique, la programmation probabiliste et d'autres orientations pourraient offrir des pistes d'avenir lorsque les méthodes actuelles atteignent leurs limites. Cela ne signifie pas pour autant qu'il faille abandonner les approches qui ont fait leurs preuves : l'apprentissage profond a démontré son efficacité. Cependant, investir dans différentes orientations de recherche offre des alternatives lorsqu'une approche unique atteint ses limites naturelles.
Modèles de financement stables
Les cycles de financement en dents de scie perturbent la continuité de la recherche et dispersent l'expertise. Ces deux hivers historiques ont été marqués par un retrait soudain des financements qui a nui à la santé à long terme du secteur. Des modèles de financement plus stables (qu'ils proviennent d'aides gouvernementales destinées à la recherche à long terme ou d'investissements diversifiés du secteur privé) contribuent à maintenir les progrès, tant lors des avancées décisives que pendant les périodes de stagnation.
Le passage à des cycles de subvention plus courts et à des résultats immédiats après l'hiver de l'IA a peut-être entravé la recherche fondamentale. Un financement à long terme qui considère les périodes de ralentissement comme une composante naturelle de la recherche contribue à éviter la panique susceptible de déclencher des hivers. Lorsque les bailleurs de fonds anticipent l'échec de certains projets et une progression graduelle pour d'autres, le domaine devient plus résilient face aux revers.
Équilibre entre innovation et réglementation
Les cadres politiques et réglementaires jouent un rôle majeur dans la prévention des hivers de l'IA tout en maintenant l'innovation. Ces deux hivers historiques ont en partie été causés par le retrait soudain du financement public – dans les années 1970 par la DARPA et dans les années 1980 par les conseils de recherche britanniques –, laissant ainsi les chercheurs sans filet de sécurité. Les décideurs politiques d'aujourd'hui doivent tirer les leçons de ces cycles sans créer de réglementations susceptibles de freiner les progrès bénéfiques.
Le cadre réglementaire varie considérablement d'une région à l'autre. La loi européenne sur l'IA adopte une approche fondée sur les risques, imposant des exigences plus strictes aux applications à haut risque. Les États-Unis privilégient les règles sectorielles assorties d'une autorégulation de l'industrie dans de nombreux domaines. La Chine a mis en place son propre cadre, mettant l'accent à la fois sur l'innovation et le contrôle. Ces approches constituent une expérience naturelle sur la manière dont les politiques influencent la recherche et le développement du marché.
Le défi : trouver un équilibre entre la prévention des hivers de l'IA et le maintien des conditions propices aux avancées technologiques. Un nombre excessif de restrictions pourrait rendre la recherche trop coûteuse ou juridiquement risquée. Il existe un risque de répéter les cycles alimentés par l'engouement médiatique qui ont caractérisé les hivers précédents. Une politique efficace devrait se concentrer sur un financement stable à long terme pour la recherche fondamentale et sur des mécanismes qui encouragent la diversité des approches.
Durabilité technologique et considérations éthiques
Au-delà de la stabilité du financement, les besoins énergétiques de l'IA posent de véritables défis en matière de durabilité. La formation de modèles de grande taille nécessite une quantité considérable d'électricité. Les chercheurs explorent des architectures et des méthodes d'entraînement plus efficaces, mais la tendance vers des modèles plus grands entre en conflit avec les objectifs de durabilité.
La diversité des sources de données et des indicateurs d'évaluation rigoureux contribue à la création de systèmes d'IA plus fiables. Une dépendance excessive à des ensembles de données limités ou à des jeux de référence conduit à la création de systèmes qui fonctionnent en laboratoire, mais échouent dans la pratique. Cette leçon provient directement de l'ère des systèmes experts, où les systèmes formés à partir d'exemples limités ne pouvaient pas gérer la complexité du monde réel. Pour relever ces défis techniques, il est nécessaire de prêter une attention particulière aux considérations éthiques tout au long du processus de développement. Notre cours sur l'éthique de l'IA explore la manière de développer des systèmes d'IA responsables qui concilient innovation et impact sociétal.
Enseignements tirés d'autres booms et crises technologiques
Le boom et l'effondrement des entreprises point-com offrent des parallèles utiles. À l'instar de l'intelligence artificielle dans les années 1970 et 1980, les technologies Internet ont fait l'objet d'attentes exagérées, d'investissements massifs, d'un effondrement soudain, puis d'une reprise sur des bases plus solides. Quelle est la principale différence ? Les infrastructures ont continué à s'améliorer pendant la crise, et les entreprises ont appris à se concentrer sur des modèles commerciaux viables plutôt que sur des promesses vagues.
D'autres révolutions technologiques (électricité, automobiles, ordinateurs personnels) ont toutes connu des cycles de hype. Le modèle suggère que les technologies transformatrices ont besoin de temps pour trouver des applications appropriées et surmonter leurs limites initiales. Comprendre cette tendance générale peut nous aider à garder une certaine perspective, tant en période de croissance que de ralentissement.
Conclusion
L'essor actuel de l'IA repose sur des bases plus solides que les cycles précédents. Nous disposons d'applications pratiques, d'une intégration économique et de capacités techniques qui faisaient défaut aux époques précédentes. Cependant, les mêmes vulnérabilités persistent : dépendance excessive à l'égard d'approches spécifiques, coûts informatiques, écart entre le battage médiatique et les capacités réelles, et risque constant de promettre plus que ce que nous pouvons offrir.
La voie à suivre nécessite de trouver un équilibre entre ambition et réalisme. Pour assurer un progrès durable, il est nécessaire de favoriser une communication transparente, de diversifier les axes de recherche, de mettre en place des structures de financement stables et de prêter attention aux défis techniques et éthiques. En comprenant les schémas qui ont déclenché les hivers précédents, nous sommes mieux équipés pour reconnaître les risques similaires aujourd'hui et pour construire un domaine d'IA résilient et solide, capable de surmonter à la fois les avancées et les revers.
Pour ceux qui souhaitent acquérir des compétences en IA sur des bases solides, nous vous invitons à découvrir notre poste d'piste Ingénieur IA associé pour développeurs ou approfondissez vos connaissances stratégiques grâce à notre stratégie en matière d'intelligence artificielle. Comprendre à la fois les capacités techniques et le contexte historique de l'IA vous aidera à appréhender l'avenir de ce domaine, quels que soient les défis qu'il présente.
L'amélioration de l'IA pour les débutants
En tant que professionnel de la science des données, de l'apprentissage automatique et de l'IA générative, Vinod se consacre au partage des connaissances et à l'autonomisation des scientifiques des données en herbe pour qu'ils réussissent dans ce domaine dynamique.
Questions fréquentes
Quels ont été les principaux facteurs qui ont conduit au premier hiver de l'IA ?
Le premier hiver de l'IA (1974-1980) a été causé par des promesses excessives et des contraintes techniques. Les chercheurs avaient prédit l'avènement d'une IA de niveau humain d'ici quelques années, mais la puissance de calcul et les algorithmes n'ont pas permis d'atteindre ces objectifs ambitieux. Des rapports critiques tels que le rapport Lighthill au Royaume-Uni ont évalué de manière systématique la recherche en IA et ont conclu à ses insuffisances, ce qui a entraîné des réductions budgétaires importantes. Les agences gouvernementales telles que la DARPA ont cessé de soutenir la recherche générale sur l'IA, préférant se concentrer sur des problèmes précis et bien définis.
Quel a été l'impact du rapport Lighthill sur la recherche en intelligence artificielle au Royaume-Uni ?
Le rapport de Sir James Lighthill de 1973 au Conseil britannique de la recherche scientifique a eu un effet dévastateur sur la recherche britannique en intelligence artificielle. Le rapport critique le secteur pour ne pas avoir tenu ses promesses et identifie « l'explosion combinatoire » comme un obstacle fondamental. Par la suite, le gouvernement britannique a considérablement réduit le financement de la recherche en IA, supprimant ainsi la quasi-totalité du soutien accordé à la plupart des travaux dans ce domaine dans les universités britanniques. De nombreux chercheurs ont quitté le domaine ou se sont installés à l'étranger, et le Royaume-Uni n'a pas complètement retrouvé sa position dans la recherche en IA pendant des décennies.
Quel rôle a joué la DARPA dans les hivers de l'IA des années 1970 et 1980 ?
La DARPA a joué un rôle majeur dans la création et la fin du premier hiver de l'IA. L'agence a été le principal bailleur de fonds de la recherche en intelligence artificielle dans les années 1960 et au début des années 1970, soutenant des laboratoires universitaires et des projets ambitieux. Lorsque ces projets n'ont pas abouti à des applications militaires concrètes, la DARPA a retiré son financement à la recherche générale sur l'IA à partir de 1974, déclenchant ainsi le premier hiver. Au cours des années 1980, la DARPA a repris le financement de la recherche sur l'intelligence artificielle, mais en se concentrant sur des objectifs spécifiques et réalisables plutôt que sur la recherche générale dans ce domaine.
Comment l'effondrement du marché des machines Lisp a-t-il contribué au deuxième hiver de l'IA ?
Les machines LISP étaient des ordinateurs spécialisés optimisés pour exécuter des logiciels d'intelligence artificielle, en particulier des systèmes experts. Au milieu des années 1980, des entreprises telles que Symbolics et LMI avaient développé un marché représentant plusieurs centaines de millions de dollars par an. Lorsque des entreprises telles qu'Apple et Sun Microsystems ont commercialisé des stations de travail polyvalentes offrant des performances équivalentes à celles des machines LISP à des coûts nettement inférieurs, le marché du matériel spécialisé s'est effondré vers 1987-1988. Cet effondrement a entraîné la faillite des entreprises de matériel informatique et des sociétés spécialisées dans les systèmes experts qui dépendaient d'elles, déclenchant ainsi le deuxième hiver de l'IA.
Quelles sont les principales différences entre les hivers de l'IA des années 1970 et 1980 ?
Le premier hiver de l'IA (1974-1980) a principalement affecté la recherche universitaire, en raison des limites fondamentales de l'IA symbolique et du retrait des financements publics. Le deuxième hiver (1987-1993) a été plus difficile pour l'industrie, à la suite de l'échec commercial des systèmes experts et du matériel informatique spécialisé dans l'intelligence artificielle. Le premier hiver a été causé par des promesses excessives concernant l'intelligence générale, tandis que le second résultait des limites des systèmes étroits, basés sur des règles, qui ne pouvaient ni s'adapter ni apprendre. Les modèles de reprise ont également varié : le premier hiver s'est achevé avec des systèmes experts offrant une valeur pratique, tandis que le second a nécessité des approches entièrement nouvelles, telles que l'apprentissage automatique et les réseaux neuronaux.
Existe-t-il des signes indiquant que nous pourrions être à l'aube d'un troisième hiver de l'IA ?
L'IA actuelle présente à la fois des facteurs de stabilisation et des vulnérabilités potentielles. Les facteurs de stabilisation comprennent les applications pratiques générant des revenus réels, des ressources informatiques sans précédent, des ensembles de données massifs et l'intégration de l'IA dans les opérations commerciales essentielles. Parmi les tendances préoccupantes, on peut citer la dépendance excessive à l'égard de l'apprentissage profond sans alternatives claires, l'augmentation exponentielle des coûts de calcul pour des améliorations marginales, les écarts entre les benchmarks de recherche et le déploiement dans le monde réel, ainsi que les cycles récurrents d'attentes exagérées. La question de savoir si ces initiatives entraîneront un nouvel hiver dépendra de la gestion des attentes, de la diversification des approches de recherche et de la capacité à offrir une valeur pratique durable plutôt que de simples démonstrations impressionnantes.
Comment les chercheurs et les organisations peuvent-ils éviter de contribuer à de futurs hivers de l'IA ?
Pour éviter de futurs hivers, il est nécessaire de formuler des affirmations réalistes sur les capacités actuelles, de diversifier la recherche au-delà des approches dominantes uniques, de se concentrer sur des progrès mesurables plutôt que sur de grandes visions, de veiller à ce que la recherche aborde des problèmes pratiques et ne se limite pas à des performances de référence, de maintenir la transparence sur les échecs, de mettre en place des systèmes ayant une utilité claire et ne se limitant pas à des démonstrations impressionnantes, et de favoriser un financement stable à long terme. Les organisations peuvent contribuer en valorisant les évaluations honnêtes plutôt que les effets de mode et en maintenant leurs investissements dans la recherche, même pendant les périodes de ralentissement.
Quels enseignements tirés des hivers de l'IA s'appliquent au développement et au déploiement actuels de l'IA ?
Les hivers historiques de l'IA nous enseignent plusieurs leçons. Les capacités techniques accusent souvent un retard de plusieurs années par rapport à l'optimisme initial, veuillez donc en tenir compte dans votre planification. Des critères de référence trop restrictifs ne garantissent pas une utilité réelle. Les améliorations apportées aux infrastructures pendant les périodes creuses permettent souvent de réaliser des avancées décisives par la suite. Il est donc avantageux de poursuivre les investissements pendant les périodes de stagnation. La diaspora du savoir a des effets durables, il est donc important de préserver les communautés de recherche. Une commercialisation excessive avant que la technologie n'atteigne sa maturité risque de provoquer des réactions négatives. Les organisations qui déploient aujourd'hui l'IA devraient se concentrer sur la résolution efficace de problèmes spécifiques plutôt que de rechercher des capacités générales, maintenir des attentes réalistes en matière de délais et s'appuyer sur des techniques éprouvées tout en explorant des alternatives.
