Curso
En 1973, los investigadores en inteligencia artificial estaban en la cima. Las máquinas podían resolver problemas de álgebra, jugar al ajedrez y comprender frases sencillas. Entonces, la financiación se agotó casi de la noche a la mañana. Los laboratorios cerraron, las carreras profesionales se estancaron y la «inteligencia artificial» se convirtió en una expresión que ahuyentaba a los inversores. No se trataba solo de una corrección del mercado. Era un invierno para la IA, y duraría casi una década.
Estos periodos de colapso repentino se han producido dos veces en la historia de la IA y han determinado por completo la forma en que abordamos este campo en la actualidad. Esto es lo que encontrarás en esta guía: la cronología histórica de ambos inviernos de la IA, los patrones subyacentes que los desencadenaron y las lecciones prácticas que podemos aplicar para evitar que se repitan estos ciclos.
Definición del fenómeno del invierno de la IA
El invierno de la IA describe un periodo de reducción de la financiación, el interés y la confianza en la investigación sobre inteligencia artificial. El término surgió de la propia comunidad investigadora, que utilizó la metáfora del frío estacional para describir cómo el entusiasmo y la inversión se congelan repentinamente tras períodos de crecimiento. No se trata de breves recesiones. Los inviernos de la IA han durado entre 6 y 13 años y han alterado profundamente la trayectoria del campo. Detectar los patrones que definen estos periodos puede ayudarnos a comprender tanto los acontecimientos históricos como los riesgos actuales, y tal vez a evitar que se produzcan inviernos en el futuro.
El ciclo de expectación-desilusión
En el centro de cada invierno de la IA se encuentra una dinámica predecible. Los avances iniciales generan expectación en los medios de comunicación y entusiasmo entre el público, lo que da lugar a expectativas exageradas sobre lo que la IA puede lograr a corto plazo. Este entusiasmo atrae financiación de organismos gubernamentales e inversores privados, lo que permite realizar más investigaciones y obtener más resultados (algunos reales, otros exagerados). Con el tiempo, la diferencia entre lo que se promete y lo que se cumple se vuelve demasiado grande como para ignorarla. Cuando los sistemas no cumplen estas promesas, el escepticismo se apodera de la situación y la financiación se derrumba.
El ciclo de hype de Gartner proporciona un marco útil en este sentido: las tecnologías alcanzan un «pico de expectativas exageradas» antes de caer en un «valle de la desilusión». Eso es exactamente lo que le pasó a la IA en los años 70 y 80. Este ciclo refleja las burbujas económicas de otros sectores tecnológicos, pero los inviernos de la IA tienen sus propias características. A diferencia de las burbujas puramente financieras, los inviernos de la IA se deben a limitaciones técnicas fundamentales que los investigadores pueden no apreciar plenamente al principio. Los problemas que parecen solucionables «en unos pocos años» acaban requiriendo décadas de trabajo adicional.
Fases estructurales
Podemos identificar cómo se desarrollan realmente los inviernos de la IA en la práctica. Estos periodos pasan por fases distintas que siguen una trayectoria predecible.
Primero viene la etapa de promesas excesivas. Los investigadores y las instituciones hacen predicciones seguras sobre capacidades que están a años o décadas de distancia. Los medios de comunicación amplifican estas afirmaciones y las agencias de financiación basan sus decisiones de inversión en plazos optimistas. Entonces llega la realidad. Los sistemas fallan en aplicaciones del mundo real, los requisitos computacionales superan lo que es práctico y la brecha entre las demostraciones y las soluciones implementadas se hace evidente.
A continuación viene lo que los investigadores denominan la «diáspora del conocimiento». Cuando se agota la financiación, los investigadores en IA se dispersan hacia otros campos. Los expertos en visión artificial se pasan al mundo del diseño gráfico. Los investigadores en machine learning se pasan a la estadística. Esta fuga de cerebros tiene efectos duraderos porque interrumpe la acumulación de conocimientos especializados. Cuando finalmente vuelve el interés, el campo tiene que reconstruir parcialmente su base de conocimientos. Comprender este patrón es útil porque explica por qué cada invierno supone un retroceso tan significativo para el campo y por qué es tan importante prevenirlo.
Historia y cronología de los inviernos de la IA
Teniendo en cuenta estos patrones, veamos cómo se han desarrollado realmente a lo largo de la historia. La IA ha experimentado dos inviernos importantes, cada uno provocado por circunstancias diferentes, pero siguiendo las mismas trayectorias que acabamos de describir.
Los fundamentos intelectuales de la IA tomaron forma en la década de 1950 con pioneros como Alan Turing, John McCarthy y Marvin Minsky. La famosa Conferencia de Dartmouth de 1956 marcó el nacimiento oficial de este campo, al reunir a investigadores que creían que la inteligencia artificial podría alcanzarse en una generación. Este optimismo no era del todo infundado. Los primeros programas podían demostrar teoremas matemáticos, jugar a las damas y resolver rompecabezas.
Pero las señales de advertencia aparecieron antes de lo que la mayoría de la gente cree. El informe ALPAC de 1966 evaluó críticamente los proyectos de traducción automática y concluyó que los ordenadores no podían igualar a los traductores humanos y que probablemente no lo harían en un futuro próximo. En 1969, el libro «Perceptrons» de Marvin Minsky y Seymour Papert demostró las limitaciones matemáticas de las redes neuronales de una sola capa, lo que detuvo temporalmente esa línea de investigación. Estos primeros reveses presagiaban los problemas sistemáticos que desencadenarían el primer invierno de la IA.
El primer invierno de la IA (1974-1980)
A raíz de esas primeras señales de alerta, en 1974 comenzó el primer invierno de la IA, que se prolongó hasta aproximadamente 1980 y que transformó radicalmente las prioridades de investigación y las trayectorias profesionales en todo el campo. Veamos cómo se desarrolló en la práctica ese ciclo de expectación y desilusión que hemos comentado anteriormente.
Precursores y expectación inicial
El periodo comprendido entre 1956 y 1973 se conoce a menudo como la «época dorada» de la IA. Los investigadores programaron sistemas de razonamiento simbólico, los primeros programas de procesamiento del lenguaje natural y programas de resolución de problemas que impresionaron tanto a los académicos como al público en general. Las agencias gubernamentales, especialmente en Estados Unidos y Reino Unido, invirtieron mucho en investigación sobre IA. Los laboratorios universitarios financiados por la DARPA y los medios de comunicación publicaban regularmente noticias sobre máquinas que pronto pensarían como los humanos.
Este bombo publicitario generó expectativas poco realistas. Los investigadores a veces contribuían al problema. Marvin Minsky predijo en 1970 que «en tres u ocho años tendremos una máquina con la inteligencia general de un ser humano medio». Estos plazos tan optimistas influyeron en las decisiones de financiación y en la percepción del público, lo que preparó el terreno para la decepción.
El informe Lighthill y su impacto
En 1973, Sir James Lighthill presentó un informe al Consejo Británico de Investigación Científica en el que criticaba sistemáticamente la investigación en IA. Lighthill argumentó que la IA no había logrado sus objetivos y que muchos problemas se enfrentaban a una «explosión combinatoria», en la que el número de posibilidades que hay que examinar crece exponencialmente a medida que el problema se amplía. Esto significaba que los recursos computacionales necesarios se volvían prohibitivamente grandes, lo que hacía que las aplicaciones en el mundo real fueran poco prácticas.
Esta evaluación devastó la investigación sobre IA en el Reino Unido. El gobierno británico recortó la financiación destinada a la IA en las universidades, y muchos investigadores abandonaron el campo o se trasladaron a Estados Unidos. La influencia del informe Lighthill se extendió más allá de Gran Bretaña, proporcionando argumentos a los escépticos de todo el mundo y contribuyendo a la decisión de la DARPA de reducir el apoyo a la investigación en IA en 1974.
Los recortes presupuestarios y sus consecuencias
Cuando DARPA y otras agencias retiraron su apoyo, los efectos se extendieron por todo el ecosistema de investigación. Las universidades cerraron los laboratorios de IA, los programas de posgrado se redujeron y los investigadores prometedores se pasaron a otros campos solo para mantener su empleo. El término «inteligencia artificial» se volvió tóxico en las propuestas de financiación. Los investigadores comenzaron a utilizar eufemismos como «informática» o «inteligencia computacional» para evitar el estigma.
Comenzó la diáspora del conocimiento. Los investigadores se trasladaron a campos adyacentes o abandonaron por completo el mundo académico. Esta dispersión significó que, cuando el interés por la IA resurgió en la década de 1980, gran parte del conocimiento institucional tuvo que reconstruirse desde cero. Ese renacimiento llegaría a través de los sistemas expertos, que prometían un enfoque más práctico y específico para cada ámbito de la IA.
El segundo invierno de la IA (finales de los años 80-mediados de los 90)
A pesar del prometedor comienzo de los sistemas expertos, a finales de la década de 1980 llegó el segundo invierno de la IA, lo que demostró que resolver un conjunto de problemas no impide que surjan nuevas vulnerabilidades.
La burbuja de los sistemas expertos
A principios de la década de 1980, los sistemas expertos captaban los conocimientos especializados humanos en ámbitos específicos mediante reglas elaboradas manualmente. Sistemas como MYCIN (para diagnósticos médicos) y XCON (para la configuración de ordenadores) aportaron un valor comercial real, y las empresas realizaron importantes inversiones en estos sistemas basados en reglas. Toda una industria creció en torno a la «ingeniería del conocimiento», y el proyecto japonés de ordenadores de quinta generación tenía como objetivo construir ordenadores masivamente paralelos optimizados para sistemas expertos, lo que provocó respuestas competitivas en Estados Unidos y Europa.
Pero los problemas no tardaron en aparecer. Crear un sistema único podría llevar años de entrevistas a expertos en la materia y de traducir sus conocimientos en reglas formales. El mantenimiento resultó aún más difícil. A medida que las bases de conocimiento crecían, las reglas interactuaban de forma impredecible, lo que dificultaba la depuración. El problema de la fragilidad quedó patente durante la implementación: los sistemas expertos funcionaban bien con los ejemplos para los que habían sido diseñados, pero fallaban con cualquier cosa que se desviara ligeramente de ellos. No podían manejar las situaciones confusas y ambiguas que definen los problemas del mundo real. Esta brecha entre las demostraciones controladas y la implementación práctica refleja el problema que desencadenó el primer invierno.
Desencadenantes del colapso
El mercado de los sistemas expertos se derrumbó en 1987. Los costes de hardware desempeñaron un papel importante en este sentido. Los sistemas expertos solían funcionar en «máquinas Lisp» especializadas que costaban mucho más que los ordenadores estándar. Cuando los ordenadores personales y las estaciones de trabajo se volvieron lo suficientemente potentes como para ejecutar software similar a una fracción del costo, desaparecieron los argumentos económicos a favor del hardware especializado en IA. El mercado de las máquinas Lisp se desplomó y el proyecto de quinta generación de Japón terminó sin alcanzar sus ambiciosos objetivos.
Las empresas que habían invertido en sistemas expertos descubrieron que los costes de mantenimiento continuado superaban el valor que aportaban estos sistemas. Las bases de conocimiento necesitaban una actualización constante, lo que requería costosos ingenieros de conocimiento. Por otra parte, los enfoques más sencillos solían funcionar mejor para muchos problemas. La falta de alineación entre los objetivos de investigación y las necesidades empresariales se volvió imposible de ignorar. Los grandes proyectos no cumplieron sus promesas y cundió la desilusión.
Contracción de la industria
El mercado del hardware de IA se desplomó drásticamente. Las empresas que producían estaciones de trabajo especializadas en IA cerraron o se reorientaron hacia otros mercados. Este colapso arrastró consigo a la industria de los sistemas expertos, lo que provocó otra congelación de la financiación para la investigación en IA. Las empresas emergentes quebraron y los programas académicos sufrieron recortes severos.
El segundo invierno dispersó a los investigadores de IA aún más que el primero. Algunos pasaron a campos adyacentes de la informática, como las bases de datos o la ingeniería de software. Otros pasaron a la ciencia cognitiva o la neurociencia. Los investigadores en machine learning a menudo renombraron su trabajo como «estadística» o «minería de datos» para evitar el estigma de la IA. El impacto psicológico fue significativo. Los investigadores que habían dedicado vuestra carrera profesional a la IA se encontraron a la deriva profesionalmente, y muchos abandonaron el campo de forma definitiva.
La recuperación del segundo invierno llevó mucho más tiempo que la del primero. A lo largo de la década de 1990 y principios de la de 2000, la «inteligencia artificial» siguió siendo una etiqueta problemática. Los investigadores que trabajaban en machine learning, visión artificial o procesamiento del lenguaje natural solían evitar llamar a vuestro trabajo «IA». Cuando se restableció la financiación, esta se centró en objetivos específicos y alcanzables, en lugar de en afirmaciones generales sobre la inteligencia en general.
Patrones recurrentes en ambos inviernos
Después de haber atravesado los dos inviernos históricos de la IA, ahora podemos identificar tres patrones fundamentales que desencadenaron estos colapsos. Comprender estos patrones nos ayuda a reconocer vulnerabilidades similares en el entorno actual de la IA.
Limitaciones tecnológicas
Ambos inviernos de la IA se debieron a barreras técnicas fundamentales que los investigadores subestimaron. El primer invierno puso de manifiesto una explosión combinatoria, en la que los recursos computacionales necesarios para resolver problemas complejos crecieron exponencialmente. El segundo invierno reveló la fragilidad de los sistemas expertos, su incapacidad para aprender o manejar la incertidumbre. En cada caso, las tecnologías que funcionaban a la perfección en pruebas cuidadosamente seleccionadas fallaban cuando se enfrentaban a la complejidad del mundo real. Los inviernos llegaron cuando esta brecha entre las demostraciones de laboratorio y la implementación práctica se volvió demasiado evidente como para ignorarla.
Dinámica del hype y gestión de las expectativas
Ambos inviernos siguieron la trayectoria del ciclo de hype de Gartner. Los primeros avances generaron entusiasmo, la cobertura mediática amplificó los logros y la financiación afluyó basándose en expectativas a corto plazo infladas. La predicción de Marvin Minsky sobre la inteligencia a nivel humano «en tres u ocho años» ejemplificaba el exceso de confianza del primer invierno. Los sistemas expertos se comercializaron de manera similar como soluciones escalables para capturar la experiencia humana. Cuando la realidad no estuvo a la altura de las promesas, la corrección fue rápida y severa. Los medios de comunicación, las agencias de financiación y las estructuras institucionales contribuyeron a crear expectativas que la tecnología no podía satisfacer.
Volatilidad de la financiación y participación del gobierno
Ambos inviernos se caracterizaron por ciclos de auge y caída, en los que las inversiones masivas dieron paso a una retirada repentina. Agencias gubernamentales como DARPA dieron forma a ecosistemas de investigación completos, y cuando desapareció la financiación, los investigadores se dispersaron a otros campos. Esta diáspora del conocimiento resultó especialmente perjudicial porque la investigación en IA requiere un esfuerzo sostenido para desarrollar conocimientos especializados. El campo no solo perdió financiación, sino también continuidad y sabiduría acumulada. Lo que agravó estos colapsos fue la concentración de recursos en enfoques únicos: la IA simbólica en el primer invierno y los sistemas expertos en el segundo. Cuando estas apuestas específicas fracasaron, había pocas alternativas financiadas para mantener el progreso.
La era actual y el potencial de futuros inviernos de la IA
Después de haber visto cómo se desarrollaron dos inviernos importantes, probablemente te preguntes cómo es el ecosistema actual de la IA. ¿Se están preparando para otro colapso, o esta vez hay algo fundamentalmente diferente? Examinemos la situación actual a través del prisma de esos patrones históricos.
El auge actual (2012-presente)
El auge actual de la IA comenzó alrededor de 2012 con los avances en el aprendizaje profundo. La espectacular mejora de AlexNet en el reconocimiento de imágenes marcó un punto de inflexión. Desde entonces, el aprendizaje profundo ha logrado resultados impresionantes en visión artificial, reconocimiento de voz, procesamiento del lenguaje natural y juegos.
Hay varios factores que diferencian este auge de períodos anteriores. La potencia computacional ha crecido enormemente (las GPU han hecho que el entrenamiento de grandes redes neuronales sea práctico). La disponibilidad de datos se disparó con Internet y los dispositivos móviles. Y el aprendizaje profundo encontró aplicaciones prácticas inmediatas en productos que la gente utiliza a diario.
Pero existen vulnerabilidades. El aprendizaje profundo depende en gran medida de grandes conjuntos de datos y de un cálculo masivo. A medida que los modelos crecen, los costes de formación aumentan exponencialmente. El campo se ha centrado en un enfoque (las redes neuronales profundas) más que en cualquier otro momento desde que los sistemas expertos dominaron la década de 1980.
Los costes informáticos son un motivo de preocupación real. El entrenamiento de modelos de vanguardia cuesta ahora decenas o cientos de millones de dólares, y estos costes crecen exponencialmente con el tamaño del modelo. Si el progreso requiere modelos cada vez más grandes, pero los beneficios prácticos se estancan, la economía se vuelve insostenible. Este es precisamente el tipo de vulnerabilidad estructural que precedió a inviernos anteriores.
La brecha entre el rendimiento de referencia y la utilidad en el mundo real crea otra vulnerabilidad. Los modelos obtienen puntuaciones impresionantes en las pruebas estándar, pero fallan en su implementación debido a su fragilidad, sesgo o incapacidad para manejar casos extremos. ¿Te suena familiar? Esto refleja la brecha entre las demostraciones de los sistemas expertos y su implementación en el mundo real, que contribuyó al segundo invierno.
Debates actuales y vulnerabilidades
El discurso actual sobre la IA a veces se hace eco de las promesas exageradas de épocas anteriores. Términos como «inteligencia artificial general» y predicciones sobre la transformación de todos los sectores por parte de la IA en pocos años crean expectativas exageradas. Esto no significa que la IA actual sea una burbuja a punto de estallar. A diferencia de la década de 1970, ahora contamos con aplicaciones que funcionan y un valor económico genuino. Sin embargo, el entusiasmo que genera cada lanzamiento de un nuevo modelo y la tendencia a extrapolar sus capacidades crean condiciones en las que las expectativas pueden superar la realidad.
Dicho esto, hay varios factores que hacen menos probable que se repita el invierno histórico de la IA. En primer lugar, la IA está profundamente integrada en los productos que usas a diario. Los motores de búsqueda, los teléfonos inteligentes, las redes sociales y las compras en línea dependen de la IA. Esta integración proporciona una estabilidad económica que antes no existía.
En segundo lugar, el alcance internacional de la investigación en IA ha crecido de forma espectacular. Aunque la financiación disminuyera en un país o región, el trabajo continuaría en otros lugares. China, Europa y otras regiones tienen ecosistemas de IA independientes.
En tercer lugar, el sector privado ha asumido un papel protagonista. Aunque la financiación gubernamental sigue siendo importante, empresas como Google, Meta y Anthropic pueden sostener la investigación gracias a los ingresos generados por su actividad principal. Esta diversidad de fuentes de financiación crea resiliencia frente a una retirada repentina del gobierno.
Lecciones y orientaciones futuras
Entonces, ¿qué podemos aprender de esta historia? Los patrones que hemos explorado ofrecen una guía práctica para los investigadores, las empresas y los responsables políticos que trabajan actualmente con la IA. Examinemos cómo la comprensión de estos ciclos puede ayudarnos a construir un futuro más sostenible para el sector.
Gestión realista de las expectativas
La lección más importante que se puede extraer de ambos inviernos de la IA es el peligro de prometer en exceso. Cuando los investigadores, las empresas o los medios de comunicación crean expectativas que la tecnología no puede cumplir a corto plazo, la decepción resultante puede provocar la retirada de la financiación y el escepticismo del público, lo que retrasa el avance en este campo durante años.
Esto no significa que haya que evitar los objetivos ambiciosos. La investigación en IA debe buscar capacidades transformadoras. Pero la comunicación sobre los plazos y las limitaciones es muy importante. Una clara distinción entre las capacidades actuales y las posibilidades futuras ayuda a mantener la credibilidad. Cuando existe incertidumbre sobre si un enfoque será escalable o generalizable, ser sincero sobre estas limitaciones beneficia más al campo que las especulaciones optimistas. Esto es especialmente importante en el entorno actual, en el que la cobertura mediática y las expectativas de los inversores pueden amplificar las afirmaciones mucho más allá de su contexto original.
Diversificación de enfoques
Ambos inviernos históricos siguieron a períodos de fuertes inversiones en paradigmas únicos. La IA simbólica dominó el primer invierno, los sistemas expertos el segundo. Cuando estos enfoques alcanzaron sus límites, todo el sector se vio afectado. La concentración actual en el aprendizaje profundo genera riesgos similares.
Mantener la investigación sobre enfoques alternativos proporciona una importante capacidad de recuperación. La IA neurosimbólica, la programación probabilística y otras direcciones podrían ofrecer vías de avance cuando los métodos actuales alcancen su límite. Esto no significa abandonar los enfoques exitosos: el aprendizaje profundo ha demostrado su valor. Sin embargo, invertir en diversas líneas de investigación crea opciones cuando un único enfoque alcanza sus límites naturales.
Modelos de financiación estables
Los ciclos de financiación con altibajos interrumpen la continuidad de la investigación y dispersan los conocimientos especializados. Ambos inviernos históricos implicaron una retirada repentina de la financiación que perjudicó la salud a largo plazo del sector. Los modelos de financiación más estables (ya sea a través de ayudas gubernamentales estructuradas para la investigación a largo plazo o de inversiones diversificadas del sector privado) ayudan a mantener el progreso tanto en los avances como en las etapas de estancamiento.
El cambio hacia ciclos de subvenciones más cortos y resultados inmediatos tras el invierno de la IA puede haber obstaculizado la investigación fundamental. La financiación a largo plazo, que acepta los periodos de ralentización como parte natural de la investigación, ayuda a evitar el pánico que puede desencadenar los inviernos. Cuando las fuentes de financiación prevén que algunos proyectos fracasen y que otros avancen de forma gradual, el sector se vuelve más resistente a los contratiempos.
Equilibrio entre innovación y regulación
Los marcos normativos y reglamentarios desempeñan un papel fundamental a la hora de prevenir los inviernos de la IA y mantener viva la innovación. Ambos inviernos históricos se produjeron en parte porque las agencias gubernamentales de financiación retiraron repentinamente su apoyo —en la década de 1970 con la DARPA y en la de 1980 con los consejos de investigación del Reino Unido—, sin dejar ninguna red de seguridad. Los responsables políticos de hoy en día deben aprender de estos ciclos sin crear regulaciones que puedan frenar el progreso beneficioso.
El panorama normativo varía considerablemente según la región. La Ley de IA de la UE utiliza un enfoque basado en el riesgo, aplicando requisitos más estrictos a las aplicaciones de alto riesgo. Estados Unidos está a favor de las normas específicas para cada sector con la autogestión de la industria en muchas áreas. China ha creado su propio marco, haciendo hincapié tanto en la innovación como en el control. Estos enfoques crean un experimento natural sobre cómo las políticas influyen en la investigación y el desarrollo del mercado.
El reto: encontrar el equilibrio entre prevenir los inviernos de la IA y mantener las condiciones necesarias para los avances. Demasiadas restricciones podrían hacer que la investigación resultara prohibitivamente cara o legalmente arriesgada. Demasiado pocos riesgos de repetir los ciclos impulsados por el bombo publicitario que caracterizaron los inviernos anteriores. Una política eficaz debe centrarse en una financiación estable a largo plazo para la investigación fundamental y en mecanismos que fomenten enfoques diversos.
Sostenibilidad tecnológica y consideraciones éticas
Más allá de la estabilidad de la financiación, las demandas energéticas de la IA plantean auténticos retos de sostenibilidad. El entrenamiento de modelos grandes consume una enorme cantidad de electricidad. Los investigadores están explorando arquitecturas y métodos de entrenamiento más eficientes, pero la tendencia hacia modelos más grandes entra en conflicto con los objetivos de sostenibilidad.
Las diversas fuentes de datos y las métricas de evaluación exhaustivas ayudan a crear sistemas de IA más fiables. La dependencia excesiva en conjuntos de datos limitados o en juegos de referencia crea sistemas que funcionan en los laboratorios, pero que fracasan en la práctica. Esta lección proviene directamente de la era de los sistemas expertos, en la que los sistemas entrenados con ejemplos limitados no podían manejar la complejidad del mundo real. Abordar estos retos técnicos requiere prestar especial atención a las consideraciones éticas a lo largo de todo el proceso de desarrollo. Nuestra Curso de Ética de la IA explora cómo crear sistemas de IA responsables que equilibren la innovación con el impacto social.
Conclusiones extraídas de otros auges y caídas tecnológicos
El auge y la caída de las puntocom ofrece paralelismos útiles. Al igual que la inteligencia artificial en los años setenta y ochenta, las tecnologías de Internet se enfrentaron a expectativas exageradas, inversiones masivas, un colapso repentino y, finalmente, una recuperación sobre una base más sólida. ¿Cuál es la diferencia clave? Las infraestructuras siguieron mejorando durante la crisis, y las empresas aprendieron a centrarse en modelos de negocio viables en lugar de promesas vagas.
Otras revoluciones tecnológicas (la electricidad, los automóviles, los ordenadores personales) también experimentaron ciclos de expectación. El patrón sugiere que las tecnologías transformadoras necesitan tiempo para encontrar aplicaciones adecuadas y superar las limitaciones iniciales. Comprender este patrón más amplio puede ayudarnos a mantener la perspectiva tanto en los periodos de auge como en los de desaceleración.
Conclusión
El auge actual de la IA tiene bases más sólidas que los ciclos anteriores. Contamos con aplicaciones prácticas, integración económica y capacidades técnicas de las que carecían épocas anteriores. Pero siguen existiendo las mismas vulnerabilidades: dependencia excesiva de enfoques específicos, costes informáticos, diferencias entre las expectativas y la capacidad real, y el riesgo siempre presente de prometer más de lo que pueden cumplir.
El camino a seguir requiere equilibrar la ambición con el realismo. Construir un progreso sostenible implica una comunicación honesta, diversas líneas de investigación, estructuras de financiación estables y atención tanto a los retos técnicos como éticos. Al comprender los patrones que desencadenaron inviernos anteriores, estamos mejor preparados para reconocer riesgos similares en la actualidad y para construir un campo de IA resistente y con base sólida que pueda capear tanto los avances como los reveses.
Si deseas desarrollar habilidades en IA sobre una base sólida, explora nuestro Ingeniero asociado de IA para programadores o programa en consideraciones estratégicas con nuestro curso de estrategia de inteligencia artificial. Comprender tanto las capacidades técnicas como el contexto histórico de la IA te ayudará a orientarte en el futuro de este campo, independientemente de los retos que plantee.
Perfeccionamiento en IA para principiantes
Como profesional experto en Ciencia de Datos, Aprendizaje Automático e IA Generativa, Vinod se dedica a compartir conocimientos y a capacitar a los aspirantes a científicos de datos para que tengan éxito en este dinámico campo.
Preguntas frecuentes
¿Cuáles fueron los principales factores que llevaron al primer invierno de la IA?
El primer invierno de la IA (1974-1980) fue consecuencia de promesas excesivas y limitaciones técnicas. Los investigadores predijeron que en pocos años se alcanzaría un nivel de IA equivalente al humano, pero la potencia computacional y los algoritmos no pudieron cumplir con esos ambiciosos objetivos. Informes críticos como el Informe Lighthill del Reino Unido evaluaron sistemáticamente la investigación en IA y concluyeron que era insuficiente, lo que provocó recortes masivos en la financiación. Agencias gubernamentales como DARPA retiraron su apoyo a la investigación general sobre IA y se centraron en problemas específicos y bien definidos.
¿Cómo afectó el informe Lighthill a la investigación sobre IA en el Reino Unido?
El informe de Sir James Lighthill de 1973 al Consejo Británico de Investigación Científica devastó la investigación sobre IA en el Reino Unido. El informe criticaba al sector por no cumplir sus promesas e identificaba la «explosión combinatoria» como un obstáculo fundamental. A raíz de esto, el Gobierno británico recortó drásticamente la financiación destinada a la investigación en IA, lo que supuso, en la práctica, la eliminación de las ayudas para la mayor parte de los trabajos relacionados con la IA en las universidades británicas Muchos investigadores abandonaron el campo o se trasladaron al extranjero, y el Reino Unido no recuperó por completo su posición en la investigación sobre IA durante décadas.
¿Qué papel desempeñó la DARPA en los inviernos de la IA de los años setenta y ochenta?
La DARPA desempeñó un papel fundamental tanto en el inicio como en el final del primer invierno de la IA. La agencia fue la mayor fuente de financiación de la investigación en IA durante la década de 1960 y principios de la de 1970, apoyando laboratorios universitarios y proyectos ambiciosos. Cuando estos proyectos no lograron ofrecer aplicaciones militares prácticas, la DARPA retiró la financiación para la investigación general sobre IA a partir de 1974, lo que desencadenó el primer invierno. Durante la década de 1980, la DARPA reanudó la financiación de la IA, pero se centró en objetivos específicos y alcanzables, en lugar de en la investigación general sobre inteligencia.
¿Cómo contribuyó el colapso del mercado de máquinas Lisp al segundo invierno de la IA?
Las máquinas LISP eran ordenadores especializados optimizados para ejecutar software de IA, en particular sistemas expertos. A mediados de la década de 1980, empresas como Symbolics y LMI habían creado un mercado con un valor anual de cientos de millones. Cuando empresas como Apple y Sun Microsystems lanzaron estaciones de trabajo de uso general que igualaban el rendimiento de las máquinas LISP a un coste mucho menor, el mercado del hardware especializado se derrumbó alrededor de 1987-1988. Este colapso acabó con las empresas de hardware y las empresas de sistemas expertos que dependían de ellas, lo que desencadenó el segundo invierno de la IA.
¿Cuáles son algunas de las diferencias clave entre los inviernos de la IA de los años 70 y 80?
El primer invierno de la IA (1974-1980) afectó principalmente a la investigación académica, provocado por las limitaciones fundamentales de la IA simbólica y la retirada de la financiación gubernamental. El segundo invierno (1987-1993) afectó aún más a la industria, tras el fracaso comercial de los sistemas expertos y el hardware especializado en IA. El primer invierno se debió a promesas excesivas sobre la inteligencia general, mientras que el segundo fue consecuencia de las limitaciones de los sistemas estrechos y basados en reglas que no podían adaptarse ni aprender. Los patrones de recuperación también difirieron: el primer invierno terminó con sistemas expertos que proporcionaban valor práctico, mientras que el segundo requirió enfoques completamente nuevos, como machine learning y las redes neuronales.
¿Hay indicios de que podamos estar acercándonos a un tercer invierno de la IA?
La IA actual muestra tanto factores estabilizadores como posibles vulnerabilidades. Entre los factores estabilizadores se incluyen las aplicaciones prácticas que generan ingresos reales, los recursos computacionales sin precedentes, los conjuntos de datos masivos y la integración de la IA en las operaciones comerciales básicas. Entre los patrones preocupantes se incluyen la dependencia excesiva del aprendizaje profundo sin alternativas claras, el aumento exponencial de los costes informáticos para obtener mejoras marginales, las diferencias entre los parámetros de referencia de la investigación y la implementación en el mundo real, y los ciclos habituales de expectativas exageradas. Que estos desencadenen otro invierno depende de gestionar las expectativas, diversificar los enfoques de investigación y ofrecer un valor práctico sostenido, en lugar de solo demostraciones impresionantes.
¿Cómo pueden los investigadores y las organizaciones evitar contribuir a futuros inviernos de la IA?
Para evitar futuros inviernos, es necesario hacer afirmaciones realistas sobre las capacidades actuales, diversificar la investigación más allá de los enfoques dominantes únicos, centrarse en avances medibles en lugar de grandes visiones, garantizar que la investigación aborde problemas prácticos y no solo el rendimiento de referencia, mantener la transparencia sobre los fracasos, crear sistemas con una utilidad clara y no solo demostraciones impresionantes, y fomentar una financiación estable a largo plazo. Las organizaciones pueden ayudar recompensando las evaluaciones honestas por encima de las exageradas y manteniendo la inversión en investigación incluso durante los periodos de progreso más lento.
¿Qué lecciones del invierno de la IA se pueden aplicar al desarrollo y la implementación actuales de la IA?
Los inviernos históricos de la IA nos enseñan varias lecciones. Las capacidades técnicas suelen quedarse años atrás con respecto al optimismo inicial, así que tenlo en cuenta a la hora de planificar. Los puntos de referencia limitados no garantizan la utilidad en el mundo real. Las mejoras en la infraestructura durante los períodos de ralentización suelen permitir avances posteriores, por lo que la inversión continua durante las etapas de estancamiento da sus frutos. La diáspora del conocimiento tiene efectos duraderos, por lo que es importante mantener las comunidades de investigación. La comercialización excesiva antes de que la tecnología madure corre el riesgo de provocar reacciones adversas. Las organizaciones que implementan la IA hoy en día deben centrarse en resolver bien problemas específicos en lugar de perseguir capacidades generales, mantener expectativas realistas sobre los plazos y basarse en técnicas probadas mientras exploran alternativas.



