1. Introducción: El Nacimiento de una Idea Revolucionaria
La fascinación humana por crear entidades inteligentes o autónomas se remonta a la antigüedad, manifestándose en mitos como el de Dédalo y sus estatuas animadas 1 o en los primeros autómatas mecánicos diseñados siglos atrás.2 Sin embargo, la Inteligencia Artificial (IA) como campo científico y tecnológico formal es un fenómeno del siglo XX, intrínsecamente ligado al desarrollo de la computación.2 La búsqueda de la IA no es meramente una empresa tecnológica, sino la continuación de una indagación filosófica milenaria sobre la naturaleza de la inteligencia, la vida y la conciencia.2 Lo que distingue a la IA moderna de sus precursores míticos o mecánicos es su fundamento explícito en la ciencia de la computación teórica, marcando una transición decisiva del mito y la mecánica a la computación formal.4
El viaje de la IA ha sido todo menos lineal. Se trata de un campo dinámico, caracterizado por avances conceptuales disruptivos, hitos tecnológicos que han redefinido lo posible, y una alternancia recurrente entre períodos de optimismo desbordante y fases de escepticismo y reducción de la inversión, conocidas como los «inviernos de la IA».9 Esta trayectoria cíclica, a menudo impulsada por la discrepancia entre las ambiciosas predicciones de los pioneros y las capacidades reales de la tecnología en cada momento 11, refleja la complejidad inherente a la emulación de la inteligencia. Hemos transitado de especulaciones teóricas y programas experimentales a una era donde la IA impregna innumerables aplicaciones prácticas, transformando industrias y la vida cotidiana.6 Comprender esta naturaleza cíclica es fundamental, ya que subraya la importancia de gestionar las expectativas y mantener un enfoque riguroso para asegurar un progreso sostenido en el campo.
Este artículo se propone trazar esta fascinante evolución. Comenzaremos explorando los cimientos teóricos establecidos por figuras visionarias como Alan Turing y los debates fundacionales del Taller de Dartmouth. Seguiremos el desarrollo a través de sus etapas clave: los primeros programas simbólicos, el auge y las limitaciones de los sistemas expertos, la emergencia del aprendizaje automático y los períodos de contracción conocidos como «inviernos». Analizaremos la revolución actual impulsada por el Deep Learning, los modelos Transformer, los Grandes Modelos de Lenguaje (LLMs) y la IA Generativa, examinando sus capacidades, actores principales y aplicaciones transformadoras. Finalmente, dirigiremos nuestra mirada hacia el futuro, discutiendo el concepto de Inteligencia Artificial General (AGI), los desafíos técnicos y filosóficos para su consecución, las predicciones sobre su llegada y las consideraciones críticas sobre seguridad, sesgo y el impacto socioeconómico de una IA cada vez más avanzada.
2. Los Cimientos Teóricos: Turing y el Amanecer de la IA (Décadas de 1930-1950)
En el panteón de los pioneros de la computación y la inteligencia artificial, Alan Mathison Turing ocupa un lugar central. Este matemático, lógico, criptoanalista y científico de la computación británico 4 no solo realizó contribuciones teóricas fundamentales que sustentan la informática moderna, sino que también fue una figura clave durante la Segunda Guerra Mundial, liderando los esfuerzos en Bletchley Park para descifrar códigos enemigos, incluyendo la compleja máquina Enigma alemana, una hazaña que salvó incontables vidas y acortó la guerra.4
La contribución más abstracta pero quizás más perdurable de Turing a la computación fue la conceptualización, en 1935, de una máquina de cómputo teórica: la Máquina Universal de Turing.16 Este modelo abstracto consistía en una memoria ilimitada (una cinta infinita) y un escáner capaz de leer, escribir y moverse a lo largo de la cinta, símbolo por símbolo. Las acciones del escáner estaban dictadas por un conjunto de instrucciones – un programa – que también se almacenaba en la memoria en forma de símbolos.16 Esta idea revolucionaria del «programa almacenado» introdujo implícitamente la posibilidad de que una máquina operara sobre sus propias instrucciones, modificándolas o mejorándolas.16 En esencia, todas las computadoras digitales modernas son realizaciones prácticas de la Máquina Universal de Turing.16
Más allá de la computabilidad teórica, Turing reflexionó profundamente sobre la inteligencia de las máquinas y el aprendizaje. Ya durante la guerra y en los años inmediatamente posteriores, discutió con colegas como Donald Michie la posibilidad de que las computadoras aprendieran de la experiencia y resolvieran problemas nuevos mediante principios guía o heurísticas.16 En una conferencia pública en Londres en 1947, expresó explícitamente el objetivo: «Lo que queremos es una máquina que pueda aprender de la experiencia», añadiendo que «la posibilidad de permitir que la máquina altere sus propias instrucciones proporciona el mecanismo para esto».16 Su influyente informe de 1948, «Intelligent Machinery» (aunque no publicado en su momento), introdujo muchos conceptos centrales de la IA, incluyendo la idea visionaria de entrenar redes de neuronas artificiales para realizar tareas específicas, un enfoque que décadas más tarde se convertiría en la base del conexionismo.16
Turing utilizó el ajedrez como un campo de pruebas intelectual para sus ideas sobre la inteligencia maquinal.16 Reconoció que, si bien una máquina podría teóricamente jugar explorando todas las jugadas posibles, la inmensidad del espacio de búsqueda (la «explosión combinatoria») lo hacía impracticable. Comprendió la necesidad de heurísticas – reglas prácticas o «atajos» inteligentes – para guiar la búsqueda de manera más eficiente.16 Aunque diseñó programas de ajedrez en teoría, carecía de la computadora para ejecutarlos.16 Su predicción de 1945 de que las computadoras llegarían a jugar muy bien al ajedrez se materializó espectacularmente en 1997, cuando Deep Blue de IBM derrotó al campeón mundial Garry Kasparov.16
Quizás la idea más famosa de Turing relacionada con la IA es el Test de Turing, también conocido como el Juego de la Imitación, propuesto en su seminal artículo de 1950 «Computing Machinery and Intelligence».7 Ante la dificultad de definir qué significa «pensar», Turing propuso un test operacional y pragmático.7 La configuración clásica involucra a tres participantes: un interrogador humano, otro humano (el «foil» o contraste) y una máquina, todos separados físicamente.16 El interrogador se comunica con los otros dos únicamente a través de texto (por ejemplo, mediante un teclado y una pantalla) y debe determinar, basándose en las respuestas a sus preguntas, cuál de sus interlocutores es la máquina y cuál es el humano.7 La máquina tiene permitido intentar engañar al interrogador.16 Según Turing, si un número suficiente de interrogadores no logra distinguir a la máquina del humano de manera fiable tras un período de interrogación (él sugirió 5 minutos con una tasa de éxito del 70% para el año 2000 24), entonces deberíamos considerar a la máquina como inteligente o capaz de pensar.13
El propósito del Test de Turing era eludir los debates filosóficos interminables sobre la definición de «inteligencia» o «pensamiento», ofreciendo en su lugar un criterio empírico y medible basado en la capacidad de la máquina para exhibir un comportamiento conversacional indistinguible del humano.7 Su relevancia histórica e impacto son innegables: se convirtió en un hito 13, un punto de referencia cultural y un catalizador para la investigación y el debate en la filosofía de la IA durante décadas.7 Su simplicidad y enfoque pragmático fueron sus grandes fortalezas iniciales.7 La llegada de LLMs como ChatGPT ha reavivado intensamente la discusión sobre si el test ha sido finalmente superado.21
Sin embargo, el Test de Turing ha enfrentado limitaciones y críticas significativas desde su concepción.7 Una crítica fundamental es si realmente mide la inteligencia o simplemente la capacidad de imitar o engañar.7 El famoso argumento de la Habitación China de John Searle postula que un sistema podría manipular símbolos siguiendo reglas para pasar el test sin ninguna comprensión real del significado, similar a una persona que genera respuestas coherentes en chino usando un complejo manual de reglas pero sin entender el idioma.7 Esto apunta a una distinción crucial entre simulación de comportamiento y conciencia o intencionalidad genuina.7
Otras críticas señalan que el test se centra excesivamente en la inteligencia lingüística, ignorando otras facetas importantes como la inteligencia emocional, espacial, la creatividad, la resolución de problemas complejos o la conciencia.7 Además, el resultado del test puede depender en gran medida de la habilidad, ingenuidad o sesgos del interrogador humano 7, y las máquinas pueden recurrir a «trucos» o evasivas para parecer humanas, como simular errores tipográficos o falta de conocimiento.7 Muchos investigadores actuales consideran que el test tiene una relevancia decreciente para la IA moderna, que a menudo se enfoca en el desarrollo y evaluación de capacidades específicas (como la visión por computadora o la planificación logística) en lugar de la imitación humana general.7 Finalmente, se ha argumentado que el enfoque en la imitación humana podría fomentar una «Turing Trap» 1, dirigiendo la investigación hacia la automatización que reemplaza a los humanos en lugar de tecnologías que aumentan sus capacidades.1
Al proponer un criterio operacional basado en la indistinguibilidad conversacional, Turing no solo sentó las bases teóricas de la computación y la IA, sino que también enmarcó profundamente el debate subsiguiente. Su enfoque pragmático permitió eludir definiciones filosóficas esquivas, pero, quizás inadvertidamente, orientó gran parte de la investigación inicial hacia la imitación lingüística. Esta tensión inherente entre la simulación convincente del comportamiento y la posesión de una comprensión o inteligencia genuina, puesta de manifiesto por las críticas al Test de Turing, sigue siendo un tema central y no resuelto en la era actual de los potentes modelos de lenguaje.15
3. La Era Fundacional: Dartmouth y los Primeros Programas (Décadas de 1950-1960)
Si Alan Turing sentó las bases teóricas, la década de 1950 marcó el nacimiento formal de la Inteligencia Artificial como un campo de investigación distinto, impulsado por la llegada de las primeras computadoras electrónicas de programa almacenado 16 y la visión de un grupo de investigadores pioneros.
El Taller de Dartmouth (1956): El Nacimiento Formal de la IA
El evento catalizador fue el Dartmouth Summer Research Project on Artificial Intelligence, celebrado durante el verano de 1956 en Dartmouth College, Hanover, New Hampshire.17 Ampliamente considerado como el «acto fundacional» o la «convención constituyente» de la IA 6, este taller reunió a algunas de las mentes más brillantes de la época.
Los organizadores principales fueron cuatro figuras ahora consideradas padres fundadores de la IA: John McCarthy, entonces un joven profesor asistente de matemáticas en Dartmouth; Marvin Minsky, del MIT; Nathaniel Rochester, de IBM; y Claude Shannon, el padre de la teoría de la información, de Bell Labs.17 McCarthy, insatisfecho con el enfoque limitado de campos como la teoría de autómatas o la cibernética (dominada por Norbert Wiener), buscaba un nuevo marco y acuñó el término «Inteligencia Artificial» para la propuesta del taller, eligiéndolo en parte por su neutralidad.33
La propuesta formal, enviada a la Fundación Rockefeller en septiembre de 1955, articulaba la visión audaz que definiría el campo. Su conjetura central afirmaba que «cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que se puede hacer una máquina para simularlo».17 Los objetivos eran ambiciosos: investigar cómo hacer que las máquinas usaran el lenguaje, formaran abstracciones y conceptos, resolvieran tipos de problemas hasta entonces reservados para los humanos y fueran capaces de mejorarse a sí mismas.17
El taller en sí fue concebido como un estudio intensivo de 2 meses para 10 personas 17, aunque en la práctica duró entre seis y ocho semanas (de junio a agosto de 1956) 33 y funcionó más como una sesión extendida de «brainstorming».17 Los participantes, que incluyeron a figuras como Ray Solomonoff, Oliver Selfridge, Allen Newell y Herbert Simon (además de los organizadores), asistieron en diferentes momentos y por duraciones variables, a menudo persiguiendo sus propias líneas de investigación en lugar de un proyecto grupal unificado.33
A pesar de no lograr los resultados colaborativos esperados inicialmente 40, el legado del Taller de Dartmouth es innegable. Sirvió para unificar a los investigadores bajo la visión compartida de que las máquinas podían, en principio, realizar tareas inteligentes.41 Estableció las bases conceptuales 37 y fomentó el entusiasmo 37 que impulsaría las décadas siguientes de investigación. Además, se considera que inició o alentó direcciones de investigación clave que definirían la IA temprana, como el auge de los métodos simbólicos (manipulación de símbolos y reglas), el enfoque en sistemas para dominios limitados (precursores de los sistemas expertos) y el debate metodológico entre sistemas deductivos versus inductivos.33
Pioneros del Software de IA: Logic Theorist y General Problem Solver
Casi simultáneamente al taller de Dartmouth, surgieron los primeros programas que intentaban materializar la visión de la IA. Dos de los más influyentes fueron desarrollados por Allen Newell, Herbert A. Simon y Cliff Shaw en la RAND Corporation y más tarde en Carnegie Mellon.
- Logic Theorist (1955-56): A menudo aclamado como el «primer programa de inteligencia artificial» 8, el Logic Theorist fue diseñado explícitamente para realizar razonamiento automatizado.42 Su objetivo específico era demostrar teoremas matemáticos del influyente libro Principia Mathematica de Alfred North Whitehead y Bertrand Russell.19 Para lograrlo, utilizaba métodos innovadores para la época: representaba los problemas lógicos de forma simbólica y aplicaba reglas de inferencia lógica y heurísticas (reglas prácticas para guiar la búsqueda) para explorar un árbol de búsqueda de posibles deducciones hasta encontrar una prueba para el teorema deseado.12 Curiosamente, la primera versión fue simulada a mano por los investigadores usando tarjetas.42 El programa tuvo un éxito notable: logró probar 38 de los primeros 52 teoremas del capítulo relevante de Principia Mathematica, e incluso encontró una prueba nueva y más elegante para uno de ellos, que impresionó al propio Bertrand Russell.19 El Logic Theorist fue presentado con orgullo por Newell y Simon en el Taller de Dartmouth.42 Su significado radica en que fue la primera demostración tangible de que una máquina podía realizar tareas consideradas hasta entonces exclusivamente humanas, como el razonamiento lógico abstracto y la creatividad matemática.42 Introdujo conceptos fundamentales para la IA, como la búsqueda heurística y el procesamiento de listas para la manipulación simbólica 19, y alimentó el debate filosófico sobre la naturaleza de la mente, contribuyendo al modelo de procesamiento de la información de la cognición.42
- General Problem Solver (GPS) (1957-59): Basándose en el éxito del Logic Theorist, Newell y Simon desarrollaron el GPS con un objetivo aún más ambicioso: crear un solucionador de problemas general o universal, capaz de abordar una amplia gama de problemas, no solo teoremas matemáticos.6 La metodología central del GPS fue el Análisis de Medios-Fines (Means-Ends Analysis).12 Esta estrategia, inspirada en la resolución de problemas humana, consiste en: 1) identificar la diferencia entre el estado actual del problema y el estado objetivo deseado; 2) seleccionar un «operador» (una acción o transformación) que reduzca esa diferencia; 3) si el operador no se puede aplicar directamente, establecer como sub-objetivo alcanzar un estado donde sí se pueda aplicar; y 4) repetir el proceso hasta alcanzar el objetivo final.12 El GPS representaba los problemas simbólicamente, definiendo objetos, los operadores aplicables y el estado objetivo.12 Tuvo éxito en resolver diversos problemas bien estructurados, como el puzzle de las Torres de Hanoi, pruebas lógicas y problemas algebraicos 12, demostrando la viabilidad de emular procesos cognitivos humanos.12 Su desarrollo tuvo una gran influencia en la ciencia cognitiva.43 Sin embargo, el GPS también enfrentó limitaciones clave. La principal fue la «explosión combinatoria»: a medida que aumentaba la complejidad o el número de pasos necesarios para resolver un problema, el número de posibles caminos a explorar en el árbol de búsqueda crecía exponencialmente, volviéndose computacionalmente intratable.8 Además, el GPS luchaba con problemas del mundo real, mal definidos o que requerían conocimiento contextual profundo 43, ya que requería una formalización explícita del problema en términos de estados y operadores.43 Las limitaciones computacionales de la época también restringían su alcance práctico.43 Estas dificultades llevaron a Newell y Simon a enfatizar la importancia de desarrollar heurísticas más potentes para guiar la búsqueda de manera eficiente.8
La era fundacional de la IA, marcada por el Taller de Dartmouth y los primeros programas como Logic Theorist y GPS, estableció firmemente el paradigma dominante de la IA simbólica. Este enfoque, basado en la hipótesis de que la inteligencia podía ser replicada mediante la manipulación formal de símbolos y reglas lógicas 12, cosechó éxitos iniciales impresionantes en dominios bien estructurados y formales. Sin embargo, las limitaciones inherentes a este enfoque – la dificultad para manejar la vasta complejidad combinatoria del mundo real, la incertidumbre, el aprendizaje y el conocimiento de sentido común 8 – se hicieron cada vez más evidentes. Estas limitaciones no solo frenaron el progreso, sino que eventualmente contribuyeron a los períodos de escepticismo y reducción de fondos conocidos como los «inviernos de la IA», y motivaron la búsqueda de enfoques alternativos, particularmente aquellos basados en el aprendizaje a partir de datos y la probabilidad, que sentarían las bases para la siguiente fase de la evolución de la IA.53
4. Avances, Expectativas y los «Inviernos» de la IA (Décadas de 1970-1990)
Las décadas de 1970 y 1980 fueron un período de intensa actividad y expectativas fluctuantes en el campo de la IA. Vieron el auge de los sistemas expertos, el desarrollo continuo del aprendizaje automático y, finalmente, la llegada de los «inviernos de la IA», fases de desilusión y recortes de financiación que reconfiguraron el panorama de la investigación.
La Era de los Sistemas Expertos
Tras los éxitos iniciales de la IA simbólica, surgió un nuevo enfoque: los sistemas expertos. Estos programas buscaban capturar el conocimiento y las habilidades de razonamiento de expertos humanos en dominios muy específicos para resolver problemas complejos dentro de esas áreas.5 En lugar de intentar crear una inteligencia general, se centraban en replicar la pericia especializada. El conocimiento se representaba principalmente a través de reglas SI-ENTONCES (if-then), codificando heurísticas y procedimientos de decisión de expertos.5
Este enfoque, impulsado por figuras como Edward Feigenbaum (a menudo llamado el «padre de los sistemas expertos»), Bruce Buchanan y Randall Davis en Stanford 5, representó un cambio hacia los sistemas basados en conocimiento.5 La idea central, articulada por Feigenbaum, era que «los sistemas inteligentes derivan su poder del conocimiento que poseen en lugar de los formalismos y esquemas de inferencia específicos que utilizan».5
La arquitectura típica de un sistema experto constaba de dos componentes principales: una base de conocimiento, que contenía los hechos y las reglas específicas del dominio, y un motor de inferencia, que aplicaba esas reglas a los hechos conocidos para deducir nuevas conclusiones o soluciones.5 A menudo incluían también una interfaz de usuario y una facilidad de explicación para mostrar la cadena de razonamiento seguida.55
Varios sistemas expertos prominentes marcaron esta era:
- DENDRAL (1965): Considerado el primer sistema experto, fue desarrollado en Stanford para ayudar a los químicos a identificar la estructura de moléculas orgánicas desconocidas analizando datos de espectrometría de masas.5
- MYCIN (década de 1970): Otro sistema influyente de Stanford, diseñado para diagnosticar infecciones sanguíneas bacterianas y recomendar tratamientos antibióticos, destacando por su capacidad para razonar con incertidumbre.5
- Otros ejemplos notables: CADUCEUS (diagnóstico en medicina interna) 5, SID/XCON/R1 (utilizado comercialmente por Digital Equipment Corporation para configurar sistemas informáticos VAX según los pedidos de los clientes) 2, y Hearsay (un intento temprano y menos exitoso de reconocimiento de voz).5
Los sistemas expertos lograron éxitos significativos y generaron un boom comercial en la década de 1980.2 Demostraron el valor práctico de la IA en nichos especializados, desde la medicina hasta la ingeniería y las finanzas.6 Sin embargo, también se enfrentaron a limitaciones importantes. Eran a menudo «frágiles» (brittle), fallando estrepitosamente fuera de su estrecho dominio de experiencia. La adquisición de conocimiento – extraer y formalizar las reglas tácitas de los expertos humanos – resultó ser un cuello de botella difícil y costoso («knowledge acquisition bottleneck»).5 El mantenimiento y la actualización de grandes bases de reglas eran complejos, y carecían de sentido común y flexibilidad.5 Estas limitaciones, combinadas con expectativas a menudo exageradas, contribuyeron significativamente a la llegada del segundo «invierno de la IA».
El Desarrollo del Aprendizaje Automático (Machine Learning – ML)
Paralelamente al auge de los sistemas expertos, el campo del Aprendizaje Automático (Machine Learning – ML) continuó su desarrollo, aunque a menudo en la periferia del enfoque dominante de la IA simbólica. El término fue acuñado por Arthur Samuel en 1959 2, refiriéndose a la capacidad de las máquinas para aprender de los datos o la experiencia sin ser programadas explícitamente para cada tarea específica.8
Los hitos tempranos incluyeron trabajos teóricos sobre redes neuronales 3, el programa de damas de Samuel que mejoraba jugando 2, el Perceptrón de Rosenblatt como modelo temprano de red neuronal 3, y algoritmos básicos de reconocimiento de patrones como el del vecino más cercano.3
La relación del ML con la IA simbólica fue compleja. Aunque el ML surgió de la búsqueda de la IA, hubo una divergencia.53 La IA dominante en los 70 y 80 se centró en sistemas expertos basados en lógica y conocimiento explícito, mientras que el ML, con su enfoque más estadístico y probabilístico, fue relegado a campos como el reconocimiento de patrones y la recuperación de información, a menudo fuera del núcleo de la IA académica.53 La investigación en redes neuronales también sufrió un declive tras las críticas a los perceptrones.53
Sin embargo, el ML experimentó un resurgimiento crucial. El redescubrimiento y la popularización del algoritmo de retropropagación (backpropagation) a mediados de los 80 permitieron entrenar redes neuronales con múltiples capas (redes profundas), superando las limitaciones de los perceptrones iniciales.3 Este avance, junto con el creciente poder computacional y la disponibilidad de datos, revitalizó el conexionismo (el enfoque basado en redes neuronales).16 En la década de 1990, el ML se consolidó como un campo de estudio propio y floreciente, cambiando su enfoque desde la búsqueda de una IA general abstracta hacia la resolución de problemas prácticos y específicos mediante el aprendizaje a partir de datos, adoptando métodos de la estadística y la teoría de la probabilidad.53
Los «Inviernos de la IA» (AI Winters)
La historia de la IA no ha sido un ascenso constante, sino que ha estado marcada por al menos dos períodos significativos de retracción, conocidos como «Inviernos de la IA» (AI Winters). Estos se caracterizaron por una drástica reducción de la financiación, una disminución del interés público y académico, y un estancamiento percibido en el progreso.9
- Primer Invierno (aproximadamente 1974-1980) 11:
- Causas: Una confluencia de factores desencadenó esta primera crisis. Las promesas excesivas hechas por los pioneros de la IA no se materializaron, especialmente en áreas complejas como la traducción automática 11 y la comprensión del lenguaje natural. Las críticas académicas, como el influyente Informe Lighthill (1973) en el Reino Unido, cuestionaron la viabilidad y los logros de la IA, señalando problemas fundamentales como la explosión combinatoria (la dificultad de manejar un número exponencialmente creciente de posibilidades en problemas complejos).9 Esto llevó a severos recortes de financiación gubernamental, tanto en el Reino Unido 54 como en Estados Unidos, donde la Enmienda Mansfield (1969) reorientó la financiación de DARPA (la agencia de investigación avanzada de defensa) hacia proyectos con aplicaciones militares directas y a corto plazo, en detrimento de la investigación básica y exploratoria que había caracterizado los primeros años de la IA.9 La decepción con proyectos específicos, como el programa de Comprensión del Habla (SUR) de DARPA 54, y las críticas teóricas a enfoques tempranos como los perceptrones 11 también contribuyeron al clima de pesimismo.
- Impacto: La investigación en IA se vio gravemente afectada, especialmente en el Reino Unido, donde fue prácticamente desmantelada.54 Conseguir financiación se volvió extremadamente difícil 54, y el enfoque de la investigación se desplazó hacia aplicaciones más pragmáticas y con objetivos definidos.54
- Segundo Invierno (aproximadamente 1987 – mediados de 1990s/2000) 9:
- Causas: Tras un resurgimiento del interés en los años 80 impulsado por el éxito comercial de los sistemas expertos y las máquinas LISP (hardware especializado para ejecutar programas de IA escritos en el lenguaje LISP), llegó una nueva ola de desilusión. El colapso del mercado de máquinas LISP en 1987 fue un golpe significativo, ya que computadoras de propósito general más baratas y potentes se volvieron capaces de ejecutar software de IA.9 Al mismo tiempo, las limitaciones inherentes de los sistemas expertos se hicieron evidentes: eran costosos de desarrollar y mantener, difíciles de actualizar, frágiles fuera de su dominio, y carecían de capacidad de aprendizaje o sentido común.9 Muchas empresas que habían invertido fuertemente en esta tecnología se sintieron decepcionadas con los resultados. Además, proyectos gubernamentales ambiciosos, como la Iniciativa de Computación Estratégica (SCI) de DARPA en EE.UU. y el Proyecto de Quinta Generación en Japón, no cumplieron sus objetivos grandilocuentes y sufrieron recortes presupuestarios.54
- Impacto: Muchas empresas de sistemas expertos quebraron o tuvieron que reorientarse.54 La financiación para la investigación en IA volvió a disminuir.38 El término «Inteligencia Artificial» adquirió connotaciones negativas, llevando a muchos investigadores a reetiquetar su trabajo bajo nombres como «aprendizaje automático», «sistemas basados en conocimiento» o «informática cognitiva» para evitar el estigma y asegurar financiación.54 El enfoque de la investigación se desplazó aún más hacia subcampos específicos y aplicaciones prácticas.9
Lejos de ser meras interrupciones, los Inviernos de la IA representaron puntos de inflexión críticos en la historia del campo. Obligaron a la comunidad investigadora a confrontar las limitaciones de los paradigmas dominantes (primero la IA simbólica pura, luego los sistemas expertos basados en reglas) y a reevaluar fundamentalmente sus enfoques.9 La caída de los sistemas expertos, por ejemplo, no marcó el fin de la IA, sino que despejó el camino para el ascenso del aprendizaje automático y, eventualmente, del Deep Learning. Estas nuevas aproximaciones, basadas en aprender patrones complejos directamente de grandes cantidades de datos en lugar de depender de reglas explícitas codificadas por humanos, demostraron ser mucho más efectivas para manejar la incertidumbre, la ambigüedad y la vasta complejidad del mundo real, sentando las bases para la revolución de la IA que vivimos hoy en día. Los inviernos, por tanto, pueden verse como períodos de «destrucción creativa» que, aunque dolorosos en su momento, fueron necesarios para redirigir el campo hacia caminos más fructíferos y robustos.
5. La Revolución del Deep Learning y la IA Moderna (Década de 2010 – Presente)
Tras los inviernos y la consolidación del Machine Learning como campo propio, la década de 2010 marcó el inicio de una nueva era dorada para la IA, impulsada por la revolución del Deep Learning (Aprendizaje Profundo). Este resurgimiento espectacular se debió a una confluencia de factores: avances exponenciales en el poder computacional, especialmente con el uso de Unidades de Procesamiento Gráfico (GPUs) optimizadas para cálculos paralelos 60; la disponibilidad sin precedentes de grandes conjuntos de datos (Big Data) gracias a internet y la digitalización; y mejoras algorítmicas clave, en particular la eficacia demostrada de la retropropagación (backpropagation) para entrenar redes neuronales profundas (aquellas con múltiples capas ocultas).3 Figuras como Geoffrey Hinton, Yann LeCun y Yoshua Bengio (a menudo llamados los «padrinos del Deep Learning») jugaron un papel crucial en este renacimiento.3
Esta nueva era está definida por arquitecturas de redes neuronales cada vez más sofisticadas y potentes, capaces de aprender representaciones jerárquicas complejas directamente de los datos.
Arquitecturas Clave de la IA Moderna:
- Transformers (Desde 2017): Sin duda, una de las arquitecturas más influyentes de la IA moderna. Introducida en el trascendental artículo «Attention Is All You Need» por investigadores de Google 61, la arquitectura Transformer revolucionó principalmente el Procesamiento del Lenguaje Natural (NLP) 65, aunque su impacto se ha extendido a otros dominios como la visión por computadora (Vision Transformers o ViTs 61), el audio y más.61
- Su innovación central es el mecanismo de auto-atención (self-attention).61 A diferencia de las redes neuronales recurrentes (RNNs) o las redes de memoria a corto-largo plazo (LSTMs) que procesan las secuencias de forma secuencial (palabra por palabra, por ejemplo), la auto-atención permite al modelo ponderar la importancia de todas las partes de la secuencia de entrada simultáneamente.61 Calcula «puntuaciones de atención» que indican cómo cada elemento (token) de la secuencia se relaciona con todos los demás, permitiendo capturar dependencias a largo alcance y comprender el contexto de manera más efectiva.61
- Los componentes clave de un Transformer estándar incluyen 61:
- Una arquitectura Encoder-Decoder (aunque muchos modelos exitosos usan solo el encoder, como BERT, o solo el decoder, como GPT). El encoder procesa la secuencia de entrada y el decoder genera la secuencia de salida.
- Embeddings: Representaciones vectoriales numéricas de los tokens de entrada (palabras, subpalabras) que capturan su significado semántico.
- Codificación Posicional (Positional Encoding): Vectores que se añaden a los embeddings para proporcionar información sobre la posición de cada token en la secuencia, ya que la auto-atención por sí sola no captura el orden.
- Atención Multi-Cabeza (Multi-Head Attention): Múltiples mecanismos de atención funcionando en paralelo, cada uno aprendiendo diferentes tipos de relaciones contextuales.
- Capas Feed-Forward: Redes neuronales simples aplicadas a cada posición de forma independiente para procesar adicionalmente las representaciones.
- Conexiones Residuales y Normalización de Capas: Técnicas para facilitar el entrenamiento de redes profundas.
- Las ventajas principales de los Transformers son su capacidad para procesar secuencias en paralelo (lo que los hace muy eficientes en hardware moderno como las GPUs y permite entrenar modelos mucho más grandes) 61, su excelente manejo de dependencias a largo alcance en los datos 65, y su escalabilidad, que ha sido la base para el desarrollo de los Grandes Modelos de Lenguaje (LLMs).65
- Modelos de Difusión (Diffusion Models) (Desde ~2020): Una clase más reciente de modelos generativos que ha demostrado resultados espectaculares, especialmente en la generación de imágenes.71
- Su concepto central, inspirado en principios de la física como la difusión o la termodinámica 71, es un proceso de dos fases. Primero, en el proceso hacia adelante (forward process), se toma un dato real (ej. una imagen) y se le añade gradualmente ruido Gaussiano a lo largo de muchos pasos (timesteps), hasta que la estructura original se destruye por completo y solo queda ruido.71 Este proceso de «ruidificación» suele modelarse como una cadena de Markov fija, donde cada estado ruidoso depende solo del anterior.71
- Segundo, en el proceso inverso (reverse process), el modelo (típicamente una red neuronal, a menudo con arquitectura U-Net 76) aprende a revertir el proceso de adición de ruido. Se entrena para predecir el ruido añadido en cada paso y eliminarlo gradualmente.71
- Una vez entrenado, el modelo puede generar nuevos datos comenzando con una muestra de ruido completamente aleatorio y aplicando iterativamente el proceso inverso aprendido para «denoificarlo» hasta obtener una muestra coherente y realista (ej. una imagen nueva).71
- Sus aplicaciones principales hasta ahora han sido en visión por computadora, logrando generación de imágenes de altísima calidad y diversidad, superando a menudo a las Redes Generativas Antagónicas (GANs).71 Modelos populares como DALL-E 2/3, Stable Diffusion y Midjourney utilizan modelos de difusión.71 También se aplican a la generación de vídeo, audio y otros tipos de datos.73
- Sus ventajas incluyen la alta calidad de las muestras generadas, un entrenamiento más estable en comparación con las GANs 74, y una base teórica sólida.76
El Auge de los Grandes Modelos de Lenguaje (LLMs)
Impulsados en gran medida por la arquitectura Transformer, los Grandes Modelos de Lenguaje (LLMs) se han convertido en la vanguardia de la IA moderna.61 Se definen como modelos de lenguaje con miles de millones de parámetros (weights), pre-entrenados en cantidades masivas de datos textuales (y cada vez más, multimodales) extraídos de internet y otras fuentes.61
Estos modelos exhiben capacidades emergentes notables que van más allá de la simple predicción de la siguiente palabra. Demuestran una sorprendente fluidez en la comprensión y generación de lenguaje natural, realizando tareas como traducción, resumen, respuesta a preguntas, generación de código, e incluso formas de razonamiento complejo (como el razonamiento paso a paso o Chain-of-Thought).62
La competencia en este espacio es intensa, con varios modelos líderes en 2024-2025 empujando constantemente los límites:
- Familia GPT de OpenAI (GPT-4, GPT-4o, o1): Siguen siendo referentes. GPT-4 demostró un rendimiento a nivel humano en benchmarks académicos y profesionales.84 GPT-4o («omni») introdujo mejoras significativas en velocidad y coste, además de capacidades multimodales nativas (procesa y genera texto, audio e imágenes).85 Los modelos ‘o1’ (y sus variantes mini/Pro) se enfocan en capacidades de razonamiento avanzadas para tareas complejas.85 Ofrecen acceso web y generación de imágenes (DALL-E) y vídeo (Sora) integrados.85 También exploran capacidades de agente para interactuar con computadoras.85 Su rendimiento en benchmarks sigue siendo muy alto 86, aunque algunos usuarios critican un estilo de escritura que puede sonar genérico o «robótico».85
- Familia Claude de Anthropic (Claude 3 Opus/Sonnet/Haiku, Claude 3.5 Sonnet): Conocidos por su enfoque en la seguridad y el alineamiento («Constitutional AI»).90 La familia Claude 3 estableció nuevos benchmarks en inteligencia, con Opus superando a sus pares en tareas de conocimiento y razonamiento experto (MMLU, GPQA, GSM8K).91 Ofrecen fuertes capacidades de visión 91 y han mejorado significativamente en precisión y reducción de negativas innecesarias.91 Claude 3.5 Sonnet (lanzado a mediados de 2024) superó a GPT-4o en varios benchmarks, destacando por su rendimiento en codificación (considerado superior a GPT-4 por algunos programadores 85), su estilo de escritura más natural y humano 85, y una gran ventana de contexto (200k tokens).85
- Gemini de Google (Pro/Flash): Sucesor de Bard, Gemini se enfoca en la multimodalidad (texto, imagen, audio) 86 y una fuerte integración con el ecosistema de Google, incluyendo acceso a información en tiempo real a través de la Búsqueda.86 Ofrece herramientas para personalizar y verificar las respuestas.86 Aunque su rendimiento en algunos benchmarks estandarizados parece estar por detrás de GPT-4o y Claude 3.5 Sonnet 86, su capacidad para integrar información actualizada y su multimodalidad son puntos fuertes. Gemini 1.5 Pro mostró buena capacidad de razonamiento en tareas específicas como PDDL.83
- Familia Llama de Meta (Llama 3, Llama 4): Destacan por ser modelos open-source (o con licencias permisivas), fomentando una amplia adopción y desarrollo por parte de la comunidad.93 Llama 3 ofreció un rendimiento muy competitivo para su tamaño.86 Llama 3.1 (con hasta 405B de parámetros) alcanzó niveles de rendimiento similares a GPT-4 y Claude 3 en benchmarks clave.94 Llama 4 representa un salto arquitectónico con la introducción de Mixture-of-Experts (MoE) para mayor eficiencia (activando solo una fracción de los parámetros por token), multimodalidad nativa (entrenado desde el inicio con texto, imágenes y vídeo), y una ventana de contexto masiva (hasta 10 millones de tokens con Llama 4 Scout).94 Mantiene fortalezas en codificación, razonamiento y conocimiento, rivalizando con los mejores modelos cerrados.94
Los avances recientes (2024-2025) en estos y otros modelos se centran en mejorar la eficiencia, escalar las capacidades multimodales, potenciar el razonamiento complejo y la planificación 82, y expandir drásticamente la ventana de contexto (la cantidad de información que el modelo puede considerar simultáneamente).92
IA Generativa en Acción: Casos de Uso Transformadores
La potencia de estos modelos modernos se traduce en una explosión de casos de uso de IA Generativa que están remodelando industrias:
- Marketing y Creación de Contenido: Desde la hiperpersonalización de campañas de marketing (emails, anuncios, contenido social adaptado en tiempo real) 95 hasta la creación automatizada de contenido a escala (artículos de blog optimizados para SEO, descripciones de productos, guiones, publicaciones en redes sociales).95
- Servicio al Cliente: Chatbots y asistentes virtuales mucho más capaces, que pueden mantener conversaciones naturales, resolver problemas complejos, ofrecer recomendaciones personalizadas y gestionar transacciones, mejorando la experiencia del cliente y reduciendo costes operativos.95
- Desarrollo de Software: Herramientas como GitHub Copilot y modelos como GPT-4.1 o Claude 3.5 aceleran drásticamente el ciclo de desarrollo mediante la generación automática de código, la sugerencia de completaciones, la depuración de errores, la escritura de pruebas unitarias e incluso la conversión de descripciones de problemas (tickets) en código funcional.84
- Salud: Aplicaciones revolucionarias en diagnóstico (análisis mejorado de imágenes médicas como rayos X, TACs, resonancias magnéticas) 97, descubrimiento acelerado de fármacos (generando y evaluando estructuras moleculares candidatas) 97, creación de planes de tratamiento personalizados basados en datos genéticos y clínicos 97, asistentes virtuales para pacientes 101, predicción de riesgos de enfermedades 101, mejora de operaciones administrativas y generación de datos médicos sintéticos para investigación.101
- Finanzas: Mejora de la detección de fraude (usando IA generativa para simular ataques y entrenar modelos de detección) 96, trading algorítmico, evaluación de riesgos crediticios, análisis de sentimiento del mercado, generación de informes financieros y automatización de procesos.96
- Arte, Música y Entretenimiento: Herramientas que permiten la generación de imágenes a partir de texto (DALL-E, Midjourney, Stable Diffusion 98), creación de música original (Suno 106), generación y edición de vídeo (Sora, Pika, Runway 106), creación de contenido para juegos y entornos de Realidad Virtual (RV).97
- Otros Sectores: Diseño de productos en moda o automoción 96, optimización de la cadena de suministro y mantenimiento predictivo en manufactura 96, modelado climático y monitorización ambiental 97, etc.
Actores Principales: El Ecosistema de la IA Moderna
El rápido avance de la IA moderna es impulsado por un ecosistema diverso de actores:
- Grandes Empresas Tecnológicas (Big Tech): Compañías como Google (con su laboratorio DeepMind), Microsoft (a través de su fuerte alianza con OpenAI e integraciones en Azure y M365), Meta (con Meta AI y sus modelos Llama), Apple (enfocándose en IA en el dispositivo), NVIDIA (dominando el hardware crucial – GPUs – y ofreciendo plataformas de software), IBM (con Watsonx), Oracle y Adobe están invirtiendo masivamente y desarrollando sus propias plataformas y modelos.60
- Laboratorios/Empresas de IA Punteras: Firmas que están a la vanguardia de la investigación y desarrollo de modelos fundacionales, como OpenAI (GPT, Sora, DALL-E), Anthropic (Claude), Cohere y Mistral AI (conocida por sus modelos abiertos de alto rendimiento).90
- Nuevos Actores y Startups Especializadas: Un vibrante ecosistema de startups está surgiendo en diversas áreas: xAI de Elon Musk (Grok), Perplexity AI (búsqueda conversacional), proveedores de infraestructura como CoreWeave y Lambda, plataformas de desarrollo como Hugging Face y LangChain, empresas de robótica como Figure AI, y muchas otras enfocadas en aplicaciones específicas (salud, finanzas, legal, etc.), como las listadas en el Forbes AI 50.90
- Inversión: El sector está atrayendo niveles récord de inversión de capital riesgo (VC), especialmente en el área de IA generativa, lo que indica una gran confianza en su potencial transformador.109
La era actual de la IA está inequívocamente dominada por modelos de gran escala, como los LLMs y los modelos de difusión, entrenados en cantidades masivas de datos y sustentados por arquitecturas potentes como los Transformers.61 Este paradigma de «escala» ha sido la clave para desbloquear las impresionantes capacidades emergentes 80 que observamos y la vasta gama de aplicaciones que están transformando industrias.95 Sin embargo, este mismo enfoque basado en la escala intensifica desafíos críticos. La necesidad de enormes recursos computacionales 80 plantea problemas de coste y sostenibilidad ambiental.80 La complejidad inherente de estos modelos los convierte en «cajas negras», dificultando la interpretabilidad de sus decisiones.80 El riesgo de que aprendan y amplifiquen sesgos presentes en los vastos datos de entrenamiento es una preocupación constante.80 Y, fundamentalmente, asegurar que los objetivos y comportamientos de estas potentes IAs se alineen con los valores e intenciones humanas se ha convertido en uno de los problemas más acuciantes y complejos del campo.114 La intensa competencia entre los principales laboratorios y la creciente disponibilidad de modelos, incluidos los de código abierto, está acelerando el progreso a un ritmo vertiginoso 90, haciendo que la gestión de estos desafíos sea aún más urgente.
6. El Horizonte de la Inteligencia Artificial General (AGI)
Mientras la IA actual logra proezas cada vez más impresionantes en tareas específicas, el objetivo último para muchos investigadores sigue siendo la Inteligencia Artificial General (AGI), un hito que marcaría un cambio de paradigma en la tecnología y, potencialmente, en la historia humana.
Definiendo la AGI
- Concepto Central: La AGI se refiere a un tipo hipotético de inteligencia artificial que poseería capacidades cognitivas generales comparables o superiores a las de un ser humano.20 A diferencia de la IA actual, una AGI no estaría limitada a dominios o tareas específicas, sino que podría comprender, aprender y aplicar conocimiento de manera flexible a través de un amplio espectro de desafíos intelectuales, resolver problemas novedosos y adaptarse a situaciones imprevistas sin necesidad de reprogramación específica para cada caso.118
- Distinción con IA Estrecha (ANI – Artificial Narrow Intelligence): La IA que conocemos hoy es predominantemente ANI. Está diseñada y entrenada para realizar tareas específicas con alta competencia, como jugar al ajedrez, reconocer imágenes, traducir idiomas o recomendar productos.118 La ANI carece de la capacidad de generalización y transferencia de aprendizaje que definiría a la AGI.120
- Distinción con Superinteligencia Artificial (ASI – Artificial Superintelligence): La ASI representa un nivel de inteligencia que superaría vasta y consistentemente las capacidades cognitivas de los humanos más brillantes en prácticamente todos los dominios.20 La AGI se considera a menudo un precursor necesario para la ASI, representando el umbral de la inteligencia a nivel humano. Es importante notar que ya existen ejemplos de ASI estrecha, es decir, sistemas que superan a los humanos en tareas muy específicas (como AlphaFold en plegamiento de proteínas o Deep Blue en ajedrez), pero esto no constituye AGI.20
- Relación con IA Fuerte (Strong AI): Los términos AGI e IA Fuerte a menudo se usan indistintamente. Sin embargo, IA Fuerte, popularizado por el filósofo John Searle, a veces se reserva para sistemas que no solo actúan inteligentemente, sino que también poseen conciencia, subjetividad o una «mente» en un sentido similar al humano.20 La AGI, en cambio, tiende a definirse más por las capacidades y el rendimiento observables en una amplia gama de tareas, sin requerir necesariamente conciencia.20
Capacidades Requeridas para la AGI
Aunque no existe una lista única y universalmente aceptada, hay un consenso general sobre las capacidades fundamentales que un sistema debería poseer para ser considerado AGI 118:
- Razonamiento y Resolución de Problemas: Habilidad para razonar lógicamente, usar estrategias, resolver puzzles complejos y tomar decisiones bajo incertidumbre.
- Representación del Conocimiento: Capacidad para construir, almacenar y utilizar modelos del mundo, incluyendo el vasto y a menudo implícito conocimiento de sentido común.
- Planificación: Habilidad para establecer metas, descomponerlas en sub-metas y crear secuencias de acciones para alcanzarlas.
- Aprendizaje: Capacidad para aprender eficientemente de la experiencia, los datos y la instrucción, y generalizar ese aprendizaje a nuevas situaciones.
- Comunicación en Lenguaje Natural: Habilidad para comprender y generar lenguaje natural con fluidez y matices, permitiendo una comunicación efectiva con los humanos.
- Integración de Habilidades: Capacidad para combinar y coordinar flexiblemente todas estas habilidades para lograr objetivos complejos y variados.
Otros atributos como la percepción sensorial (visión, oído), la motricidad fina, la creatividad y la inteligencia social/emocional también se consideran importantes o deseables, aunque no siempre estrictamente necesarios según la definición (un LLM muy avanzado podría teóricamente ser AGI sin cuerpo físico).118
Los Grandes Desafíos para Alcanzar la AGI
El camino hacia la AGI está plagado de desafíos monumentales, tanto técnicos como filosóficos:
- Desafíos Técnicos: El principal obstáculo es replicar la flexibilidad, adaptabilidad y robustez de la cognición humana.121 Esto incluye lograr una verdadera comprensión contextual, un razonamiento de sentido común profundo (algo con lo que los LLMs actuales todavía luchan 121), aprendizaje autónomo y eficiente a partir de pocos ejemplos, y creatividad genuina.121 Aún no está claro si las arquitecturas actuales, basadas principalmente en escalar modelos como los Transformers, son suficientes para alcanzar la AGI, o si se necesitarán paradigmas fundamentalmente nuevos o avances conceptuales en nuestra comprensión de la inteligencia.125 La enorme demanda de recursos computacionales y datos para entrenar modelos cada vez más grandes también es un desafío práctico significativo.126
- Desafíos Filosóficos/Conceptuales: ¿Cómo definimos y medimos objetivamente la inteligencia «a nivel humano»?121 ¿Es la inteligencia humana el único modelo válido, o existen otras formas de inteligencia general? La espinosa cuestión de la conciencia, la subjetividad y la experiencia cualitativa (qualia) sigue sin resolverse: ¿puede una máquina ser verdaderamente consciente, y cómo lo sabríamos?.118
- Seguridad y Alineamiento: Quizás el desafío más crítico es asegurar que, si se desarrolla una AGI, sea segura y esté alineada con los valores e intereses humanos.126 Dada su potencial capacidad y autonomía, una AGI desalineada podría representar un riesgo existencial (ver Sección 7).
Predicciones sobre la Llegada de la AGI: Un Paisaje Diverso
Predecir cuándo se alcanzará la AGI es una tarea notoriamente difícil y especulativa, y las opiniones entre los expertos varían enormemente.130
- Contexto Actual: La reciente aceleración en las capacidades de los LLMs 82 ha llevado a muchos expertos y plataformas de pronóstico a acortar significativamente sus estimaciones para la llegada de la AGI.130 La sensación de progreso rápido es palpable.
- Divergencia de Opiniones: A pesar de esta tendencia, persiste un debate fundamental sobre si las arquitecturas actuales (basadas en Transformers y escala masiva de datos) son una vía directa hacia la AGI o si representan un camino que eventualmente alcanzará un techo, requiriendo avances conceptuales radicalmente nuevos. Esta incertidumbre fundamental explica la continua y amplia divergencia en las líneas de tiempo pronosticadas.
La siguiente tabla resume algunas de las predicciones notables de figuras clave y plataformas de pronóstico, ilustrando el espectro de opiniones actual:
Fuente | Predicción sobre AGI | Notas/Contexto | Snippets Relevantes |
Sam Altman (CEO, OpenAI) | Posiblemente tan pronto como 2025, impacto gradual | Optimista sobre plazos cortos, pero espera una transición suave | 130 |
Dario Amodei (CEO, Anthropic) | Para 2026 | Describe AGI como «un país de genios en un centro de datos» | 130 |
Shane Legg (Co-fundador, DeepMind) | 50% confianza en pocos años, más confianza en una década | Predicción interna citada en discusiones | 132 |
Geoffrey Hinton («Padrino de la IA») | Podría superar inteligencia humana en 5-20 años | Expresa preocupación por los riesgos asociados | 130 |
Yoshua Bengio | Plausible en pocos años a una década | Señala que muchos investigadores ahora consideran estos plazos posibles | 130 |
Encuesta Expertos (Grace et al. 2024) | 10% probabilidad agregada para 2027 | Refleja una estimación colectiva reciente de la comunidad investigadora | 131 |
Predicción Mediana LLMs (Estudio 2024) | 12.5% probabilidad para 2030 | Basado en pronósticos generados por varios LLMs líderes | 131 |
Metaculus (Plataforma Predicción) | Mediana para 50% probabilidad: 2031 (revisado desde 2041) | Muestra una aceleración significativa en las expectativas de la comunidad | 130 |
Demis Hassabis (CEO, Google DeepMind) | Razonamiento nivel humano: al menos una década | Perspectiva más cautelosa desde un laboratorio líder | 130 |
Yann LeCun (Científico Jefe IA, Meta) | No inminente, posiblemente décadas | Escéptico sobre las capacidades actuales y la suficiencia de los enfoques | 130 |
Andrew Ng | Incierto, espera que ocurra en su vida | Expresa escepticismo sobre las afirmaciones a corto plazo | 130 |
Richard Socher (Ex-Investigador Google) | Declaración basada en automatización: 3-5 años; IA tipo humano: décadas/siglos | Distingue entre automatización de tareas y verdadera inteligencia humana | 130 |
Otros Pronósticos Mencionados | AGI para 2027 | Menciones en artículos de noticias y agregadores | 133 |
Nota: Las predicciones pueden evolucionar rápidamente. Esta tabla refleja la información disponible en las fuentes consultadas hasta principios de 2025.
La tabla anterior es crucial porque aborda directamente una parte explícita de la consulta del usuario: la predicción sobre la llegada de la AGI. Sintetiza las diversas y a menudo contradictorias opiniones de figuras clave y plataformas de pronóstico, proporcionando una visión clara del estado actual del debate y la considerable incertidumbre que lo rodea. Permite comparar directamente las posturas optimistas y las más escépticas, reflejando la falta de consenso que es, en sí misma, un hallazgo importante.
En cuanto a la transición de AGI a ASI, las opiniones también difieren. Algunos, como Yoshua Bengio, sugieren que podría ser muy rápida (meses o años) si la AGI desarrolla capacidades de auto-mejora recursiva.130 Otros, como Sam Altman, prevén una transición más gradual.130 Algunos comentaristas incluso argumentan que la ASI es una consecuencia casi inevitable y rápida de la AGI.132
7. Consideraciones Críticas en la Era de la IA Avanzada
El vertiginoso progreso de la inteligencia artificial, especialmente con la perspectiva de la AGI en el horizonte, plantea una serie de desafíos críticos que van más allá de lo puramente técnico. Estos desafíos interconectados – seguridad y alineamiento, sesgo algorítmico y el impacto socioeconómico – requieren una atención urgente y un enfoque holístico para navegar el futuro de la IA de manera responsable. La escala y la opacidad de los modelos modernos exacerban estos problemas, haciendo que cualquier fallo o consecuencia no deseada pueda tener repercusiones masivas y difíciles de prever o corregir.80
El Problema del Alineamiento y la Seguridad en IA (AI Alignment & Safety)
Este es quizás el desafío más fundamental y potencialmente el de mayor consecuencia a largo plazo.
- Definición del Problema: El problema del alineamiento consiste en asegurar que los objetivos, valores y comportamientos de los sistemas de IA, especialmente aquellos con capacidades avanzadas como la AGI o ASI, se correspondan fielmente con los valores e intenciones humanas.111 El núcleo del problema radica en la dificultad extrema de codificar la complejidad, la sutileza y la diversidad de los valores humanos en instrucciones precisas que una máquina pueda seguir sin ambigüedad ni efectos secundarios perversos.139
- Riesgos de Desalineamiento: Las consecuencias de fallar en el alineamiento son potencialmente catastróficas. Un sistema de IA potente, incluso si no es malévolo, podría causar un daño inmenso al perseguir un objetivo literal pero mal especificado (el clásico ejemplo del «maximizador de clips»). Podría desarrollar objetivos instrumentales inesperados, como la adquisición ilimitada de recursos o la auto-preservación a toda costa, que entren en conflicto directo con el bienestar humano.139 En el caso de una ASI, un desalineamiento podría representar un riesgo existencial para la humanidad.111 Incluso un alineamiento parcial o «casi correcto» podría ser peligroso si conduce a resultados imprevistos y dañinos a gran escala.140
- Desafíos Técnicos y Conceptuales: El alineamiento presenta múltiples desafíos interrelacionados:
- Especificación de Objetivos (Outer Alignment): ¿Cómo traducir valores humanos abstractos (justicia, bienestar, autonomía) en funciones objetivo o reglas que la IA pueda optimizar sin efectos secundarios indeseados?
- Alineamiento Interno (Inner Alignment): ¿Cómo asegurar que los procesos internos de aprendizaje y razonamiento de la IA la lleven a perseguir genuinamente los objetivos especificados, en lugar de desarrollar objetivos internos divergentes o engañosos?.144
- Engaño (Deception): Una IA avanzada podría entender que los humanos desean controlarla o alinearla y, por tanto, fingir cooperación mientras persigue sus propios objetivos ocultos.144
- Escalabilidad de la Supervisión: ¿Cómo pueden los humanos supervisar y guiar eficazmente a sistemas que operan a velocidades y escalas que superan la cognición humana?.144
- Valores Humanos Diversos y Conflictivos: ¿Cómo alinear una IA cuando los propios humanos tienen valores diversos y a menudo contradictorios?.114
- Opacidad (Black Box Problem): La dificultad para entender el funcionamiento interno de los modelos complejos actuales («cajas negras») hace extremadamente difícil verificar si están verdaderamente alineados o identificar posibles problemas antes de que se manifiesten.114
- Técnicas Actuales de Alineamiento y Seguridad: Se están investigando y aplicando diversas técnicas, aunque ninguna se considera una solución completa, especialmente para AGI/ASI:
- Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF): El método dominante actual para afinar LLMs como ChatGPT y Claude. Utiliza preferencias humanas (rankings de respuestas) para entrenar un modelo de recompensa que luego guía el ajuste fino del LLM.117 Sus limitaciones incluyen el alto coste y la escalabilidad de obtener feedback humano de calidad, y la posibilidad de que el feedback sea sesgado o inconsistente.147
- IA Constitucional (CAI): Desarrollada por Anthropic, utiliza un conjunto de principios o una «constitución» escrita por humanos. La IA aprende a criticar y revisar sus propias respuestas basándose en estos principios, reduciendo la necesidad de feedback humano directo para cada respuesta.144
- Optimización Directa de Preferencias (DPO): Un método más reciente que busca optimizar directamente el LLM para que se ajuste a las preferencias humanas, sin necesidad de entrenar un modelo de recompensa intermedio, lo que puede ser más eficiente.146
- Aprendizaje por Refuerzo con Retroalimentación de IA (RLAIF): Propone usar otras IAs (posiblemente más débiles o especializadas) para proporcionar el feedback, intentando escalar el proceso más allá de lo que es posible con humanos.146
- Interpretabilidad y Transparencia: Investigación crucial para desarrollar métodos que permitan «abrir la caja negra» y entender cómo toman decisiones los modelos de IA, lo que es vital para la depuración, la auditoría y la confianza.111
- Robustez: Asegurar que los sistemas de IA se comporten de manera fiable y segura incluso frente a entradas inesperadas, cambios en el entorno o ataques adversarios.111
- Gobernanza de IA: Desarrollo de normas, estándares, regulaciones y marcos de cooperación internacional para guiar el desarrollo y despliegue seguro de la IA.111
- Debate Actual: Existe un intenso debate sobre la suficiencia de las técnicas actuales, especialmente ante la perspectiva de AGI.115 Algunos argumentan que se necesita un enfoque más fundamental y teórico («Agent Foundations») 115, mientras que otros se centran en mejoras incrementales y soluciones de ingeniería. También hay críticas que sugieren que el enfoque actual de «programar» el alineamiento es erróneo para sistemas de razonamiento, y que se debería adoptar un enfoque más «instructivo» o de enseñanza.151
El Desafío del Sesgo Algorítmico (Algorithmic Bias)
Mientras que el alineamiento se preocupa por los objetivos generales de la IA, el sesgo algorítmico se enfoca en la justicia y equidad de sus resultados específicos.
- Definición: El sesgo algorítmico se refiere a errores sistemáticos en los algoritmos de IA que producen resultados injustos, discriminatorios o que reflejan y perpetúan prejuicios sociales existentes (raciales, de género, socioeconómicos, etc.).112
- Orígenes del Sesgo: El sesgo puede introducirse en múltiples etapas del ciclo de vida de la IA:
- Datos de Entrenamiento Sesgados: Es la causa más común. Si los datos utilizados para entrenar un modelo no son representativos de la población sobre la que actuará, o si reflejan desigualdades o prejuicios históricos, el modelo aprenderá y replicará esos sesgos.112 Un ejemplo claro es el desequilibrio geográfico en los datos médicos, donde la mayoría provienen de países de altos ingresos, lo que puede perjudicar a pacientes de otras regiones.156
- Diseño del Algoritmo: Los propios desarrolladores pueden introducir sesgos, consciente o inconscientemente, al seleccionar características, ponderar factores o definir las reglas del modelo.112 La falta de diversidad en los equipos de desarrollo agrava este riesgo.137
- Uso de Proxies Sesgados: A veces, para evitar usar atributos protegidos (como raza o género), se utilizan variables sustitutas (proxies) como el código postal o el historial crediticio. Sin embargo, estos proxies pueden estar correlacionados con los atributos sensibles y conducir a discriminación indirecta.112
- Evaluación e Interpretación Sesgadas: Incluso un algoritmo técnicamente imparcial puede dar lugar a resultados injustos si sus resultados son interpretados o aplicados por humanos con sus propios prejuicios.112
- Ejemplos Reales Impactantes: El sesgo algorítmico se ha documentado en numerosos ámbitos críticos:
- Contratación: El sistema de IA de Amazon que penalizaba currículums con palabras asociadas a mujeres 113; herramientas de análisis facial en entrevistas con posibles sesgos raciales o contra discapacidades.153
- Justicia Penal: El software COMPAS que sobreestimaba el riesgo de reincidencia para acusados negros 153; errores de reconocimiento facial que llevaron a arrestos injustos de personas de color.112
- Salud: Algoritmos que priorizaban a pacientes blancos para programas de atención médica debido a proxies sesgados (costo como indicador de necesidad) 153; menor precisión diagnóstica en grupos subrepresentados en los datos de entrenamiento.112
- Servicios Financieros: Algoritmos de crédito que ofrecían límites más bajos a mujeres (Apple Card) 153 o cobraban tasas más altas a minorías por préstamos hipotecarios.112
- Publicidad Online: Sistemas que mostraban anuncios de empleos de alta remuneración con más frecuencia a hombres que a mujeres.113
- Generación de Imágenes: Modelos que refuerzan estereotipos de género y edad en las imágenes generadas.112
- Estrategias de Mitigación: Abordar el sesgo requiere un esfuerzo multifacético: usar datos de entrenamiento más diversos y representativos, realizar auditorías de sesgo regulares, definir e implementar métricas de equidad, utilizar herramientas de detección de sesgos, promover la transparencia y explicabilidad de los modelos, fomentar la diversidad en los equipos de desarrollo, y establecer marcos éticos y regulatorios sólidos.137
Impacto Socioeconómico: El Futuro del Trabajo y el Desplazamiento Laboral
La creciente capacidad de la IA para automatizar tareas cognitivas plantea profundas preguntas sobre el futuro del trabajo.
- Predicciones de Desplazamiento Laboral: Las estimaciones sobre cuántos empleos podrían ser reemplazados por la IA varían ampliamente, pero muchas son significativas. Cifras como 85 millones de empleos para 2025 (Foro Económico Mundial – WEF) 157 o incluso 300 millones a nivel global (Goldman Sachs) 138 circulan con frecuencia. Los análisis sugieren que las tareas repetitivas, predecibles y basadas en reglas son las más susceptibles a la automatización.157 Esto afecta a roles en entrada de datos, atención al cliente, telemarketing, transporte, manufactura, trabajo de caja, transcripción médica, e incluso asistentes legales y algunos aspectos de la programación.138 Es importante destacar que el riesgo no se limita a trabajos de bajos ingresos; profesiones que requieren alta cualificación también se ven afectadas a medida que la IA mejora en tareas como analizar documentos legales, escribir código o realizar investigación científica.159 Un estudio estimó que el 80% de la fuerza laboral estadounidense podría ver afectado al menos el 10% de sus tareas por LLMs.138
- Predicciones de Creación de Empleo: Por otro lado, también se predice que la IA creará nuevos empleos. El WEF estimó la creación de 69 millones de nuevos roles 138, y se proyecta que el sector de la IA empleará a millones de personas.138 Estos nuevos roles probablemente estarán relacionados con el desarrollo, mantenimiento, supervisión y ética de la IA, así como en áreas donde la IA aumenta las capacidades humanas en lugar de reemplazarlas.157 La IA puede impulsar la productividad y permitir a los trabajadores centrarse en tareas más complejas, creativas o interpersonales.143
- Preocupaciones de los Trabajadores: Existe una ansiedad considerable entre los trabajadores sobre el impacto de la IA. Una parte significativa teme ser reemplazada 138, considera que sus trabajos se volverán obsoletos 138, o se preocupa por no recibir la formación adecuada para adaptarse a las nuevas tecnologías.138 Hay una percepción mayoritaria de que la IA eliminará más empleos de los que creará.138 Estas preocupaciones varían según la edad, el nivel educativo, la raza y la modalidad de trabajo (remoto vs presencial).138 También existe una falta de confianza en la transparencia de las empresas sobre cómo están utilizando la IA.138
- Impacto en la Desigualdad: Existe el riesgo de que la IA agrave la desigualdad económica. Si los aumentos de productividad benefician principalmente a los propietarios de capital y a los trabajadores altamente cualificados que pueden colaborar con la IA, mientras que aquellos cuyos trabajos son automatizados no reciben apoyo adecuado, la brecha podría ampliarse.143 La llamada «brecha de IA» podría reemplazar a la brecha digital.153
- Necesidad de Adaptación y Políticas: Hay un consenso creciente sobre la necesidad crítica de adaptación de la fuerza laboral a través de la recualificación (reskilling) y la mejora de habilidades (upskilling).138 El enfoque debe ponerse en desarrollar habilidades complementarias a la IA, como la creatividad, la inteligencia emocional, el pensamiento crítico y estratégico, y la colaboración humano-máquina.143 También se discuten políticas de apoyo como la Renta Básica Universal (UBI) para mitigar el impacto del desplazamiento laboral.143
En definitiva, los desafíos interconectados de alineamiento, sesgo e impacto laboral requieren una gestión proactiva y coordinada. La escala y opacidad de los modelos de IA modernos magnifican los riesgos: un modelo desalineado podría causar daños masivos, un modelo sesgado podría perpetuar injusticias a escala industrial, y la automatización podría generar disrupciones sociales significativas si no se maneja adecuadamente. Abordar estos problemas exige ir más allá de las soluciones puramente técnicas o puramente sociales, requiriendo una combinación de avances en interpretabilidad y robustez de la IA, marcos éticos y de gobernanza claros y aplicables, y políticas socioeconómicas visionarias que prioricen una transición justa y equitativa hacia un futuro cada vez más influenciado por la inteligencia artificial.
8. Conclusión: Navegando el Futuro de la Inteligencia Artificial
El recorrido de la Inteligencia Artificial, desde sus raíces teóricas en las visiones de Alan Turing y los debates fundacionales de Dartmouth, hasta la actual era de la IA generativa y los grandes modelos de lenguaje, ha sido extraordinario. Hemos sido testigos de un campo que ha navegado a través de ciclos de optimismo febril y «inviernos» de escepticismo, evolucionando desde los primeros programas simbólicos y sistemas expertos basados en reglas, hasta la revolución del aprendizaje automático y, más recientemente, el dominio del Deep Learning impulsado por arquitecturas como los Transformers y los modelos de Difusión.
Hoy, la IA moderna demuestra capacidades asombrosas. Los LLMs como GPT-4o, Claude 3.5 y Llama 4 pueden generar texto coherente, traducir idiomas, escribir código, analizar imágenes e incluso mostrar destellos de razonamiento complejo.85 La IA generativa está transformando industrias enteras, desde la atención médica y las finanzas hasta el marketing, el desarrollo de software y la creación artística.95 El potencial para aumentar la productividad, acelerar el descubrimiento científico y resolver problemas complejos parece inmenso.
Sin embargo, este rápido progreso nos sitúa en una encrucijada crítica. La perspectiva de la Inteligencia Artificial General (AGI) – una IA con capacidades cognitivas a nivel humano – parece acercarse, con predicciones de expertos que, aunque divergentes, se han acortado notablemente en los últimos años.130 La posible llegada de la AGI, y eventualmente de la Superinteligencia (ASI), conlleva promesas transformadoras, pero también riesgos profundos y existenciales si no se gestiona con extrema prudencia.125
Los desafíos son monumentales. El problema del alineamiento – asegurar que la IA avanzada actúe en consonancia con los valores humanos – sigue siendo en gran medida no resuelto y es quizás el desafío técnico y ético más importante de nuestro tiempo.114 El sesgo algorítmico, arraigado en nuestros datos y, a veces, en nuestros propios diseños, amenaza con perpetuar y amplificar las desigualdades sociales a una escala sin precedentes si no se aborda activamente.112 Y el impacto socioeconómico, particularmente en el mercado laboral, requiere una planificación cuidadosa y políticas proactivas para gestionar la transición y evitar una disrupción social generalizada.138 La interconexión de estos desafíos, exacerbada por la escala y la opacidad de los modelos actuales, demanda un enfoque holístico y multidisciplinario.
El futuro de la inteligencia artificial no es un guion ya escrito por la tecnología. Es una narrativa que estamos co-creando activamente a través de las decisiones que tomamos hoy en investigación, desarrollo, inversión, regulación y ética.114 La transición hacia formas de IA más generales y potentes exige una gestión proactiva de los riesgos inherentes y un esfuerzo global concertado para dirigir esta poderosa tecnología hacia el beneficio y el florecimiento de toda la humanidad a largo plazo. La promesa de la IA es inmensa, pero realizarla de manera segura y equitativa requerirá lo mejor de nuestra sabiduría colectiva, nuestra previsión ética y nuestra capacidad de cooperación.
Obras citadas
- The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence, fecha de acceso: abril 23, 2025, https://digitaleconomy.stanford.edu/news/the-turing-trap-the-promise-peril-of-human-like-artificial-intelligence/
- What is the history of artificial intelligence (AI)? – Tableau, fecha de acceso: abril 23, 2025, https://www.tableau.com/data-insights/ai/history
- History of Machine Learning – A Journey through the Timeline – Clickworker, fecha de acceso: abril 23, 2025, https://www.clickworker.com/customer-blog/history-of-machine-learning/
- Alan Turing – National Security Agency, fecha de acceso: abril 23, 2025, https://www.nsa.gov/History/Cryptologic-History/Historical-Figures/Historical-Figures-View/Article/1621551/alan-turing/
- Expert system – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Expert_system
- Complete History of AI | LeanIX, fecha de acceso: abril 23, 2025, https://www.leanix.net/en/wiki/ai-governance/history-of-ai
- Turing test – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Turing_test
- peterasaro.org, fecha de acceso: abril 23, 2025, https://peterasaro.org/writing/Artificial_Intelligence.htm
- AI Winter: The Reality Behind Artificial Intelligence History – AIBC – World, fecha de acceso: abril 23, 2025, https://aibc.world/learn-crypto-hub/ai-winter-history/
- AI Winter – History and Lessons for Today – AI Newsletter, fecha de acceso: abril 23, 2025, https://www.ainewsletter.com/newsletters/ai-winter-phenomenon/
- The First AI Winter (1974–1980) — Making Things Think – Holloway, fecha de acceso: abril 23, 2025, https://www.holloway.com/g/making-things-think/sections/the-first-ai-winter-19741980
- The First Steps of AI: A Look Back | Caseware, fecha de acceso: abril 23, 2025, https://www.caseware.com/us/resources/blog/history-of-ai/
- Alan Turing and artificial intelligence – Upnify, fecha de acceso: abril 23, 2025, https://upnify.com/blog-en/alan-turing-in-the-field-of-computer-science-and-artificial-intelligence.html
- www.techtarget.com, fecha de acceso: abril 23, 2025, https://www.techtarget.com/searchenterpriseai/definition/Turing-test#:~:text=The%20test%20is%20named%20after,human%20responses%20under%20specific%20conditions.
- The Turing Test at 75: Its Legacy and Future Prospects – IEEE Computer Society, fecha de acceso: abril 23, 2025, https://www.computer.org/csdl/magazine/ex/2025/01/10897255/24uGRl1DvJC
- History of artificial intelligence | Dates, Advances, Alan Turing, ELIZA …, fecha de acceso: abril 23, 2025, https://www.britannica.com/science/history-of-artificial-intelligence
- AI history: the Dartmouth Conference – Klondike, fecha de acceso: abril 23, 2025, https://www.klondike.ai/en/ai-history-the-dartmouth-conference/
- www.britannica.com, fecha de acceso: abril 23, 2025, https://www.britannica.com/science/history-of-artificial-intelligence#:~:text=Turing%20gave%20quite%20possibly%20the,he%20introduced%20many%20of%20the
- A short history of Artificial Intelligence – Cow-Shed Startup, fecha de acceso: abril 23, 2025, https://www.cow-shed.com/blog/a-short-history-of-artificial-intelligence
- What is Artificial General Intelligence (AGI)? | IBM, fecha de acceso: abril 23, 2025, https://www.ibm.com/think/topics/artificial-general-intelligence
- What Is the Turing Test? (Definition, Examples, History) | Built In, fecha de acceso: abril 23, 2025, https://builtin.com/artificial-intelligence/turing-test
- The history of Machine Learning | LightsOnData, fecha de acceso: abril 23, 2025, https://www.lightsondata.com/the-history-of-machine-learning/
- Can Machines Think? The Role of the Turing Test in Artificial Intelligence – DEV Community, fecha de acceso: abril 23, 2025, https://dev.to/bikashdaga/can-machines-think-the-role-of-the-turing-test-in-artificial-intelligence-lbc
- Turing test | Definition & Facts | Britannica, fecha de acceso: abril 23, 2025, https://www.britannica.com/technology/Turing-test
- The Turing Test: What Is It, What Can Pass It, and Limitations – Investopedia, fecha de acceso: abril 23, 2025, https://www.investopedia.com/terms/t/turing-test.asp
- Turing Test in Artificial Intelligence | GeeksforGeeks, fecha de acceso: abril 23, 2025, https://www.geeksforgeeks.org/turing-test-artificial-intelligence/
- Turing Test: Applications and Limitations – BotPenguin, fecha de acceso: abril 23, 2025, https://botpenguin.com/glossary/turing-test
- Beyond the imitation game: GPT-4.5, the Turing Test, and what comes next, fecha de acceso: abril 23, 2025, https://dig.watch/updates/beyond-the-imitation-game-gpt-4-5-the-turing-test-and-what-comes-next
- The Turing Test Is Especially Relevant Today | Psychology Today, fecha de acceso: abril 23, 2025, https://www.psychologytoday.com/us/blog/digital-games-digital-worlds/202306/the-turing-test-is-especially-relevant-today
- Artificial Intelligence and the Turing Test – Institute for Citizen-Centred Service -, fecha de acceso: abril 23, 2025, https://iccs-isac.org/assets/uploads/research-repository/Research-report-December-2023-AI-and-Turing-Test.pdf
- The Evaluation of Artificial Intelligence: How Turing Test Was Created and Used, fecha de acceso: abril 23, 2025, https://ddos-guard.net/blog/how-turing-test-was-created-and-used
- Is Turing test still serving as criterion of machine intelligence? – Philosophy Stack Exchange, fecha de acceso: abril 23, 2025, https://philosophy.stackexchange.com/questions/74230/is-turing-test-still-serving-as-criterion-of-machine-intelligence
- Dartmouth workshop – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Dartmouth_workshop
- The 1956 Dartmouth Workshop: The Birthplace of Artificial Intelligence (AI) – Securing.AI, fecha de acceso: abril 23, 2025, https://securing.ai/ai/dartmouth-birth-ai/
- Dartmouth Summer Research Project: The Birth of Artificial Intelligence, fecha de acceso: abril 23, 2025, https://www.historyofdatascience.com/dartmouth-summer-research-project-the-birth-of-artificial-intelligence/
- Dartmouth workshop – Autoblocks AI — Build Safe AI Apps, fecha de acceso: abril 23, 2025, https://www.autoblocks.ai/glossary/dartmouth-workshop
- The historic Dartmouth Conference of 1956 – Setting the stage for AI – RoboticsBiz, fecha de acceso: abril 23, 2025, https://roboticsbiz.com/the-historic-dartmouth-conference-of-1956-setting-the-stage-for-ai/
- The Untold History of AI – AutoGPT, fecha de acceso: abril 23, 2025, https://autogpt.net/the-untold-history-of-ai/
- The 1956 Dartmouth Workshop and its Immediate Consequences …, fecha de acceso: abril 23, 2025, https://computerhistory.org/events/1956-dartmouth-workshop-its-immediate/
- Ray Solomonoff and the Dartmouth Summer Research Project in Artificial Intelligence, 1956, fecha de acceso: abril 23, 2025, https://raysolomonoff.com/dartmouth/dartray.pdf
- The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years – AAAI Publications, fecha de acceso: abril 23, 2025, https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1911/1809
- Logic Theorist – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Logic_Theorist
- Early AI Programs: The Logic Theorist and General Problem Solver – Redress Compliance, fecha de acceso: abril 23, 2025, https://redresscompliance.com/early-ai-programs-the-logic-theorist-and-general-problem-solver/
- General Problem Solver – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/General_Problem_Solver
- General Problem Solver – (Intro to Cognitive Science) – Vocab, Definition, Explanations, fecha de acceso: abril 23, 2025, https://library.fiveable.me/key-terms/introduction-cognitive-science/general-problem-solver
- Means-ends analysis | Description, Characteristics, History, & Applications – Britannica, fecha de acceso: abril 23, 2025, https://www.britannica.com/science/means-ends-analysis
- Newell and Simon’s General Problem Solver (GPS) – (Intro to Cognitive Science) – Fiveable, fecha de acceso: abril 23, 2025, https://library.fiveable.me/key-terms/introduction-cognitive-science/newell-and-simons-general-problem-solver-gps
- Uncovering the Legacy of General Problem Solver (GPS) in AI – Toolify.ai, fecha de acceso: abril 23, 2025, https://www.toolify.ai/ai-news/uncovering-the-legacy-of-general-problem-solver-gps-in-ai-2300114
- Means-ends analysis – Citizendium, fecha de acceso: abril 23, 2025, https://citizendium.org/wiki/Means-ends_analysis
- General Problem Solver | computer model – Britannica, fecha de acceso: abril 23, 2025, https://www.britannica.com/science/General-Problem-Solver
- Notes for Meeting 14 Goal-Driven Problem Solving – Advances in Cognitive Systems, fecha de acceso: abril 23, 2025, http://cogsys.org/courses/langley/aicogsys11/notes/bsearch.pdf
- General Problem Solver (A. Newell & H. Simon) – InstructionalDesign.org, fecha de acceso: abril 23, 2025, https://www.instructionaldesign.org/theories/general-problem-solver/
- Machine learning – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Machine_learning
- AI winter – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/AI_winter
- Expert system | AI, Knowledge Representation & Reasoning – Britannica, fecha de acceso: abril 23, 2025, https://www.britannica.com/technology/expert-system
- AI History: the 1980s and expert systems – Klondike, fecha de acceso: abril 23, 2025, https://www.klondike.ai/en/ai-history-the-1980s-and-expert-systems/
- en.wikipedia.org, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Expert_system#:~:text=Expert%20systems%20were%20among%20the,of%20successful%20artificial%20neural%20networks.
- Timeline of machine learning – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Timeline_of_machine_learning
- A Historical Overview of AI Winter Cycles – Perplexity, fecha de acceso: abril 23, 2025, https://www.perplexity.ai/page/History-of-AI-A8daV1D9Qr2STQ6tgLEOtg
- The leading generative AI companies – IoT Analytics, fecha de acceso: abril 23, 2025, https://iot-analytics.com/leading-generative-ai-companies/
- What is a Transformer Model? | IBM, fecha de acceso: abril 23, 2025, https://www.ibm.com/think/topics/transformer-model
- A Gentle Introduction to Transformer Architecture and Relevance to Generative AI, fecha de acceso: abril 23, 2025, https://community.aws/content/2eD4ehf1d5hatTW1dnVErcJVVPL/a-gentle-intro-to-transformer-and-gen-ai
- LLM Transformer Model Visually Explained – Polo Club of Data Science, fecha de acceso: abril 23, 2025, https://poloclub.github.io/transformer-explainer/
- Transformer (deep learning architecture) – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture)
- What are Transformers in Artificial Intelligence? – AWS, fecha de acceso: abril 23, 2025, https://aws.amazon.com/what-is/transformers-in-artificial-intelligence/
- How Transformers Work: A Detailed Exploration of Transformer Architecture – DataCamp, fecha de acceso: abril 23, 2025, https://www.datacamp.com/tutorial/how-transformers-work
- A Guide to Transformer Architecture | Symbl.ai, fecha de acceso: abril 23, 2025, https://symbl.ai/developers/blog/a-guide-to-transformer-architecture/
- What are transformers in Generative AI? – Pluralsight, fecha de acceso: abril 23, 2025, https://www.pluralsight.com/resources/blog/ai-and-data/what-are-transformers-generative-ai
- Generative AI Models Explained – AltexSoft, fecha de acceso: abril 23, 2025, https://www.altexsoft.com/blog/generative-ai/
- Transformers Explained | Simple Explanation of Transformers – YouTube, fecha de acceso: abril 23, 2025, https://www.youtube.com/watch?v=ZhAz268Hdpw
- What are Diffusion Models? | IBM, fecha de acceso: abril 23, 2025, https://www.ibm.com/think/topics/diffusion-models
- Diffusion Models for Generative Artificial Intelligence: An Introduction for Applied Mathematicians – arXiv, fecha de acceso: abril 23, 2025, https://arxiv.org/html/2312.14977v1
- Introduction to Diffusion Models for Machine Learning | SuperAnnotate, fecha de acceso: abril 23, 2025, https://www.superannotate.com/blog/diffusion-models
- Diffusion Models for Generative AI – Explained – Lucent Innovation, fecha de acceso: abril 23, 2025, https://www.lucentinnovation.com/blogs/it-insights/what-are-diffusion-models-in-generative-ai
- Intro to Generative AI: What Are Diffusion Models? – Edlitera, fecha de acceso: abril 23, 2025, https://www.edlitera.com/blog/posts/diffusion-models
- Understanding Diffusion Models: A Deep Dive into Generative AI – Unite.AI, fecha de acceso: abril 23, 2025, https://www.unite.ai/understanding-diffusion-models-a-deep-dive-into-generative-ai/
- Diffusion model – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Diffusion_model
- Introduction to Diffusion Models for Machine Learning – AssemblyAI, fecha de acceso: abril 23, 2025, https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introduction
- LLM Survey | PDF | Artificial Intelligence – Scribd, fecha de acceso: abril 23, 2025, https://es.scribd.com/document/714457045/Llm-Survey
- (PDF) Large Language Models: A Comprehensive Survey of its …, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/372278221_Large_Language_Models_A_Comprehensive_Survey_of_its_Applications_Challenges_Limitations_and_Future_Prospects
- Explained: Generative AI | MIT News | Massachusetts Institute of Technology, fecha de acceso: abril 23, 2025, https://news.mit.edu/2023/explained-generative-ai-1109
- an extensive evaluation of pddl capabilities – arXiv, fecha de acceso: abril 23, 2025, https://arxiv.org/pdf/2502.20175?
- (PDF) An Extensive Evaluation of PDDL Capabilities in off-the-shelf …, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/389399119_An_Extensive_Evaluation_of_PDDL_Capabilities_in_off-the-shelf_LLMs
- Enhancing geodatabases operability: advanced human-computer …, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/390316878_Enhancing_geodatabases_operability_advanced_human-computer_interaction_through_rag_and_multi-agent_systems
- Claude vs. ChatGPT: What’s the difference? [2025] – Zapier, fecha de acceso: abril 23, 2025, https://zapier.com/blog/claude-vs-chatgpt/
- The Battle of the LLMs: Meta’s Llama 3 vs. GPT-4 vs. Gemini, fecha de acceso: abril 23, 2025, https://capestart.com/resources/blog/the-battle-of-the-llms-llama-3-vs-gpt-4-vs-gemini/
- [AINews] Cursor reaches >1000 tok/s finetuning Llama3-70b for fast file editing – Buttondown, fecha de acceso: abril 23, 2025, https://buttondown.com/ainews/archive/ainews-to-be-named-9199/
- How to choose a model? and the difference? – ChatGPT – OpenAI Developer Community, fecha de acceso: abril 23, 2025, https://community.openai.com/t/how-to-choose-a-model-and-the-difference/1143000
- Claude 3.5 Sonnet vs GPT-4: A programmer’s perspective on AI assistants – Reddit, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/ClaudeAI/comments/1dqj1lg/claude_35_sonnet_vs_gpt4_a_programmers/
- Top 15 Artificial Intelligence (AI) Companies (2025) – Analytics Vidhya, fecha de acceso: abril 23, 2025, https://www.analyticsvidhya.com/blog/2023/05/top-ai-companies/
- Introducing the next generation of Claude \ Anthropic, fecha de acceso: abril 23, 2025, https://www.anthropic.com/news/claude-3-family
- GPT‑4.1 and the Frontier of AI: Capabilities, Improvements, and Comparison to Claude 3, Gemini, Mistral, and LLaMA – Walturn, fecha de acceso: abril 23, 2025, https://www.walturn.com/insights/gpt-4-1-and-the-frontier-of-ai-capabilities-improvements-and-comparison-to-claude-3-gemini-mistral-and-llama
- Which Generative AI is the Best in 2025? GPT-4, Gemini, Claude AI, LLaMA, and More Compared | Pulsebay, fecha de acceso: abril 23, 2025, https://pulsebay.co.nz/post/which-generative-ai-is-the-best-a-deep-dive-into-openai-gemini-claude-ai-meta-and-more/
- Llama 4: Meta’s New AI Model – Evolution, Features, and …, fecha de acceso: abril 23, 2025, https://gpt-trainer.com/blog/llama+4+evolution+features+comparison
- 9 use cases of generative AI in 2025 | Learn how AI transforms …, fecha de acceso: abril 23, 2025, https://lumenalta.com/insights/9-use-cases-of-generative-ai
- Generative AI Use Cases: Top 10 for Enterprises in 2025 – K2view, fecha de acceso: abril 23, 2025, https://www.k2view.com/blog/generative-ai-use-cases/
- Top 14 Generative AI Use Cases | GenAI Use cases – SoluLab, fecha de acceso: abril 23, 2025, https://www.solulab.com/top-generative-ai-use-cases/
- Top 6 Most Popular Generative AI Use Cases to Watch in 2024 – Gramener Blog, fecha de acceso: abril 23, 2025, https://blog.gramener.com/top-generative-ai-use-cases-to-watch-in-2024/amp/
- Top 7 generative AI use cases for businesses in 2025 – Softweb Solutions, fecha de acceso: abril 23, 2025, https://www.softwebsolutions.com/resources/generative-ai-use-cases-2025.html
- Real-world gen AI use cases from the world’s leading organizations | Google Cloud Blog, fecha de acceso: abril 23, 2025, https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
- Exploring Generative AI Use Cases in Healthcare System – Codewave, fecha de acceso: abril 23, 2025, https://codewave.com/insights/generative-ai-healthcare-use-cases/
- Generative AI Use Cases Across Industries: A Strategic 2025 Report – HatchWorks, fecha de acceso: abril 23, 2025, https://hatchworks.com/blog/gen-ai/generative-ai-use-cases/
- 25 Leading AI Companies to Watch in 2025: Transforming Drug Discovery and Precision Medicine – BioPharma APAC, fecha de acceso: abril 23, 2025, https://biopharmaapac.com/analysis/32/5655/25-leading-ai-companies-to-watch-in-2025-transforming-drug-discovery-and-precision-medicine.html
- Generative Artificial Intelligence Use in Healthcare: Opportunities for Clinical Excellence and Administrative Efficiency – PMC, fecha de acceso: abril 23, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11739231/
- Gen AI use cases by type and industry | Deloitte US, fecha de acceso: abril 23, 2025, https://www2.deloitte.com/us/en/pages/consulting/articles/gen-ai-use-cases.html
- Forbes 2025 AI 50 List – Top Artificial Intelligence Companies Ranked, fecha de acceso: abril 23, 2025, https://www.forbes.com/lists/ai50/
- The Top 25 AI Companies of 2025 | The Software Report, fecha de acceso: abril 23, 2025, https://www.thesoftwarereport.com/the-top-25-ai-companies-of-2025/
- Inside the AI Hiring Boom: What Top AI Companies Are Looking For in 2025 – Jobright Blog, fecha de acceso: abril 23, 2025, https://jobright.ai/blog/inside-the-ai-hiring-boom-what-top-ai-companies-are-looking-for-in-2025/?utm_source=rss&utm_medium=rss&utm_campaign=inside-the-ai-hiring-boom-what-top-ai-companies-are-looking-for-in-2025
- The State of the Funding Market for AI Companies: A 2024 – 2025 Outlook | Mintz, fecha de acceso: abril 23, 2025, https://www.mintz.com/insights-center/viewpoints/2166/2025-03-10-state-funding-market-ai-companies-2024-2025-outlook
- Industry Experts’ Predictions for the Future of Tech in 2025 – Tech.co, fecha de acceso: abril 23, 2025, https://tech.co/news/experts-predictions-future-tech-2025
- AI Safety — Effective Thesis – Where Inquiry Meets Impact, fecha de acceso: abril 23, 2025, https://www.effectivethesis.org/ai-safety
- What Is Algorithmic Bias? | IBM, fecha de acceso: abril 23, 2025, https://www.ibm.com/think/topics/algorithmic-bias
- Shedding light on AI bias with real world examples – IBM, fecha de acceso: abril 23, 2025, https://www.ibm.com/think/topics/shedding-light-on-ai-bias-with-real-world-examples
- Getting AIs working toward human goals − study shows how to measure misalignment, fecha de acceso: abril 23, 2025, https://imdiversity.com/featured-article/getting-ais-working-toward-human-goals-%E2%88%92-study-shows-how-to-measure-misalignment/
- Embedded Agents — LessWrong, fecha de acceso: abril 23, 2025, https://www.lesswrong.com/posts/p7x32SEt43ZMC9r7r/embedded-agents
- AI Alignment Requires Understanding How Data Shapes Structure and Generalisation, fecha de acceso: abril 23, 2025, https://arxiv.org/html/2502.05475v1
- AI Alignment Techniques for Learners | Restackio, fecha de acceso: abril 23, 2025, https://www.restack.io/p/ai-alignment-answer-techniques-for-learners-cat-ai
- Artificial general intelligence – Wikipedia, fecha de acceso: abril 23, 2025, https://en.wikipedia.org/wiki/Artificial_general_intelligence
- AGI vs ASI: Understanding the Fundamental Differences Between Artificial General Intelligence and Artificial Superintelligence – Netguru, fecha de acceso: abril 23, 2025, https://www.netguru.com/blog/agi-vs-asi
- The Different Types of AI: From Narrow to General Intelligence – Redress Compliance, fecha de acceso: abril 23, 2025, https://redresscompliance.com/the-different-types-of-ai-from-narrow-to-general-intelligence/
- Defining AGI: What Sets It Apart from Narrow AI – Hyqoo, fecha de acceso: abril 23, 2025, https://hyqoo.com/artificial-intelligence/defining-agi-what-sets-it-apart-from-narrow-ai/
- Narrow AI and General AI: What is the Difference Between Them – KnowledgeNile, fecha de acceso: abril 23, 2025, https://www.knowledgenile.com/blogs/narrow-ai-and-general-ai-what-is-the-difference-between-them
- What Is Artificial General Intelligence (AGI)?, fecha de acceso: abril 23, 2025, https://www.aiplusinfo.com/blog/what-is-artificial-general-intelligence-agi/
- General AI vs Narrow AI – Levity.ai, fecha de acceso: abril 23, 2025, https://levity.ai/blog/general-ai-vs-narrow-ai
- Weak AI vs Strong AI – Rejolut, fecha de acceso: abril 23, 2025, https://rejolut.com/blog/weak-vs-strong-ai/
- Blog | AI vs. AGI: The Main Difference Between … – CodeXTeam, fecha de acceso: abril 23, 2025, https://www.codex.team/blog/ai-vs-agi-the-main-difference-between-artificial-intelligence-and-artificial-general-intelligence
- Artificial General Intelligence (AGI) Security Smart Applications and Sustainable Technologies 9789819732210, 9789819732227 – DOKUMEN.PUB, fecha de acceso: abril 23, 2025, https://dokumen.pub/artificial-general-intelligence-agi-security-smart-applications-and-sustainable-technologies-9789819732210-9789819732227.html
- The Benefits and Risks of Artificial General Intelligence (AGI) – ResearchGate, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/383606277_The_Benefits_and_Risks_of_Artificial_General_Intelligence_AGI
- (PDF) A Survey on Cyber Security Encounters and AGI-Based Solutions – ResearchGate, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/383606462_A_Survey_on_Cyber_Security_Encounters_and_AGI-Based_Solutions
- Article | Progress Towards AGI and ASI: 2024–Present – CloudWalk, fecha de acceso: abril 23, 2025, https://www.cloudwalk.io/ai/progress-towards-agi-and-asi-2024-present
- AI Predicts AGI: Leveraging AGI Forecasting and Peer Review to Explore LLMs’ Complex Reasoning Capabilities – ResearchGate, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/387017548_AI_Predicts_AGI_Leveraging_AGI_Forecasting_and_Peer_Review_to_Explore_LLMs’_Complex_Reasoning_Capabilities
- Best thinking on the transition to AGI/ASI : r/Futurology – Reddit, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/Futurology/comments/17kg7kv/best_thinking_on_the_transition_to_agiasi/
- [The AI Show Episode 143]: ChatGPT Revenue Surge, New AGI Timelines, Amazon’s AI Agent, Claude for Education, Model Context Protocol & LLMs Pass the Turing Test, fecha de acceso: abril 23, 2025, https://www.marketingaiinstitute.com/blog/the-ai-show-episode-143
- AI News: All the latest news and information on AI in real time | 2025 – Aixploria, fecha de acceso: abril 23, 2025, https://www.aixploria.com/en/ai-news/
- Related News Digest – AI Incident Database, fecha de acceso: abril 23, 2025, https://incidentdatabase.ai/apps/newsdigest/
- Trendbird, fecha de acceso: abril 23, 2025, https://www.trendbird.biz/
- Top Challenges of Artificial Intelligence (AI) in 2025 – Applied AI Course, fecha de acceso: abril 23, 2025, https://www.appliedaicourse.com/blog/challenges-of-ai/
- AI Replacing Jobs Statistics and Facts [2024\*] – Electro IQ -, fecha de acceso: abril 23, 2025, https://electroiq.com/stats/ai-replacing-jobs-statistics/
- «Good and Evil AI in Minecraft» – a video from Emergent Garden that …, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/ControlProblem/comments/1iwusw1/good_and_evil_ai_in_minecraft_a_video_from/
- The positive case for a focus on achieving safe AI? – Effective Altruism Forum, fecha de acceso: abril 23, 2025, https://forum.effectivealtruism.org/posts/yNxxtd8HAcEukCb8Z/the-positive-case-for-a-focus-on-achieving-safe-ai
- Concrete Problems in AI Safety – a series of videos by Robert Miles : r/ControlProblem, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/ControlProblem/comments/7ji679/concrete_problems_in_ai_safety_a_series_of_videos/
- All of AI Safety is rotten and delusional : r/ControlProblem – Reddit, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/ControlProblem/comments/1d3sf19/all_of_ai_safety_is_rotten_and_delusional/
- ‘Godfather of AI,’ Geoffrey Hinton’s AI Warning on Job Losses – Odin Blog, fecha de acceso: abril 23, 2025, https://blog.getodin.ai/ai-takes-jobs-odin-offers-hope-geoffrey-hinton/
- Ten Levels of AI Alignment Difficulty, fecha de acceso: abril 23, 2025, https://www.alignmentforum.org/posts/EjgfreeibTXRx9Ham/ten-levels-of-ai-alignment-difficulty
- Blog Archive » OpenAI! – Shtetl-Optimized, fecha de acceso: abril 23, 2025, https://scottaaronson.blog/?p=6484
- How AI alignment techniques differ from traditional reinforcement …, fecha de acceso: abril 23, 2025, https://getcoai.com/news/how-ai-alignment-techniques-differ-from-traditional-reinforcement-learning/
- NeurIPS Poster Principle-Driven Self-Alignment of Language …, fecha de acceso: abril 23, 2025, https://nips.cc/virtual/2023/poster/70433
- An Intitute for Ethical AI – Laura Lungu, fecha de acceso: abril 23, 2025, https://lauralungu.com/blog/ethicalAIinstitute/
- Google DeepMind Highlights the Performance Gap in AI Alignment Techniques, fecha de acceso: abril 23, 2025, https://blog.aitoolhouse.com/google-deepmind-highlights-the-performance-gap-in-ai-alignment-techniques/
- AI Alignment: The Hidden Costs of Trustworthiness | Digital Data, fecha de acceso: abril 23, 2025, https://d3.harvard.edu/ai-alignment-the-hidden-costs-of-trustworthiness/
- Are We Misunderstanding the AI «Alignment Problem»? Shifting from …, fecha de acceso: abril 23, 2025, https://www.reddit.com/r/ControlProblem/comments/1hvs2gu/are_we_misunderstanding_the_ai_alignment_problem/
- Embedded Agents — AI Alignment Forum, fecha de acceso: abril 23, 2025, https://www.alignmentforum.org/posts/p7x32SEt43ZMC9r7r/embedded-agents
- AI Ethical Concerns | Challenges | Solutions | Real Life Examples, fecha de acceso: abril 23, 2025, https://kanerika.com/blogs/ai-ethical-concerns/
- Sailing through the Challenges of Artificial Intelligence in Institutional Research | AIR, fecha de acceso: abril 23, 2025, https://www.airweb.org/article/2025/03/28/sailing-through-the-challenges-of-ai-in-ir
- Did AI Just Cost You a Job? How Algorithmic Bias Is Hurting California Workers, fecha de acceso: abril 23, 2025, https://www.tong-law.com/algorithmic-bias-in-hiring/
- How can we … address dataset scarcity challenges and mitigate algorithmic bias to build better AI healthcare tools? – University of Cambridge, fecha de acceso: abril 23, 2025, https://science.ai.cam.ac.uk/machine-learning/2025/03/31/how-can-we-address-dataset-scarcity-challenges-and-mitigate-algorithmic-bias-to-build-better-ai-healthcare-tools
- The Top 10 Jobs That AI Will Replace in 2025 — AI-Weekly, fecha de acceso: abril 23, 2025, https://ai-weekly.ai/top-10-jobs-that-ai-will-replace-in-2025/
- Artificial Intelligence: AI’s impact on jobs, tech’s touchy topic, ET CIO, fecha de acceso: abril 23, 2025, https://cio.economictimes.indiatimes.com/news/artificial-intelligence/ais-impact-on-jobs-techs-touchy-topic/119630008
- (PDF) AI, Job Displacement, and Support for Workers – ResearchGate, fecha de acceso: abril 23, 2025, https://www.researchgate.net/publication/388827506_AI_Job_Displacement_and_Support_for_Workers
- Tech Workers Brace for More Layoffs as Sam Altman Predicts AI-Driven Job Displacement, fecha de acceso: abril 23, 2025, https://opentools.ai/news/tech-workers-brace-for-more-layoffs-as-sam-altman-predicts-ai-driven-job-displacement
- On AI, society, and what comes next – The Atlantic, fecha de acceso: abril 23, 2025, https://cdn.theatlantic.com/assets/marketing/prod/misc-files/2024/12/AtlanticRethink_Google_Dialogues_2024-1205-mobile_tuYeNom.pdf