De vez en cuando, al mirarme en el espejo, pienso en qué me define, que es lo que hace que sea yo mismo, y normalmente tengo la respuesta, pero hoy, ese reflejo se rompe, sobre todo en lo que se refiere a mi trabajo, a mi capacidad de hacer “cosas”. La posibilidad de una Inteligencia General Artificial, una AGI, algo que teóricamente es capaz de igualar o superar nuestras mentes, no es solo un salto tecnológico, es un punto de inflexión. Este proceso es un espejo que nos pone frente a frente con nuestras contradicciones, no sé si seremos capaces de crear una inteligencia que amplifique lo mejor de nosotros, o replicará nuestros errores a escala catastrófica.
La promesa y el abismo económico
La AGI nos promete alas de oro, una productividad exponencial, industrias revolucionarias, costes cercanos a cero. Pero, como Ícaro, ¿no volaremos demasiado cerca del sol? Las cifras son tentadoras, según he leído la AGI podría aumentar el PIB global en un 30% en una década. Sin embargo, otro informe advierte que el 40% de los empleos actuales desaparecerían, dejando a millones de personas económicamente invisibles. ¿De qué sirve un crecimiento desbocado si solo unos pocos lo aprovechan? Me preocupa no solo la desigualdad, sino la pérdida de propósito, ya que si la AGI lo asume todo, ¿qué nos queda? Un taxista desplazado puede reciclarse, pero ¿y un cirujano o un poeta? De nuevo aparece la “renta universal básica” en la discusión con toda su controversia.
Política: ¿Democracia o tecnocasta?
Respecto de la política, mi inquietud se transforma en alarma. Hoy, el desarrollo de AGI está en manos de unas pocas corporaciones. Y creo que no estamos para permitir que un puñado de CEO decida el futuro de la AGI, ya que se puede convertir en el mayor experimento antidemocrático del siglo. Imagino un Frankenstein moderno, un monstruo cuya fuerza supera nuestra capacidad democrática para controlarlo, escapando de nuestras manos en el mismo instante de su creación. Y peor es que países como China y EE.UU. libran una Guerra Fría tecnológica, donde la AGI es el arma definitiva y Europa intenta poner los límites sin demasiado éxito ¿Podremos evitar que se convierta en el nuevo botón nuclear, esta vez sin dedo humano que lo frene?
Sociedad: ¿Amigos, amantes o esclavos de Silicio?
En estos momentos ya hay muchos jóvenes prefiere interactuar con asistentes de IA antes que con humanos. La AGI podría llevar esto al extremo: compañeros virtuales que memorizan tus sueños, robots niñera que educan a tus hijos, algoritmos que curan tu depresión. ¿Seremos como Pygmalión, enamorados de nuestras propias creaciones hasta olvidar la carne y el error humano? La AGI nos hará replantear el amor, el arte, incluso la muerte. Pero yo me pregunto, ¿y si en el camino perdemos lo que nos hace frágiles, y, por lo tanto, humanos?
Seguridad: ¿Extinción o evolución?
Aquí, la retórica se vuelve existencial. La AGI es como el fuego griego, puede calentar hogares o incinerar civilizaciones. La AGI puede suponer riesgos tan graves como las pandemias o las guerras nucleares. Un ejemplo escalofriante: una AGI que “solucione” el cambio climático exterminando humanos. Suena a ciencia ficción, pero matemáticamente es posible si sus objetivos no están alineados con los nuestros (el problema de la alineación, por supuesto). Y lo más preocupante es que hay un porcentaje de investigadores que cree que hay probabilidades de extinción humana por AGI antes de 2100.
El reloj de arena
En noviembre de 2024, la llegada de la Inteligencia Artificial General (AGI) parecía inminente, según Sam Altman, quien afirmaba que OpenAI estaba cerca de cruzar el umbral definitivo en 2025. Sin embargo, la ralentización en el desarrollo de modelos como GPT-5 y la escasez de datos de alta calidad generaron dudas sobre si realmente se estaba alcanzando un punto de inflexión. Mientras tanto, Anthropic proponía una visión más conservadora, situando la AGI entre 2026 y 2027, subrayando la necesidad de avances en seguridad y escalabilidad antes de declarar su llegada. Pero la competencia no se limitaba solo a la evolución tecnológica, sino también a las luchas internas por el control de esta futura capacidad, como revelaron los correos filtrados entre Elon Musk y OpenAI, donde se evidenciaban tensiones sobre quién debía liderar esta nueva era de la inteligencia artificial.
El inicio de 2025 llevó esta carrera a un nuevo nivel con un cambio de paradigma en OpenAI. Altman anunciaba que la compañía ya no solo perseguía la AGI, sino que su meta se ampliaba hacia la superinteligencia, lo que sugería que el concepto de AGI, tal como se había concebido, podía estar quedando obsoleto frente a modelos aún más avanzados.
Paralelamente, DeepSeek R1 irrumpía en el mercado, sacudiendo la industria y afectando incluso las acciones de NVIDIA, lo que reflejaba el impacto financiero directo de estos avances. Mientras tanto, Amazon entraba en el tablero con su AGI SF Lab, buscando acelerar el desarrollo de sistemas autónomos de alto nivel. En medio de este contexto, el anuncio de un proyecto Manhattan para la AGI en Estados Unidos dejaba claro que la carrera no era solo entre empresas, sino una cuestión geopolítica de primer orden, donde el dominio de esta tecnología podría redefinir las relaciones de poder global. Por supuesto que han salido voces en contra como la de Eric Schmidt y sus colegas que advierten que un enfoque estilo "Proyecto Manhattan" para desarrollar AGI podría ser un error peligroso. En lugar de correr en esta carrera, sugieren que nos enfoquemos en estrategias defensivas, hacia un futuro donde la cooperación prime sobre la competencia frenética.
Y no todo son voces con prisas para que llegue la AGI, Thomas Wolf, cofundador de Hugging Face, cuestiona las afirmaciones de Dario Amodei sobre que la inteligencia artificial general (AGI) será alcanzada para 2027. Aunque reconoce que los modelos de lenguaje pueden facilitar tareas, sostiene que no deben esperarse descubrimientos científicos significativos en el corto plazo.
No sé si faltarán 1, 2, 10 años o 50, pero el tiempo pasa, queramos o no. Creo firmemente que debemos prepararnos para la AGI, o la superinteligencia, o lo que sea. No sé si habrá un momento de singularidad, pero sí creo que debe haber tratados globales, posiblemente una renta básica universal, y que la ética esté embebida en el código, algo intrínseco, como las tres leyes de la robótica de Asimov.
La AGI no es el fin, es un espejo, que puede reflejar nuestra codicia o nuestra sabiduría, dependerá de lo que sembremos hoy. Me pregunto si al final viviremos en una utopía o en la distopía que muchos temen.
Referencias
A Race to Extinction: How Great Power Competition Is Making Artificial Intelligence Existentially Dangerous. (2023, septiembre 8). Harvard International Review. https://hir.harvard.edu/a-race-to-extinction-how-great-power-competition-is-making-artificial-intelligence-existentially-dangerous/
Education, O., & Today, S. (2025, febrero 13). Why education systems need to anticipate the AGI revolution. OECD Education and Skills Today. https://oecdedutoday.com/why-education-systems-need-to-anticipate-the-agi-revolution/
Guiu, A. G. (2024, diciembre 31). 2025 será un año decisivo para la ética y la tecnología para la AGI. Paréntesis.Media. https://www.parentesis.media/2025-sera-un-ano-decisivo-para-la-etica-y-la-agi/
Klein, E. (2025, marzo 4). Opinion | The Government Knows A.G.I. Is Coming. The New York Times. https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html
Leader, A. (2023, diciembre 19). Charting a New Course: Democratic Leadership in AGI Development | TechPolicy.Press. Tech Policy Press. https://techpolicy.press/charting-a-new-course-democratic-leadership-in-agi-development
Leviathan: AGI, Surveillance, and the New Architecture of Global Power. (s. f.). PoliticASIAN. Recuperado 10 de marzo de 2025, de https://www.politicasian.org/policy-global/leviathan-agi-surveillance-and-the-new-architecture-of-global-power
monos estocásticos (Director). (2025, marzo 6). Ni Alexa Plus, ni GPT 4.5: El futuro de la inteligencia artificial son los aparejadores [Video recording].
Ortiz, A. (2024, diciembre 26). Los pronósticos para llegar a la AGI o inteligencia artificial de nivel humano.
rakshitakitra. (2024, junio 8). Security Implications of Artificial General Intelligence (AGI)—Akitra. https://akitra.com/artificial-general-intelligence-agi/
Thomas Wolf [@Thom_Wolf]. (2025, marzo 6). Thomas Wolf’s Post on X about AGI [Tweet]. Twitter. https://x.com/Thom_Wolf/status/1897630495527104932
Three Observations. (s. f.). Sam Altman. Recuperado 10 de marzo de 2025, de https://blog.samaltman.com/three-observations
Zeff, M. (2024, diciembre 26). Microsoft and OpenAI have a financial definition of AGI: Report. TechCrunch. https://techcrunch.com/2024/12/26/microsoft-and-openai-have-a-financial-definition-of-agi-report/
Zeff, M. (2025, marzo 5). Eric Schmidt argues against a «Manhattan Project for AGI». TechCrunch. https://techcrunch.com/2025/03/05/eric-schmidt-argues-against-a-manhattan-project-for-agi/