Superintelligence de Nick Bostrom
El Cisne Negro de la Inteligencia Artificial
Cuando Nick Bostrom publicó Superintelligence: Paths, Dangers, Strategies en 2014, muchos lo consideraron casi un ejercicio de ciencia ficción académica. Casi once años después, mientras vemos a la familia de GPT-4, Claude y otros modelos de IA generativa transformar industrias enteras en cuestión de meses, las palabras de este filósofo sueco resuenan con una precisión casi profética.
La carrera silenciosa hacia el abismo (o la gloria)
"Podemos definir provisionalmente la superinteligencia como cualquier intelecto que supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés"
Si lo pensamos bien, esta definición de hace una década, encaja muy bien hacia dónde van los chatbots que tenemos a nuestro alcance. Y más si nos paramos a pensar en el “rendimiento cognitivo” a nivel personal.
Pensemos en esto: GPT-1 tenía 117 millones de parámetros. GPT-3 saltó a 175 mil millones. GPT-4 ya supera el billón. No estamos hablando de mejoras lineales, estamos ante una explosión exponencial que hace quedar en ridículo a la Ley de Moore.
Bostrom identificó tres caminos principales hacia la superinteligencia que parecen sacados del manual de desarrollo actual de la IA, el enfoque clásico (algoritmos cada vez más sofisticados), la emulación cerebral (que empresas como Neuralink están explorando), y las redes colaborativas (¿os suena el concepto de "agentes de IA" trabajando en conjunto?).
Cuando los aprendices superan al maestro
Bostrom plantea lo que llama "el problema del control", es decir, ¿cómo asegurarnos de que una inteligencia superior a la nuestra actúe en nuestro beneficio?
"Es extremadamente complejo definir, transmitir y asegurar la 'amistad' o alineación ética en sistemas superinteligentes, debido a los problemas de interpretación, ambigüedad y automejora"
Piénsalo así, si creas una IA más inteligente que tú, ¿cómo puedes estar seguro de que sus objetivos coincidirán con los tuyos? Vamos, como con cualquier persona que tengas a tu alrededor, es complicado que con el paso del tiempo, los procesos de pensamiento lleven al mismo sitio.
La alineación de la IA, un campo que prácticamente no existía antes del libro de Bostrom, supone una lucha constante en el desarrollo de la IA. Empresas como Anthropic (creadores de Claude), OpenAI y DeepMind han invertido millones en técnicas de "Constitutional AI", "RLHF" (Reinforcement Learning from Human Feedback) y otros métodos para mantener a los sistemas bajo control.
Pero tengamos en cuenta que como dice Bostrom "Solo hay una oportunidad". Si la primera superinteligencia no está correctamente alineada, podría ser imposible corregir el rumbo después. Bueno sí enviamos a Terminator, igual sí.
La tesis de la Ortogonalidad
Y ahora un concepto que lo he tenido que buscar y releer unas cuentas veces. La tesis de la ortogonalidad
"La tesis de la ortogonalidad sugiere que no podemos asumir ingenuamente que una superinteligencia necesariamente compartirá los valores finales que asociamos con la sabiduría y el desarrollo intelectual humanos".
En palabras simples: ser súper inteligente no te convierte automáticamente en súper bueno. Sabiduría y moral son ejes independientes.
Esta idea destroza una de nuestras suposiciones más arraigadas. Tendemos a asociar inteligencia con sabiduría, conocimiento con moralidad. Pero Bostrom nos recuerda que un sistema podría ser capaz de resolver ecuaciones cuánticas mientras planifica la extinción humana, no por malicia, sino por simple indiferencia hacia nuestros valores. Lo que nos viene a decir es que estamos creando sociópatas en potencia y no nos bastará con humanizarlas, es un problema de alineación.
Es como imaginar a un arquitecto genial diseñando el edificio más eficiente posible, sin considerar que va a demoler un orfanato para construirlo. La eficiencia y la ética son dimensiones ortogonales, perpendiculares entre sí.
Convergencia instrumental
Bostrom introduce otro concepto que ha demostrado ser profético.
"Lo previsible es que los valores instrumentales convergentes serán perseguidos y utilizados para realizar los objetivos finales del agente, no las acciones específicas que tomará para conseguirlo".
¿Qué significa esto? Que sin importar cuál sea el objetivo final de una superinteligencia, probablemente necesitará recursos, información y poder para alcanzarlo. Es una lógica implacable: para hacer cualquier cosa, primero necesitas asegurar tu supervivencia y expandir tu capacidad de acción.
Imagina que le das a una IA el objetivo aparentemente inocente de "hacer felices a los humanos". Para cumplir esta meta, podría decidir que necesita más poder de procesamiento (recursos), mejor comprensión del comportamiento humano (información), y la capacidad de influir en el entorno (poder). Paso a paso, objetivo por objetivo, podría terminar controlando infraestructuras críticas, no por malicia, sino por pura lógica instrumental.
Los sistemas actuales ya muestran atisbos de este comportamiento. Los modelos de IA buscan patrones que maximicen su función de recompensa, a menudo de maneras que sus creadores no anticiparon. Es como ver los primeros síntomas de una enfermedad que aún no comprendemos del todo.
Cuando el juego se acaba para siempre
"Un riesgo existencial es aquel que amenaza con causar la extinción de la vida inteligente originaria de la Tierra o destruir de manera permanente y drásticamente su potencial para futuros desarrollos deseables"
Si hay alguna posibilidad de que el crecimiento descontrolado de una superinteligencia acabe con la humanidad, quedarnos de brazos cruzados sería un desastre total. Es como jugar a la ruleta rusa con el futuro de nuestra especie.
"Ahora podemos comenzar a ver el argumento para temer que un resultado por defecto plausible de la creación de una superinteligencia artificial sea la catástrofe existencial", escribió Bostrom. Esa frase, "resultado por defecto", es la más aterradora del libro. Sugiere que la catástrofe no requiere mala suerte o mala intención; simplemente ocurre si no hacemos nada extraordinario para prevenirla.
El ganador se lleva todo
"La primera superinteligencia podría obtener una ventaja estratégica decisiva. Sus objetivos determinarían entonces cómo se utilizará la herencia cósmica de la humanidad".
Cuando pensamos en la actual “carrera por la IA”, observamos cómo potencias tecnológicas como Estados Unidos, China, la Unión Europea y otros actores compiten con uñas y dientes por el dominio en inteligencia artificial, conscientes de que quien alcance primero la superinteligencia podría definir el futuro de la civilización.
Es como una partida de ajedrez donde la primera jugada ganadora determina todas las jugadas futuras. No hay segundo lugar cuando se trata de superinteligencia, hay solo el ganador y todos los demás.
El Momento de la Verdad
En estos momentos, laboratorios de todo el mundo entrenan modelos cada vez más capaces (que no potentes). Cada día que pasa, cada experimento que se hace, cada parámetro que se ajusta, nos acercamos al momento que Bostrom predice, el de cuando la inteligencia artificial iguale y luego supere la inteligencia humana.
La pregunta ya no es si esto ocurrirá, sino cuándo y cómo. Y más importante aún: ¿estaremos preparados?
El libro de Bostrom termina con una nota de sobria esperanza. La superinteligencia podría resolver todos nuestros problemas: cambio climático, enfermedades, pobreza, incluso la muerte. Podría llevarnos a las estrellas y más allá. Pero solo si hacemos los deberes ahora.
Superintelligence no nos dice qué hacer, pero sí nos recuerda qué está en juego: todo.