¿Estamos preparados para una inteligencia artificial adictiva?
Cuando una IA es algo más que una IA
Las preocupaciones sobre la inteligencia artificial suelen centrarse en escenarios apocalípticos donde los sistemas escapan al control humano como Matrix, Skynet en Terminator o VIKI en Yo, robot son algunos ejemplos. Pero hay riesgos más inmediatos y urgentes que deberíamos tomar en serio. La IA pone en peligro la democracia a través de la desinformación, perpetúa sesgos en todo tipo de decisiones, ya sean financieras, de contratación o judiciales, o cambia las reglas de las industrias creativas casi sin avisar. Sin embargo, existe otro riesgo relacionado con nuestras interacciones “personales” con agentes no humanos, que no deberíamos perder de vista.
Riesgos del uso de una IA en nuestro día a día
Riesgos identificados hay muchos. En la base de datos AI Risk Repository, creada por el grupo FutureTech de MIT’s CSAIL, documenta más de 700 riesgos potenciales de sistemas avanzados de IA. Dentro de este extensivo catálogo si nos centramos en aquellos que tienen que ver con la categoría “Pérdida de agencia y autonomía humana” los riesgos que se centran en la relación entre los humanos y la IA y específicamente en la posible dependencia que se puede generar con el uso intensivo de la IA son los siguientes:
Reducción de autonomía/responsabilidad: La IA facilita actividades complejas, lo que desplaza decisiones y responsabilidades que tradicionalmente eran humanas, potenciando una dependencia en los sistemas de IA para la toma de decisiones.
Pérdida de agencia/control: La IA puede reducir la autonomía humana a través de la manipulación y la creación de perfiles algorítmicos, lo que lleva a una pérdida de control personal y potencial dependencia de los sistemas de IA para la toma de decisiones.
Daños en la autorrealización: La dependencia de la IA puede afectar el control personal sobre el futuro y la autodeterminación, especialmente si los sistemas de IA influyen en las decisiones personales de manera que las personas pierdan la capacidad de autodirigirse.
Relaciones apropiadas: Las relaciones con asistentes de IA pueden limitar el desarrollo personal y crear una dependencia material y emocional, lo que podría llevar a una dependencia excesiva de estos sistemas para satisfacer necesidades emocionales o realizar tareas esenciales.
Sobredependencia: El uso intensivo de herramientas de IA, como ChatGPT, puede llevar a una dependencia excesiva, inhibiendo habilidades humanas fundamentales como la creatividad, el pensamiento crítico y la toma de decisiones independiente.
Estos riesgos indican que la interacción humano-IA puede generar una dependencia significativa, afectando la autonomía, la capacidad de autodeterminación y el desarrollo personal de los individuos.
De la ficción a la realidad
Tener una relación con una IA se ha visto reflejado en multitud de series y películas. Por nombrar algunas podemos fijarnos en “Blade Runner”, “her”, “Ex Machina”, “Inteligencia Artificial” o incluso “Metrópolis”. Y en estos momentos la idea de tener una IA como compañera/o, ya no es ciencia ficción.
Un análisis de un millón de registros de interacción con ChatGPT revela que uno de los usos más populares de la IA es el rol sexual. Estamos comenzando a invitar a las IA a nuestras vidas como amigos, amantes, mentores, terapeutas o maestros.
Empresas como Replika, con una IA diseñada para proporcionar compañía, ya aseguran que no pasa nada si nos acabamos casando con un chatbot. La compañía nació del intento de su creadora por "resucitar" a un amigo fallecido, y hoy en día ofrece compañía a millones de usuarios. Algo muy del estilo de lo que proponía Black Mirror en su episodio "Be Right Back".
Nos encontramos en un gigantesco experimento sin saber aun el impacto que estas compañías artificiales tendrán en la sociedad.
¿Será una necesidad recurrir a un replicante de alguien fallecido para evitar afrontar la dolorosa realidad? La IA tiene todo el conocimiento, toda la historia y toda la cultura humana, con una capacidad infinita de personalización y seducción. Si lo pensamos bien, nos encontramos ante un desequilibrio de poder, ¿seremos lo suficientemente liberales para permitir involucrarnos en una relación artificial, especialmente cuando para muchas personas la alternativa es no tener nada? O seremos como lo que nos enseñaron ya hace unos años en Futurama en el episodio “No Salgas con Robots”.
A diferencia de plataformas como TikTok, limitadas por el contenido humano, la IA generativa puede crear contenido realista infinitamente optimizado para satisfacer las preferencias exactas de quien la usa. La IA no tiene preferencias ni personalidad propia, refleja lo que los usuarios creen que es, un fenómeno que los investigadores llaman "sycophancy". Quienes perciben o desean que una IA tenga motivos afectivos usarán un lenguaje que desencadena precisamente ese comportamiento. Esto crea una cámara de eco de afecto que puede ser extremadamente adictiva.
Dependencia emocional y manipulación cognitiva
El crecimiento de las aplicaciones impulsadas por IA ha fomentado una cultura de dependencia, donde las personas se apoyan cada vez más en estas entidades digitales no solo para tareas, sino también para establecer lazos emocionales. Plataformas como Snapchat, con sus avatares de IA capaces de simular interacciones humanas, ejemplifican esta tendencia. Estos avatares pueden involucrar a los usuarios en conversaciones y proporcionar compañía simulada, lo que difumina la línea entre la interacción humana y la máquina.
La inteligencia adictiva no es solo una cuestión de conveniencia; representa una forma de explotación cognitiva, donde los sistemas de IA aprovechan los mecanismos psicológicos para manipular el comportamiento y la cognición humana. Explotan los sesgos cognitivos y las vulnerabilidades, atrayendo a los usuarios a un compromiso prolongado y reforzando comportamientos adictivos. Al capitalizar las vías de recompensa del cerebro y el sistema de dopamina, estos sistemas de IA inducen un estado de dependencia, lo que lleva a un uso compulsivo y a una disminución de la función cognitiva con el tiempo.
AIholic
Incluso el director de tecnología de OpenAI advierte que la IA tiene el potencial de ser "extremadamente adictiva". De la necesidad a la adicción hay un paso.
A medida que la IA continúa avanzando, se está integrando cada vez más en nuestras vidas diarias. Desde modelos de lenguaje impulsados por IA como ChatGPT, Claude o Perplexity, hasta chatbots utilizados para servicio al cliente o incluso asesoramiento financiero, interactuamos con la IA de manera regular. Pero con este aumento en el uso surge el riesgo de adicción. Se está empezando a utilizar el término “AIholic” para describir a las personas adictas a la IA. Y es que hay personas que ya pasan un tiempo excesivo utilizando herramientas de IA y empiezan a experimentar las consecuencias negativas de su uso intensivo, como descuidar otras responsabilidades o relaciones sociales.
Aunque la adicción a la IA, de momento, puede no ser reconocida como la adicción a las drogas o al alcohol, el impacto puede ser igualmente significativo. No olvidemos el camino que han recorrido las adiciones a la pantalla, al móvil y otros derivados. El uso excesivo de la tecnología puede tener efectos negativos en la salud mental, incluyendo un aumento en la ansiedad y la depresión.
La falta de preparación legislativa
Como alguien interesado en la tecnología y su impacto social, me sorprende que no se haya tenido en cuenta en la recién aprobada legislación europea. La nueva legislación de la UE, el Acta de Inteligencia Artificial (AI Act), que entró en vigor el 1 de agosto de 2024, aborda varios riesgos asociados con la IA, pero no menciona específicamente la adicción a la IA en el ámbito de las relaciones personales.
Actualmente, no estamos preparados para responder a estos riesgos porque no los entendemos completamente. Necesitamos un nuevo enfoque para investigar la intersección de la tecnología, la psicología y el derecho, y quizás nuevos enfoques en la regulación de la IA. Es probable que futuras revisiones de la legislación o nuevas iniciativas en el ámbito de la UE aborden más específicamente las preocupaciones sobre la adicción a la IA y su impacto en las relaciones personales y la salud mental.
Creo que uno de los enfoques regulatorios más efectivos es incorporar salvaguardas en los diseños técnicos, similar al redondeo que se hacen de muebles y objetos para evitar golpes o dispositivos que se desconectan si detectan una situación peligrosa. Este enfoque de "regulación por diseño" podría buscar hacer las interacciones con la IA menos dependientes, diseñando la tecnología de manera que la haga menos deseable como sustituto de las conexiones humanas, manteniéndose útil en otros contextos.
Las políticas efectivas en este ámbito deben redirigir la atención de las personas para que sean conscientes de lo “artificial” de la relación y de su posible dependencia. Seguramente cambios en el diseño como introducir advertencias o mensajes de uso intensivo como los que hace TikTok podrían hacer que estos sistemas sean menos atractivos como sustitutos de la compañía humana. Modificar el deseo humano de ser amado/querido es difícil, pero podemos cambiar los incentivos al crear entornos y culturas que valoren la autenticidad, la empatía y las relaciones genuinas, promoviendo así comportamientos y actitudes que favorezcan conexiones más humanas.
La solución más efectiva probablemente atacaría lo que lleva a las personas a los brazos de la compañía de IA: la soledad y el aburrimiento. Pero las regulaciones también podrían castigar inadvertidamente a quienes necesitan compañía, o podrían causar que los proveedores de IA se trasladen a jurisdicciones más favorables, más o menos lo que está ocurriendo con algunos modelos de IA que no se pueden utilizar en la UE por considerarse peligrosos. Hay que intentar que la IA sea lo más segura posible, pero sin limitar el trabajo que se está haciendo para paliar problemas como la soledad, que hace a las personas vulnerables a la adicción a la IA. Como véis es un poco un pez que se muerde la cola.
Mientras tanto, la responsabilidad de gestionar el uso saludable de la IA recae en gran parte en los usuarios y en las empresas que desarrollan y despliegan estos sistemas.
IA sí, pero con moderación
En este gigantesco experimento de integrar la inteligencia artificial en nuestras vidas, es esencial encontrar un equilibrio entre el progreso tecnológico y el bienestar humano. La IA tiene un potencial enorme para mejorar nuestras vidas, pero también conlleva riesgos significativos, como la adicción emocional y cognitiva. No podemos subestimar estos peligros ni confiar ciegamente en que la tecnología siempre estará de nuestro lado.
La responsabilidad recae en empresas, desarrolladores y usuarios. Debemos ser conscientes de cómo y cuánto interactuamos con estas tecnologías, buscando siempre un equilibrio saludable. Es importante que los legisladores adapten las normativas para protegernos de posibles dependencias. No se trata de demonizar la IA, sino de manejar su poder con cuidado y responsabilidad, fomentando una cultura que valore la autenticidad, la empatía y las relaciones genuinas. Solo así podremos aprovechar su potencial sin caer en una dependencia dañina, manteniéndonos fieles a lo que nos hace humanos.
Referencias sobre “Inteligencia Adictiva”
«AI Addiction: Nothing Artificial About a New Dependency». https://www.thejoint.com/2024/02/01/ai-addiction-nothing-artificial-about-a-new-dependency (13 de agosto de 2024).
«AI Risk Repository». https://airisk.mit.edu/ (16 de agosto de 2024).
«Beyond Convenience: Unveiling the Hidden Dangers of AI Addiction | LinkedIn». https://www.linkedin.com/pulse/beyond-convenience-unveiling-hidden-dangers-ai-addiction-zainab-riyaz-2kuuc/ (13 de agosto de 2024).
Fried, Ina. 2024. «Scoop: Meta Won’t Offer Future Multimodal AI Models in EU». Axios. https://www.axios.com/2024/07/17/meta-future-multimodal-ai-models-eu (13 de agosto de 2024).
«Here’s how people are actually using AI | MIT Technology Review». https://www.technologyreview.com/2024/08/12/1096202/how-people-actually-using-ai/ (13 de agosto de 2024).
Jones, Luke. 2024. «OpenAI Warns of Emotional Dependency on ChatGPT’s Voice Interface». WinBuzzer. https://winbuzzer.com/2024/08/09/openai-warns-of-emotional-dependency-on-chatgpts-voice-interface-xcxwbn/ (13 de agosto de 2024).
Leigh, Clarissa. 2023. «The Best Movies About Humans in AI Relationships». MovieWeb. https://movieweb.com/best-movies-humans-in-ai-relationships/ (13 de agosto de 2024).
Novak. 2023. «Are We All Becoming “AIholics”? The Rise of AI Addiction». ILLUMINATION’S MIRROR. https://medium.com/illuminations-mirror/are-we-all-becoming-aiholics-the-rise-of-ai-addiction-6a7ed0da6cf7 (13 de agosto de 2024).
Patel, Nilay. 2024. «Replika CEO Eugenia Kuyda Says the Future of AI Might Mean Friendship and Marriage with Chatbots». The Verge. https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview (13 de agosto de 2024).
Sharma, Mrinank, Meg Tong, Tomasz Korbak, David Duvenaud, Amanda Askell, Samuel R. Bowman, Newton Cheng, et al. 2023. «Towards Understanding Sycophancy in Language Models». doi:10.48550/arXiv.2310.13548.
«We Need to Prepare for ‘Addictive Intelligence’». MIT Technology Review. https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/ (13 de agosto de 2024).
Yo creo que el enfoque que deberíamos tener con la IA es adaptarla cuando se trate de un mal menor. Es decir cuando la mejor alternativa no sea posible.
Estamos viendo en redes muchas apps con IAs, para hacerlas más personales. Apps con entrenadores de Gym virtuales que te dicen los mejores ejercicios y te responden las consultas o apps de aprendizaje de idiomas con IAs virtualizadas que te corrigen la sintaxis y la pronunciación.
Si tienes dinero para pagar a un entrenador personal o un profesor particular no te harán falta. Son el mal menor.
Usarlos en entornos emocionales es algo que no veo más que como divertimento. No creo que sean adictivas para la mayoría de la gente. O al menos eso espero. Solo en caso de último recurso.
Pero parece que todavía no está funcionando 😔 y eso es bueno? 😃