Moral Codes: Cuando la IA nos convierte en extras de nuestra propia película
Y cómo Alan F. Blackwell quiere cambiar el guion
Imagina que estás usando una app de esas que te prometen organizar tu vida. Te pide que subas tus objetivos, tus horarios, tus sueños (por pedir que no quede). Un mes después, te das cuenta de que en vez de ayudarte a vivir, te está diciendo hasta cómo respirar. Y de repente, pasas a ser un personaje secundario en tu propia historia. Eso, en esencia, es lo que Alan F. Blackwell denuncia en Moral Codes. No es un libro sobre el apocalipsis de los robots. Es una llamada de atención sobre cómo hemos normalizado que la tecnología nos dirija sin darnos cuenta de ello.
Lo estuve ojeando hace un par de fines de semana aprovechando que la borrasca Laurence estaba haciendo de las suyas y no tenía demasiadas opciones en la calle. Entre cafés fríos y la sensación de que mi teléfono me estaba espiando (probablemente lo estaba). Tengo que decir que Blackwell escribe como ese profesor que te habla en el pasillo después de clase, sin postureo. Te suelta verdades como la siguiente frase.
"La IA no nos está haciendo más listos. Nos está entrenando para ser más predecibles".
Y ahí es cuando te quedas mirando la pantalla, pensando en todas esas veces que TikTok te hipnotizó con el vídeo de turno en vez de dejarte elegir lo que quieres ver.
La trampa del "ahorrar tiempo" (o por qué odio a mi termostato)
Blackwell divide la IA en dos. La funcional (como el termostato que regula la temperatura sin drama) y la imitativa (los chatbots que fingen ser humanos mientras tú finges que no notas el guion). El problema no está en la primera —benditos sean los GPS que evitan que me pierda—, sino en la segunda. Esa que quiere reemplazar conversaciones reales con respuestas prefabricadas, como si la vida fuera un menú de opciones limitadas.
¿Cuántas veces hemos maldecido a Siri o a Alexa por no entender una pregunta sencilla? Es como si la tecnología, en su obsesión por imitarnos, hubiera olvidado algo básico, que es preguntar.
"En lugar de esperar a que un algoritmo adivine lo que quiero observándome, ¿por qué no simplemente decirle lo que quiero?".
Ahí está el meollo. Muchas herramientas de IA no están diseñadas para amplificar nuestra capacidad de decidir, sino para suplantarla. Y no es paranoia. Piensa en los algoritmos de Spotify que te sugieren canciones nuevas, sí, pero casi siempre dentro del mismo marco de referencias, como si la exploración tuviera bordes invisibles. No es que no descubras música, es que descubres lo que el sistema cree que encaja contigo, ajustándote cada vez más a un perfil predecible. Blackwell lo dice bien claro.
“Las empresas afirman que la IA nos hará más inteligentes, pero sus modelos de negocio dependen de hacer que los usuarios sean más predecibles’.”
El Test de Turing al revés
Una de las cosas que más me ha gustado del libro es su cambio de perspectiva respecto del Test de Turing. Todos conocemos la idea, ¿no? Si una máquina puede engañarnos para que creamos que es humana, ha pasado la prueba. Pero Blackwell le da la vuelta a la tortilla.
"La manera fácil de ganar el Test de Turing es hacer que los humanos sean cada vez más estúpidos".
No es una exageración. Piensa en los captcha. Antes tenías que identificar letras distorsionadas. Ahora te piden que hagas clic en todas las imágenes con semáforos. ¿Adivina qué? Estás entrenando a una IA para que reconozca semáforos, gratis. Nos hemos convertido en obreros de los datos sin contrato, y lo peor es que ni siquiera nos pagan, nos dan acceso a un servicio que, irónicamente, nos hace más dependientes.
"Software design is a moral problem"
No habla solo de ética abstracta, sino de líneas de código concretas.
"El funcionamiento real de un sistema de software está determinado en última instancia por su código fuente, independientemente de lo que diga la legislación"
En otras palabras, da igual cuántas leyes se aprueben sobre privacidad o transparencia. Si el código de una red social está diseñado para maximizar el tiempo que pasas en ella (aunque eso signifique alimentar tu ansiedad), seguirá haciéndolo. Es como tener un chef que promete comida saludable, pero usa manteca en cada plato. La culpa no es del comensal, sino de la receta.
Un ejemplo personal y reciente. Hace poco probé una app de productividad (ya sabéis que me encanta cacharrear) que bloqueaba "distracciones". Al tercer día, me di cuenta de que me impedía acceder a mi propio correo profesional fuera del horario "programado". En vez de ayudarme a gestionar mi tiempo, la app decidió por mí cuándo debía ser productivo. ¿Sabéis qué? La desinstalé.
La falacia de la superinteligencia (y por qué parece un cuento de hadas para adultos)
Blackwell desmonta con sarcasmo el mito de que la IA alcanzará una conciencia propia.
"Es tan erróneo como argumentar que si hacemos que los aviones vuelen lo suficientemente rápido, uno terminará poniendo un huevo".
La industria tecnológica nos vende la idea de una IA todopoderosa para evadir preguntas incómodas respecto del presente. ¿Por qué los algoritmos de contratación discriminan a mujeres? ¿Cómo es posible que un coche autónomo priorice salvar a un ejecutivo antes que a un ciclista? Y mientras debatimos sobre robots asesinos, los sesgos se siguen codificando en silencio.
Cómo escapar de Matrix (sin necesidad de pastillas rojas)
La solución de Blackwell no es destruir la IA, sino rediseñarla bajo códigos morales. Algunas ideas prácticas que me llevo:
Preguntar "¿quién gana si obedezco?" Cada vez que una herramienta te pida datos o tiempo, cuestiona si el beneficio es mutuo o solo para la empresa.
Exigir herramientas editables. ¿Una app de calendarios que no te deja reorganizar prioridades? Es una jaula, no un aliado.
Usar la IA como lápiz, no como autor. Ejemplo: en vez de que ChatGPT escriba tu artículo, pídele que critique tus ideas.
No hace falta ser desarrollador para aplicarlo. Cada vez que eliges una app sobre otra, votas por un modelo de sociedad.
"Programar no es solo ingeniería, es la arquitectura de la moralidad digital".
Por qué vale la pena leerlo
El libro no es perfecto. A veces siento que subestima el potencial de la IA imitativa en campos como la salud mental (hay chatbots que sí ayudan a personas con ansiedad). Y aunque critica con dureza a las BigTech, se queda corto en alternativas políticas concretas.
Pero eso no le quita valor. Al contrario, es una invitación a seguir pensando. Como cuando terminas una conversación intensa en un bar y te quedas con ganas de más.
Para cerrar
Ojear Moral Codes me recuerda a cuando intento hacer una receta nueva, intento seguirla al pie de la letra, hasta que me atrevo a modificar ingredientes. Descubres que el sabor no está en la obediencia, sino en la libertad de equivocarse.
La IA debería ser eso, una cocina donde los algoritmos sean ingredientes alternativos, no chefs autoritarios. Como dice Blackwell, se trata de herramientas. Pero si delegamos en ellas más de lo que deberíamos, terminamos perdiendo el control de nuestras propias decisiones.
¿Vas a dejar que el próximo algoritmo decida por ti? O mejor aún, ¿qué vas a hacer hoy para que eso no pase?
PD: Si alguien quiere debatir esto, le invito a un café. Virtual sí hace falta, pero sin algoritmos decidiendo por nosotros. ☕
La filòsofa Marina Garcés a la pàgina 55 del seu llibre Nova il·lustració radical (2017, Nous quaderns Anagrama, 5) escriu el següent:
«En la utopia solucionista ja no és tracta d'augmentar la potència productiva per ampliar les capacitats humanes. Del que es és tracta és de delegar la intel·ligència mateixa, en un gest de pessimisme antropològic sense precedents. Que ho decideixin elles, les màquines, que nosaltres, els humans, no només ens hem fet petits, com afirmava Günther Anders, sinó que sempre acabem provocant problemes. La intel·ligència artificial, entesa així, és una intel·ligència delegada. El que és preocupant no és l'artificialitat, és a dir, que l'exerceixi una màquina, un bacteri, una partícula o el dispositiu que sigui. El que és preocupant és que pretén ser aproblematica i, per tant, irreflexiva. Pot aprendre i corregir-se a si mateixa acumulant dades. Autoeducació significa, en aquest context, autocorrecció. Però no pot examinar-se a si mateixa ni sotmetre's a un judici equitatiu. Perquè és aproblematica, és acritica. Humans estúpids en un món intel·ligent: és la utopia perfecta.»