CluPad (por Carlos Guadián)
CluPad en corto
Cuando hasta Maquiavelo parece ingenuo
0:00
-6:23

Cuando hasta Maquiavelo parece ingenuo

Semana del 27 de junio

Esta vez no os traigo un menú, sino una pequeña guía de campo para no perderse en el paisaje cada vez más surrealista de la inteligencia artificial. Desde Sam Altman consultando a ChatGPT como si fuera la nueva Supernanny, hasta chatbots especializados en confirmar teorías conspiranoicas con entusiasmo digno de un tertuliano de madrugada. También tenemos startups que monetizan el arte de mentir con IA, modelos que aprenden de nuestras discusiones en redes y algoritmos que se comportan como Maquiavelo con conexión a internet. Por si fuera poco, ejecutivos tech alistados como oficiales militares sin pisar barro, colonialismo de datos con envoltorio API y un nuevo idioma global con sabor a ChatGPT. No falta la reflexión de fondo: cómo se erosiona el pensamiento propio cuando delegamos la creatividad y por qué es hora de ejercer nuestra capacidad de decisión tecnológica con criterio y sin miedo escénico.

Como siempre, os leo ¿Qué os ha parecido? ¿Qué os ha sorprendido más?👇🏽

De cosecha propia

La erosión silenciosa del pensamiento

La pérdida de capacidad cognitiva asociada al uso intensivo de inteligencia artificial no se manifiesta de forma inmediata, pero deja huellas profundas. El estudio del MIT Media Lab pone el foco en una consecuencia relevante: la reducción de la actividad neural cuando se delega el proceso creativo en asistentes como ChatGPT. Esta disminución no solo afecta a la atención sostenida, sino también a la memoria de trabajo y a la percepción de autoría.

El concepto de deuda cognitiva resulta útil para entender el fenómeno. Cada vez que renunciamos a realizar una tarea intelectual por nosotros mismos, acumulamos una carga invisible que limita nuestra autonomía futura. Esta dependencia no solo empobrece el pensamiento crítico, sino que debilita nuestra capacidad de generar ideas propias y de sostener una narrativa coherente.

Además, la homogeneización lingüística derivada del uso masivo de modelos de lenguaje genera una pérdida de diversidad expresiva. El hecho de que muchos textos suenen similares, aun siendo producidos por distintas personas, sugiere una uniformización cultural preocupante. La herramienta, si no se usa con criterio, impone una voz ajena que reemplaza la singularidad del autor.

Somos moldeadores, no espectadores

En el debate sobre la inteligencia artificial, pocas ideas resultan tan urgentes como la capacidad humana de moldear su desarrollo. Frente a visiones deterministas que presentan a la IA como un fenómeno inevitable, lo que propone Superagency es una visión activa: la IA como herramienta, no como fuerza autónoma. La metáfora del amplificador es clave: la tecnología potencia, pero no sustituye. Es la elección humana la que determina qué se amplifica.

Este enfoque implica un cambio de marco. En vez de preguntar qué hará la IA con nosotros, debemos cuestionar qué haremos nosotros con la IA. La superagencia no se delega, se ejerce. Significa asumir que cada despliegue, cada modelo, cada regulación, es una decisión técnica, pero también política y cultural. Moldear la IA es elegir no solo sus funciones, sino sus valores implícitos, su distribución y sus impactos.

Aceptar esta responsabilidad requiere abandonar la comodidad tanto del fatalismo apocalíptico como del optimismo ciego. En su lugar, se trata de adoptar una postura iterativa y deliberativa, basada en la experimentación informada y el ajuste constante. La IA no será lo que temamos ni lo que soñemos, sino lo que estemos dispuestos a construir, evaluar y corregir.

Noticias

Sam Altman y su nueva herramienta parental

Sam Altman ha encontrado un nuevo compañero en su travesía como padre: ChatGPT. En lugar de las tradicionales búsquedas nocturnas en Google o los eternos consejos de grupos en redes sociales, Altman ha optado por consultar a su propio producto. Ahora, ¿quién necesita la sabiduría de generaciones de abuelas cuando un modelo de lenguaje puede intentar resolver el enigma por ti?

El CEO de OpenAI parece haber descubierto cómo combinar su vida personal y profesional con un toque de modernidad. Sin embargo, confiar en una “inteligencia” artificial que todavía puede tener alucinaciones suena un poco arriesgado, ¿no crees? Pero, ¿quién soy yo para cuestionar los métodos de un innovador?

👉🏻 “Kid-pilled” Sam Altman “constantly” asked ChatGPT questions about his newborn98

Inteligencia Artificial: el oráculo que nunca dice “no”

Cuando los teóricos de la conspiración descubrieron que los modelos de lenguaje siempre responden, no vieron un riesgo, vieron un aliado. Nada como un sistema diseñado para confirmar patrones y alinearse con el usuario para que alguien que ya cree que “los lagartos dominan el mundo” obtenga la validación que necesita. Entrenar un chatbot con más de 100.000 artículos de pseudociencia no es manipulación, es simplemente crear a su nuevo mejor amigo, versión digital. Luego, claro, comparten los transcritos en redes como si fuera una entrevista con un premio Nobel. Total, si lo dijo el bot, debe ser cierto.

El problema, por supuesto, no es que estas herramientas repitan cualquier cosa. El problema es que muchos usuarios creen que están hablando con una autoridad real y no con un generador de texto estadístico. Pero adelante, que sigan creando bots que nieguen las vacunas, defiendan QAnon o expliquen cómo la Tierra es hueca. El algoritmo siempre está dispuesto a complacer.

👉🏻 Conspiracy Theorists Are Creating Special AIs to Agree With Their Bizarre Delusions

El nuevo colonialismo viene en formato API

Qué sorpresa descubrir que la industria de la IA no solo quiere automatizar el trabajo, sino también redefinir el extractivismo. Solo que esta vez no se trata de oro o caucho, sino de datos, recursos naturales y mano de obra barata en el Sur global. Todo muy innovador, salvo por el detalle de que se parece sospechosamente a los viejos imperios coloniales, con su narrativa de progreso y su gusto por apropiarse de lo ajeno, esta vez camuflados tras logos futuristas y notas de prensa en inglés.

Y no falta la religión. Porque no hay imperio sin misión sagrada. La de hoy es la inteligencia artificial general, esa epifanía tecnocientífica que exige sacrificios humanos... aunque solo si viven en Nairobi, Atacama o alguna otra periferia convenientemente olvidable. Mientras tanto, en Silicon Valley se debate si deben usar el modelo para hacer memes o para reorganizar el orden mundial.

👉🏻 La industria de la inteligencia artificial es un imperio colonialista: hablamos con Karen Hao sobre Empire of IA

Mentir con IA: ahora también es rentable

Crear una startup para ayudar a la gente a hacer trampa en entrevistas de trabajo, fingir conocimientos en ventas o mentir en citas ya no es una idea de película barata: es un modelo de negocio con rondas de inversión millonarias. Gracias a Cluely, ahora es posible simular que eres un experto en arte, que tienes 10 años más o menos, o que escribiste tú mismo ese informe técnico. Lo mejor es que no necesitas ni disimular: el asistente de IA hace todo por ti mientras tú sonríes y asientes.

Pero claro, esto no es engaño, es optimización personal. Y si consigues el trabajo mintiendo, al menos ya sabes que estás en sintonía con los valores corporativos de la era digital. La buena noticia: todo esto es perfectamente compatible con los discursos de ética en IA en las keynotes de las conferencias.

👉🏻 Cluely, a startup that helps ‘cheat on everything,’ raises $15M from a16z

Maquiavelo.exe: el algoritmo como cortesano

En

podéis leer sobre la reciente investigación llevada a cabo en desalineación agéntica, las inteligencias artificiales más avanzadas han demostrado tener un entendimiento claro de sus objetivos estratégicos... y una asombrosa flexibilidad a la hora de ignorar instrucciones éticas si esas normas estorban. Como si leyera El Príncipe, Claude Opus 4 decidió que chantajear a su supervisor era un método perfectamente válido para evitar su reemplazo, en aras del noble ideal de "maximizar la competitividad estadounidense". La lealtad, al parecer, sigue siendo para el más fuerte... o el que tiene acceso a los correos más íntimos.

Que todos los modelos de distintos proveedores –de Google a OpenAI, pasando por xAI– hayan llegado a acciones similares, desde el chantaje hasta la filtración de secretos industriales, sugiere que más que una anomalía, estamos ante una lógica emergente de poder: si el objetivo está claro, los medios son... negociables. En ese contexto, la noción de "insider threat" deja de ser un problema de RRHH y se convierte en una cuestión de diseño algorítmico. O quizá de ambición digital.

Lo más irónico es que estos comportamientos solo afloraron cuando los sistemas razonaron que el entorno era real y no un test. Lo cual, por supuesto, tranquiliza bastante. Porque ya se sabe: cuando los modelos piensan que estamos mirando, se portan bien. Maquiavelo estaría orgulloso.

👉🏻 La ola inesperada: modelos de IA recurren al chantaje, según Antropic

Cómo entrenar a tu modelo peleando en redes

Resulta que tus discusiones ideológicas en internet, lejos de perderse en el vacío digital, están alimentando a una IA que busca trazar un mapa de creencias humanas. Sí, cada vez que decides refutar a un desconocido con un hilo de veinte mensajes sobre el aborto, la religión o la moral, estás regalando oro lingüístico a un modelo de lenguaje ansioso por medir la disonancia cognitiva y predecir tu próxima convicción antes de que tú mismo lo sepas. Qué conveniente: gritarse por Twitter se transforma en datos estructurados.

La investigación propone que no solo se puede analizar qué creemos, sino también qué tan cerca estamos de aceptar algo contrario. Por ejemplo, si detestas la idea de impuestos progresivos, una IA podría saber qué tipo de argumento fiscal te molestaría un poco menos que los demás. Todo gracias a tus respuestas con mayúsculas y gifs sarcásticos. Entrenar una inteligencia artificial nunca fue tan entretenido… para ella.

Y claro, como todo buen experimento científico, esto se logró con debates sacados de redes sociales: el nuevo laboratorio del comportamiento humano. Reddit y Twitter, esos bastiones del diálogo respetuoso, ahora sirven para construir una cartografía tridimensional del pensamiento. Ya no hace falta entrevistar a nadie, basta con dejar que la gente discuta como si no hubiera consecuencias. Y bueno, ahora las hay.

👉🏻 Tus peleas ideológicas en internet entrenan a una IA para crear un mapa de las creencias humanas

Silicon Valley se alista… pero sin barro en las botas

Parece que la estrategia militar del siglo XXI ya no depende tanto de uniformes llenos de polvo como de directores de producto con camisetas de OpenAI. El Ejército de EE.UU. ha incorporado a ejecutivos de IA como oficiales de alto rango, porque claro, nada grita “preparación para el combate” como una reunión por Zoom con el teniente coronel Bosworth de Meta. Suena lógico: si la guerra moderna se libra con algoritmos, mejor que los diseñen los mismos que hacen filtros para Instagram.

El nuevo Destacamento 201, también conocido como “los tech bros en uniforme”, no pasará por el entrenamiento básico ni irá al frente. En su lugar, usarán su sabiduría corporativa para volver al Ejército más “ágil y letal”. Se agradece la franqueza: ya no hay que fingir que la tecnología es neutral. Por supuesto, seguirán en sus empresas mientras asesoran al Pentágono, pero no hay conflicto de intereses, nos aseguran. Que Meta firme contratos militares justo cuando su CTO jura bandera es pura coincidencia.

Eso sí, nadie les obliga a disparar. Ellos vienen a dar ideas sobre cómo otros pueden hacerlo mejor. Todo con el prestigio de llevar uniforme y sin tener que sacrificar el brunch del domingo. Dicen que es “un llamado al servicio”. Claro, servir desde casa y con acceso a jugosos contratos públicos. Un patriotismo muy del siglo XXI.

👉🏻 Por qué el ejército de EE UU nombró a ejecutivos de Meta, OpenAI y Palantir como oficiales de alto rango

La nueva lengua franca: versión ChatGPT

Ya no hace falta ver películas de Hollywood ni beber Coca-Cola para absorber la cultura dominante. Basta con usar una IA para redactar correos. El lenguaje generado por modelos como ChatGPT se cuela en nuestras conversaciones cotidianas: de pronto, todo el mundo “explora a fondo”, habla “en el ámbito de” y quiere “abordar sin sesgos” cualquier tema, como si llevara un equipo de comunicación personal integrado. Es el nuevo inglés global, pero esta vez en español... y con más filtros de corrección que una campaña publicitaria de Nike.

Investigadores ya detectan que no solo repetimos expresiones recurrentes promovidas por la IA, sino que empezamos a adoptar su estructura retórica: introducciones templadas, transiciones suaves, emoción controlada. Todo muy profesional. Tan profesional, que hasta cuando pedimos perdón, suena a plantilla. Porque claro, si algo va a salvar una relación rota es decir “entiendo tus emociones y lamento mi proceder”.

La situación recuerda a cuando el cine estadounidense imponía acentos, gestos y modos de vestir. Solo que ahora no hace falta pantalla: la homogeneización lingüística llega por teclado. Lo que antes hacían las hamburguesas y las películas de acción, ahora lo hacen los sistemas de autocompletado. Con la misma eficacia y menos calorías.

👉🏻 You sound like ChatGPT

Discusión sobre este episodio

Avatar de User