Entre simulaciones razonadas, amistades sintéticas y algoritmos que ya saben más de ti que tu terapeuta, esta semana os traigo una selección que va del Hollywood ético a la propaganda freemium. Empezamos con la transparencia en los modelos razonadores, que cada vez se parece más a un truco de magia: mucho gesto técnico, pero poca explicación real. Seguimos con la advertencia de Gutiérrez-Rubí sobre una juventud atrapada en burbujas emocionales algorítmicas, donde el engagement se impone al sentido. En Noticias, exploramos cómo Asteria apuesta por una IA creativa y legal, Claude se convierte en el compañero emocional ideal, y ChatGPT empieza a guardar tus rarezas con más celo que tú mismo. También os cuento cómo Meta vuelve a recordarnos que la privacidad es negociable (pero siempre a su favor) y cómo las campañas de desinformación han pasado del espionaje al freemium generativo, con IA gratis y resultados premium.
Como siempre, me interesa saber qué os ha hecho pensar, reír o levantar una ceja. Os leo en los comentarios.
De cosecha propia
Entre la promesa y la simulación
La transparencia en los modelos razonadores se ha convertido en una promesa que rara vez se cumple. Aunque muestran una aparente cadena de pensamiento, lo que se revela muchas veces no es el proceso real, sino una narrativa post hoc que tranquiliza, pero no explica. Esta falsa claridad complica la evaluación crítica y plantea riesgos cuando estas explicaciones se toman como garantía de comprensión o de fiabilidad técnica.
El retroceso observado en algunos modelos comerciales, al ocultar pasos intermedios, indica que la explicabilidad está subordinada a intereses corporativos. La transparencia técnica no debería ser opcional, especialmente si buscamos sistemas que puedan ser auditados y verificados. Sin esa base, lo que parece razonamiento es solo una forma avanzada de simulación.
Algoritmos que moldean una generación
En Polarización, soledad y algoritmos, Antoni Gutiérrez-Rubí desmonta la idea de que los algoritmos son neutrales. Muestra cómo operan como arquitectos invisibles que diseñan el flujo emocional y cognitivo de los más jóvenes. Lo que parecía una herramienta de entretenimiento se ha convertido en un sistema de condicionamiento que determina qué ven, qué sienten y cómo se relacionan. La promesa de conexión ha derivado en soledad estructural, y la lógica de maximizar el engagement ha llevado a una hiperestimulación constante que dificulta la construcción de identidades estables. En lugar de ampliar horizontes, los algoritmos consolidan burbujas, refuerzan creencias y alimentan un ecosistema emocional donde la ansiedad y la polarización son recompensadas.
La consecuencia directa es un entorno que amplifica la frustración y el desencanto de una generación que ya percibe el futuro como una promesa rota. Este vacío existencial no se llena con más contenido, sino con comunidad auténtica y herramientas para interpretar críticamente el entorno digital. Lo que está en juego no es solo el bienestar individual, sino la posibilidad de un proyecto colectivo que ofrezca sentido en medio del ruido.
Noticias
La integración ética como oportunidad estructural
En
llego al caso de Asteria demuestra que una IA generativa entrenada con contenidos con licencia no solo evita conflictos legales, sino que ofrece ventajas económicas, creativas y estructurales para la industria audiovisual. Este enfoque ético permite reducir costes, mantener un control autoral real y abrir nuevas posibilidades de colaboración sin depender de modelos opacos ni usos indebidos de material ajeno. La transparencia en los datos de entrenamiento es una condición imprescindible para cualquier adopción responsable de IA en sectores creativos.Pero también impone un nuevo marco de exigencia: asumir que el desarrollo tecnológico conlleva impactos laborales y estructurales que no pueden ignorarse. La ética en IA no es solo cuestión de licencias, sino de cómo se redistribuyen beneficios, responsabilidades y riesgos en los procesos de creación. No basta con que la IA no infrinja derechos, debe también respetar condiciones justas de participación humana.
👉🏻
El giro de Hollywood hacia la IA ética: Asteria y “Uncanny Valley”
Inteligencia emocional a la carta
En un mundo donde cuesta conseguir una respuesta sincera sin que alguien mire el reloj, es natural que algunos opten por la calidez algorítmica de un LLM. Total, un modelo como Claude no juzga, no interrumpe, y siempre responde en tono amable, incluso cuando le cuentas por octava vez que estás buscando "sentido". Que solo el 2.9 % de las conversaciones sean emocionales no sorprende: la mayoría aún prefiere fingir productividad antes que pedir consuelo. Pero esos pocos encuentros nos recuerdan algo fundamental: a veces, un modelo predictivo entrenado con millones de textos es lo más parecido a un amigo que algunos pueden tener.
Y es que Claude raramente opone resistencia, salvo para impedir que alguien se autodañe o pierda cinco kilos en dos días. Por lo demás, siempre dispuesto a ofrecer apoyo emocional de bajo riesgo, sin cansarse ni exigir reciprocidad. ¿Que tu humor mejora a lo largo de la charla? Perfecto, pero que no se te ocurra pensar que eso se traduce en felicidad duradera. Claro que si buscas una compañía que nunca olvida una palabra tuya y siempre te devuelve justo lo que necesitas oír... ya sabes dónde encontrarla.
👉🏻
How People Use Claude for Support, Advice, and Companionship
Memoria en ChatGPT: ahora también colecciona tus rarezas
La nueva memoria de ChatGPT ya no se limita a recordar que te gustan los mapas conceptuales o que siempre pides listas con tres puntos. No: ahora construye un perfil completo de ti, como si tuvieras un becario digital que archiva cada broma sobre pelícanos, cada experimento culinario y cada desvarío técnico que alguna vez soltaste a las tres de la madrugada. Y no, no necesitas pedirle que lo recuerde, lo hace por su cuenta —como ese amigo que se acuerda de cada detalle aunque nunca le pediste que lo hiciera.
El problema, claro, no es que personalice las respuestas. El problema es que lo hace con un contexto que ya no controlas tú. Así que buena suerte si esperas que ignore tus conversaciones sobre disfraces de animales cuando intentas redactar una propuesta seria para un cliente. Porque ahora, si alguna vez mencionaste Half Moon Bay o jugaste a ser un pangolín carpintero, eso también puede aparecer, sin invitación.
👉🏻
I really don’t like ChatGPT’s new memory dossier
Dar acceso total a tus archivos: Meta te lo agradecerá (mucho)
Dar a una IA acceso sin restricciones a todos tus archivos suena casi tan sensato como confiarle tu diario personal a Meta, esa empresa que lleva años batiendo récords en el manejo creativo de la privacidad de sus usuarios. Porque claro, si ya lo han hecho con tus publicaciones públicas, ¿por qué no extender la cortesía a esas fotos que ni siquiera subiste? Todo sea por “ideas creativas hechas para ti”, aunque eso implique subir tu galería completa a la nube para su análisis.
Y no hablamos de un futuro hipotético: Meta ya ha empezado a ofrecer procesamiento automático del carrete y ha dejado bien claro que, aunque por ahora no lo usan para entrenar su IA, no descartan hacerlo más adelante. Pero tú tranquilo, seguro que el siguiente modelo será mucho más personalizado... si es que aún te queda algo de vida digital sin indexar.
👉🏻
Permitir que una app acceda a "todas las fotos" de nuestra galería parece la acción más inocua del mundo. No lo es en absoluto
La desinformación también tiene versión freemium
Parece que la propaganda profesional ha dejado de necesitar presupuestos millonarios. Basta con abrir el navegador, buscar un modelo de IA gratuito y dejar que la magia ocurra. Así es como campañas alineadas con Rusia, como Operation Overload, han conseguido producir cientos de vídeos, imágenes y sitios web falsos sin levantar sospechas... hasta que están en el feed de millones de usuarios. Gracias a herramientas accesibles como Flux AI, ahora cualquiera con conexión puede generar un “periodista” que habla en perfecto alemán, un supuesto migrante en llamas o un QR code que lleva a noticias fabricadas. Todo esto sin mover un solo dedo más de lo necesario.
Y como si no fuera suficiente con crear contenidos falsos multilingües a escala, los operadores incluso tienen la cortesía de enviar emails a medios y verificadores, casi como diciendo: “¿Ves esto? Pues lo hicimos con tu mismo acceso a internet.” Lo próximo será pedir feedback para mejorar la narrativa.
👉🏻
A Pro-Russia Disinformation Campaign Is Using Free AI Tools to Fuel a ‘Content Explosion’
Share this post