Manual de instrucciones para no perder la cabeza con la IA
Semana del 11 de abril
Esta semana os traigo un menú bien cargado: un filósofo inexistente nos hace pensar en lo fácil que es tragarse una narrativa bien redactada; OpenAI se apunta (por fin) al código abierto, con una apertura que, de tan medida, huele más a táctica que a convicción; y mientras tanto, 40.000 millones de inversión en IA nos empujan a replantear la economía como si fuera una teología del riesgo. ¿Fe ciega o estrategia de supervivencia? Vosotros decidís. A todo esto, si os interesan los entresijos del Model Context Protocol, también me he metido de lleno a explorar cómo puede conectar modelos de lenguaje con el mundo real sin perder el norte. Y, para rematar, hago un repaso a Revenge, el libro que retrata el regreso de Trump como un ejercicio magistral de narrativa emocional en tiempos de crisis. Todo eso y más, servido con ironía, preguntas abiertas y ganas de seguir la conversación.
De cosecha propia
Conectar IA al mundo real sin perder la cabeza
Una mirada optimista al Model Context Protocol (MCP)
En las últimas semanas he trasteado para ver cómo Model Context Protocol (MCP) puede ayudar a cambiar la manera en que interactuamos con los modelos de lenguaje. Más allá del hype, MCP representa un paso estructural clave para conectar la IA a nuestros entornos reales (archivos, bases de datos, apps) de forma segura, modular y bajo control del usuario.
No se trata de que la IA lo sepa todo, sino de que sepa cómo preguntar y a quién. Esa es la clave de un sistema más interoperable, sostenible y útil. Ya no es ciencia ficción: con herramientas como Claude Desktop o integraciones en Zapier, esto ya está ocurriendo.
Comparto en CluPad una visión práctica y accesible sobre lo que puede aportar MCP. Si te interesa la conexión entre infraestructura tecnológica, diseño de producto y autonomía del usuario, creo que te puede resultar útil.
👉🏻
Model Context Protocol (MCP)
Donald Trump y el poder de una narrativa emocional
En comunicación política, entender cómo se construye una identidad desde la crisis es clave. En «los libros de CluPad» he analizado "Revenge", el libro de Alex Isenstadt que retrata el regreso de Trump como una operación narrativa, más que electoral. El texto no sólo ilustra una estrategia de reposicionamiento, sino que muestra cómo la lógica emocional, el victimismo y la hiperpersonalización sustituyen a la agenda programática.
Trump no intenta ocultar el conflicto: lo convierte en su principal mensaje. Cada ataque judicial, cada traición o meme se transforma en símbolo de cohesión (Mirar lo que está ocurriendo ahora con Le Pen). Su campaña no se articula desde los medios tradicionales, sino desde un ecosistema alternativo de streamers, podcasters y microinfluencers que fragmentan el relato pero amplifican el vínculo emocional con audiencias segmentadas.
Esto plantea preguntas relevantes para quienes trabajamos en comunicación:
¿Hasta qué punto los medios tradicionales han perdido su capacidad de marcar agenda?
¿Y cómo compite un relato político racional ante una narrativa de revancha tan eficaz?
Os dejo el artículo completo para quien quiera profundizar en esta lectura crítica del fenómeno Trump. Más allá de simpatías o rechazo, es un caso que interpela a toda estrategia contemporánea de comunicación pública.
👉🏻
Revenge: La historia de la vuelta al poder de Trump
Noticias
La hipnocracia también era falsa
Ya podemos respirar tranquilos: el filósofo Jianwei Xun no existe, era solo un experimento de coautoría entre un editor italiano y dos modelos de IA. Eso sí, logró colarse en Wikipedia, artículos académicos y hasta una mesa redonda en Cannes. Una inteligencia artificial que genera un autor ficticio para hablar de manipulación algorítmica… y nadie lo detecta. El metajuego es tan perfecto que casi parece arte conceptual. O tal vez sea simplemente una gran falta de control y etiquetado, como marca la regulación europea. Al final, lo que revela el caso no es el potencial filosófico de la IA, sino nuestra disposición a creernos cualquier cosa bien redactada.
👉🏻
Jianwei Xun, supuesto autor de la teoría de la hipnocracia, no existe y es fruto de la inteligencia artificial
Abriendo la Caja de Pandora: OpenAI finalmente se abre... un poco
En un giro curioso del destino, OpenAI anuncia su intención de liberar un modelo de lenguaje 'abierto', lo cual resulta irónicamente cómico para una empresa que, hasta ahora, ha tenido todo menos apertura en su enfoque. Después de haber visto cómo sus rivales adoptaron un enfoque de código abierto con resultados impresionantes, es interesante ver que OpenAI planea entrar en el juego que lleva en su nombre desde el principio. ¿Será este el comienzo de una nueva era 'abierta' para OpenAI, o simplemente una jugada más dentro de su compleja estrategia?
Espero que esta iniciativa permita a la comunidad desarrolladora y científica experimentar y contribuir constructivamente, algo que otras compañías ya han hecho con éxito. Queda por saber si este nuevo modelo 'abierto' será realmente tan abierto como su nombre sugiere.
👉🏻
OpenAI plans to release a new ‘open’ AI language model in the coming months
La IA como nueva teología del riesgo
La reciente inversión de 40.000 millones de dólares en OpenAI, liderada por SoftBank, no es solo un movimiento financiero: es una apuesta filosófica. Como en la célebre "apuesta de Pascal", se trata de decidir en condiciones de incertidumbre, apostando por una posibilidad con consecuencias radicales.
Pascal defendía que creer en Dios era racional si el coste de equivocarse era limitado frente a la posibilidad de una ganancia infinita. Aquí la lógica se traslada al terreno económico-tecnológico: ¿vale la pena invertir miles de millones por la promesa de una IA transformadora, aunque no haya garantías?
El razonamiento es claro: quien no apuesta hoy, puede quedar excluido mañana de una reconfiguración global del trabajo y del valor. Pero como en todo salto de fe, el riesgo está en el margen: la competencia open source, la sostenibilidad del modelo y la capacidad de defender el liderazgo serán las verdaderas pruebas del credo.
Quizás estemos asistiendo a la emergencia de una nueva forma de racionalidad económica: una teología del futuro basada en probabilidades, escalabilidad y disrupción.
👉🏻
The Sunday edition #518
🤖💡 La IA no sustituirá a las personas, pero quien la use bien puede dejar atrás a los que no lo hagan…
Sección sobre IA semanal que hago para el newsletter ¿Qué hemos aprendido está semana? de Autoritas Consulting
Esta semana la IA viene con plot twist 😮: GPT-4o ahora no solo escribe, ¡también dibuja! Gracias a su arquitectura Transfusión, mezcla texto e imagen como si nada. Mientras tanto, nos preguntamos si los agentes IA serán nuestros compis de trabajo o nuestros sustitutos (espóiler: hay 6 niveles para elegir 🤖). También nos hemos topado con una reflexión potente: ¿ha muerto la economía del conocimiento? 🪦 Y si creías que prohibir ChatGPT en la oficina frenaba la innovación, hay un artículo que lo desmonta todo. Añadimos un informe con predicciones de aquí a 2027 que parece sacado de Black Mirror, y atentos al «AI Index 2025»: parece que estamos avanzando a toda máquina. Y por si fuera poco, Europa se tensa con los aranceles de Trump y las startups tiemblan.
En Herramientas, hablamos de qué pasa cuando a ChatGPT se le llena la memoria (y cómo hacer limpieza 🧹), y de una nueva joyita en NotebookLM que te busca fuentes de la web sin mover un dedo. Y si no sabéis qué es Early Fusion o Late Fusion, en el Glosario os lo explico clarito con ejemplos que no dan dolor de cabeza 😉
📎 Accedéis a todo el boletín desde aquí:
https://docs.google.com/document/d/1BaTRP2Eh5EHhcbkuo8V51vFpGtwdew2HlHG8vbmH6GA/edit?tab=t.fobdinb4xr0u
¿Qué os ha parecido esta edición? Ya sabéis que cualquier idea, duda o sugerencia es más que bienvenida. ¡Os leo! 💬✨