¿Alguna vez te preguntas si las decisiones políticas que escuchas en las noticias podrían haber sido recomendadas por un ChatGPT? Yo sí, y parece que no voy tan desencaminado. El otro día un nuevo concepto llamó toda mi atención, algo llamado "Vibe Governing", un fenómeno que está ocurriendo en tiempo real y que podría cambiar radicalmente la forma en que funciona la manera de tomar decisiones en un gobierno (al menos en los más irresponsables).
Imagina que un político, en lugar de consultar expertos o datos, le pide a una IA como ChatGPT que le escriba una política económica. ¿Suena descabellado? Pues en 2025, la propuesta arancelaria de Donald Trump ha coincidido tanto con las recomendaciones de varios chatbots de IA que muchos se preguntaron si no estaríamos ante un nuevo tipo de gobierno: el “Vibe Governing”.
Como sabéis, siempre me ha interesado la intersección entre tecnología y política, pero esto va mucho más allá de usar una hoja de cálculo para hacer gráficas de presupuestos o Twitter para anuncios oficiales. Estamos hablando de algo con más calado, decisiones gubernamentales que surgen, no de análisis técnicos tradicionales, sino de las "vibras" o intuiciones generadas por sistemas de inteligencia artificial.
¿Qué demonios es el "Vibe Governing"?
"El 'Vibe Governing' representa una transformación significativa en los procesos de toma de decisiones políticas, donde las 'vibraciones' capturadas por sistemas de IA generativa adquieren un papel prominente, desplazando parcialmente la evidencia técnica".
Quizás recuerdes algún momento en que "sentías" que una solución funcionaría sin poder explicar exactamente por qué. Piensa en la última vez que tomaste una decisión importante basada en un “presentimiento”. Ahora multiplica eso por un algoritmo capaz de procesar millones de datos en segundos. Eso es el Vibe Governing: usar inteligencia artificial para generar políticas públicas a partir de descripciones vagas, como si le dijeras a un amigo: “Necesito algo que suene proteccionista pero sin asustar a los mercados”. Aunque visto lo visto, parece que no está funcionando demasiado bien.
Básicamente, el "Vibe Governing" es un enfoque donde los grandes modelos de lenguaje (LLMs) como los que alimentan ChatGPT se utilizan para orientar y fundamentar decisiones políticas, basándose en patrones e intuiciones que estos sistemas detectan, pero que no siempre pueden explicarse mediante metodologías analíticas convencionales.
El 'Vibe Governing' representa una transformación significativa en los procesos de toma de decisiones políticas, donde las 'vibraciones' capturadas por sistemas de IA generativa adquieren un papel prominente, desplazando parcialmente la evidencia técnica.
¿Estamos realmente dispuestos a confiar en "vibras algorítmicas" para decisiones que afectan a millones de personas?
Con Donald Trump la realidad supera la ficción
Lo más sorprendente es que esto ya está sucediendo. El ejemplo más contundente y de más actualidad que podemos encontrar es el de la política arancelaria de Donald Trump en 2025. Según Rohit Krishnan existe una notable coincidencia entre las propuestas arancelarias de Trump y las recomendaciones que generaría un sistema como ChatGPT.
El caso de la política arancelaria de Donald Trump ilustra cómo los LLMs pueden influir en la formulación de políticas públicas, ya sea directa o indirectamente.
No puedo evitar imaginar una escena surrealista en la que asesores presidenciales utilizan prompts en ChatGPT como "¿qué política arancelaria sería popular y económicamente defendible?" y luego presentando los resultados como análisis propios. O quizás sea más sutil, con ideas que navegan desde la IA a través de redes de información hasta llegar indirectamente a los centros de decisión.
Esta idea me genera sentimientos encontrados. Por un lado, utilizar toda la capacidad de procesamiento y síntesis de estos sistemas podría ayudar a encontrar soluciones innovadoras a problemas complejos. Yo soy el primero que abogo por el uso de estas herramientas. Por otro, ¿quién asume la responsabilidad cuando las cosas salen mal? Como dice mi madre, "el que parte y reparte se queda con la mejor parte", pero aquí nadie parece querer admitir que está "partiendo y repartiendo" con ayuda de la IA. En consecuencia nadie quiere asumir la responsabilidad.
No sólo es Trump y su gobierno
Seguro que no es solo Trump quien utiliza chatbots para generar sus discursos, proponer leyes y demás. Y es que una de las cosas que se deben tener en cuenta a la hora de utilizar estas herramientas, es la de repasar que todo esté correcto y si se va a utilizar el texto generado, procurar eliminar las «frases de interacción» del propio chatbot.
Mirar como se le queda la cara a Gabriel Solís, Diputado Suplente 8-4 de Panamá cuando se da cuenta que no borró una de estas frases de su discurso generado con GPT.
La democracia bajo algoritmos: ¿evolución o amenaza?
La verdad es que el asunto tiene migas. En primer lugar, está la cuestión de la transparencia. Los sistemas de IA tipo "caja negra" toman decisiones que parece que no se pueden explicar completamente. Aplicado a la política, es como si tuviéramos un spin doctor en la trastienda y que nadie puede interrogar.
Los principios democráticos tradicionales requieren que las decisiones políticas sean justificables públicamente, requisitos difíciles de satisfacer cuando se basan en sistemas opacos."
Esta opacidad choca frontalmente con la idea de rendición de cuentas democrática. Si un político toma una decisión basada en "vibras algorítmicas" que resulta desastrosa, ¿puede simplemente culpar al algoritmo? ¿O debería responsabilizarse quien decidió confiar en la IA?
La cuestión se complica aún más por la hibridación entre el juicio humano y algorítmico.
La hibridación entre procesos cognitivos humanos y algorítmicos dificulta determinar el origen preciso de ciertas ideas o propuestas políticas.
Este punto me hace pensar en la famosa anécdota de Newton y la manzana. Todos recordamos que descubrió la gravedad cuando una manzana le cayó en la cabeza, pero sabemos que la realidad fue mucho más compleja. De forma similar, las ideas políticas rara vez tienen un origen único y claro, y ahora los algoritmos se suman a esta sopa creativa.
¿Cómo afecta esto a nuestra relación con la verdad?
Otro aspecto que me parece crucial es cómo los LLMs están cambiando la relación con el conocimiento y la verdad. Tradicionalmente, para justificar una política pública se necesitaban estudios, datos y análisis verificables. Pero las "intuiciones algorítmicas" funcionan de manera diferente.
Las intuiciones algorítmicas generadas por LLMs no necesariamente explicitan sus fuentes o metodologías, lo que plantea desafíos para la verificabilidad del conocimiento.
Esto me recuerda a cuando en el “cole” el profesor nos pedía "citar fuentes" (pero no queríamos decir que era el Rincón del Vago). Con la IA generativa, es como si tuviéramos un estudiante brillante que siempre tiene una respuesta convincente, pero nunca puede decirnos exactamente de dónde sacó su información (imagino que a más de un maestro de la sala la situación le debe sonar familiar).
Durante siglos, las fuentes de autoridad epistémica han ido cambiando, los que ya tenemos una edad hemos visto como han pasado de ser los medios como la prensa, la radio o la televisión, a ser Internet, los buscadores y redes sociales. Ahora, los modelos de lenguaje como ChatGPT están empezando a convertirse también en nuevas voces a las que se les atribuye verdad. Los LLMs se están convirtiendo en nuevas fuentes de autoridad epistémica, cambiando las jerarquías tradicionales de conocimiento y experiencia. Ya no es solo el experto con décadas de experiencia quien tiene la última palabra, sino también el algoritmo que ha digerido millones de textos en cuestión de segundos.
Es como si a la mesa donde se toman decisiones importantes, junto a economistas, sociólogos y políticos, ahora se sentara un ente invisible que ha leído y procesado más información que todos ellos juntos... pero que a veces alucina y no puede explicar su razonamiento.
Para ampliar os propongo la lectura del artículo de
en «El problema de resolver las discusiones con la falsa autoridad de la Inteligencia Artificial» en el que expone como el uso de la IA como “voz objetiva” para cerrar debates no responde tanto a su precisión técnica como al aura de neutralidad que transmite. Esa proyección de verdad que se quiere dar al usar como referente a una IA me parece central para entender cómo se está desplazando el conflicto democrático hacia un plano de impresiones legitimadas algorítmicamente.Riesgos y oportunidades
Creo que no todo es malo. El "Vibe Governing" también presenta oportunidades interesantes. Los sistemas de IA tienen capacidades de síntesis y procesamiento que superan ampliamente a las humanas, pudiendo identificar patrones en enormes cantidades de datos que escaparían a nuestro análisis.
Por ejemplo, podrían ayudar a democratizar el acceso a capacidades analíticas avanzadas.
El 'Vibe Governing' podría democratizar el acceso a capacidades analíticas avanzadas, reduciendo asimetrías de conocimiento.
Esto podría ser especialmente útil para pequeños municipios o países con recursos limitados, que no pueden permitirse grandes equipos de analistas. Un chatbot decente (no necesariamente un modelo comercial) podría proporcionar análisis preliminares bastante sólidos sobre políticas de transporte público o gestión de residuos, por poner algunos ejemplos.
Además, los LLMs pueden sintetizar perspectivas diversas, incluyendo aquellas que normalmente se quedan fuera de los círculos de poder. En cierto modo, si están bien entrenados (y esto es un GRAN "si"), podrían capturar intuiciones colectivas que escapan a los métodos de análisis convencionales.
Pero los riesgos siguen ahí, acechando como tiburones bajo la superficie. La "gobernanza algorítmica tiende a difuminar la responsabilidad entre múltiples actores", entrando en conflicto directo con la rendición de cuentas democrática. También existe el peligro de la manipulación y los sesgos, ya que estos sistemas reflejan inevitablemente los datos con los que fueron entrenados.
Y quizás el riesgo más sutil pero preocupante, la posible erosión de la deliberación democrática al priorizar la rapidez sobre la participación. La democracia es, por diseño, algo lento y a veces tedioso. Debatir, consensuar y explicar toma tiempo. La tentación de acelerar estos procesos mediante algoritmos podría ser irresistible para muchos gobiernos (que se lo pregunten a Elon Musk y su DOGE).
¿Cómo navegar estas aguas turbulentas?
Necesitamos marcos institucionales fuertes para supervisar el uso de IA en la gobernanza. Se deberían establecer "auditorías independientes y mecanismos de apelación" para los sistemas de IA usados en gobernanza. Es como tener una ITV para algoritmos con verificaciones periódicas e independientes que garanticen que funcionan adecuadamente y no son un peligro público.
También se debería alfabetizar en IA tanto para funcionarios como para la ciudadanía. Es difícil supervisar o criticar lo que no entendemos. Necesitamos que más personas comprendan, al menos a nivel básico, cómo funcionan estos sistemas y cuáles son sus limitaciones.
El objetivo no debería ser ni rechazar categóricamente ni abrazar acríticamente el 'Vibe Governing', sino desarrollar formas de integración que fortalezcan los valores democráticos fundamentales.
No se trata de tener miedo a la tecnología ni de rendirse ante ella, sino de domesticarla para que sirva a nuestros valores y necesidades colectivas.
Entre la fascinación y el vértigo
Debo confesar que este tema me produce sentimientos contradictorios. Como entusiasta de la tecnología, me fascina la idea de sistemas que puedan procesar conocimiento a una escala inhumana y ofrecer perspectivas innovadoras. Pero como ciudadano, me preocupa la posibilidad de que decisiones fundamentales se tomen en base a procesos que nadie puede explicar completamente.
Es como si estuviéramos en la cuerda floja, balanceándonos entre el futuro y el abismo. Por un lado, tenemos el potencial de una gobernanza más ágil, informada y adaptativa. Por otro, el riesgo de una tecnocracia opaca donde las máquinas, o quienes las controlan, tienen un poder desproporcionado.
Lo que resulta innegable es que el "Vibe Governing" se comporta como una presencia seductora, no siempre se le necesita, pero está ahí, susurrando respuestas rápidas y convincentes al oído del político que busca atajos en la toma de decisiones. Como sociedad, tendremos que decidir si nos dejamos llevar por su encanto, si lo mantenemos a cierta distancia, o si imponemos límites claros antes de que el juicio algorítmico sustituya silenciosamente al juicio democrático.
Si hay algo que tengo claro es que necesitamos más investigación, más debate público y más participación ciudadana en estas decisiones. No podemos permitir que la forma en que se gobiernan nuestras sociedades cambie radicalmente sin que la mayoría entienda o consienta esos cambios.
Quizás la verdadera inteligencia no esté en los algoritmos más sofisticados, sino en nuestra capacidad colectiva para utilizarlos de manera inteligente, preservando lo que hace humana a nuestra sociedad, la responsabilidad compartida, la deliberación abierta y la capacidad de cuestionar y justificar nuestras decisiones más importantes.
Al fin y al cabo, el futuro no debería ser algo que nos sucede, sino algo que construimos juntos, algoritmo a algoritmo, decisión a decisión, día a día.
Referencias
¿Te ha vibrado este artículo? Si quieres profundizar, aquí tienes las fuentes que inspiraron el texto:
ChatGPT told Trump how to set tariffs—And now the world’s paying for it. (2025, abril 7). Australian Financial Review. https://www.afr.com/policy/economy/chatgpt-told-trump-how-to-set-tariffs-and-now-the-world-s-paying-for-it-20250407-p5lprr
chrisdh79. (2025, abril 5). White House Accused of Using ChatGPT to Create Tariff Plan After AI Leads Users to Same Formula: «So AI is Running the Country» [Reddit Post]. r/Futurology. https://www.reddit.com/r/Futurology/comments/1js17yn/white_house_accused_of_using_chatgpt_to_create/
Did Trump admin use ChatGPT to allocate tariffs? What we know. (2025, abril 4). Newsweek. https://www.newsweek.com/donald-trump-tariffs-chatgpt-2055203
Editor, C. S., Whitehall. (2025, enero 20). Parlex AI to advise ministers on how policies will be received. https://www.thetimes.com/uk/politics/article/parlex-ai-to-advise-ministers-on-how-policies-will-be-received-99txwlwph
Elgot, J., & Booth, R. (2025, enero 20). AI tool can give ministers ‘vibe check’ on whether MPs will like policies. The Guardian. https://www.theguardian.com/technology/2025/jan/20/ai-tool-can-give-ministers-vibe-check-on-whether-mps-will-like-policies
Hyde, M. (2025, abril 4). Are Trump’s tariffs for real or an AI hallucination? I’m afraid the answer is both. The Guardian. https://www.theguardian.com/commentisfree/2025/apr/04/donald-trump-tariffs-ai-hallucination
Krishnan, R. (2024, abril 23). Vibe Governing en
Lukas. (2025, abril 6). A(I) Vibe Shift. Medium. https://medium.com/@chessucation/a-i-vibe-shift-71f2ac45f362
Peytibi, X. (2025, abril 8). «El conocimiento ha perdido el carácter de autoridad indiscutible». Entrevista a Daniel Innerarity. Recuperado 8 de abril de 2025, de
Siegel, L. (2025, marzo 12). How the right weaponised the “vibe shift”. New Statesman. https://www.newstatesman.com/international-politics/2025/03/how-right-weaponised-vibe-shift-donald-trump
Muy interesante,Carlos.
Al hilo de esto hay un tweet reciente muy curioso de Paul Graham que le dice a Sam Altman:
"Sam, if all these politicians are going to start using ChatGPT to generate their policies, you'd better focus on making it generate better policies. Or we could focus on electing better politicians. But I doubt we can improve the hardware as fast as you can improve the software."
y Sam le contesta:
"thanks for the feature request; we'll do it."