El día en que la IA empezó a hacernos preguntas
De ser los que consultan a ser los consultados
El CEO de Mistral, Arthur Mensch, habla sobre el futuro de los agentes de IA en las empresas en un artículo de Fast Company. Nada sorprendente viniendo de un CEO de IA, hasta que lees la siguiente declaración:
The big change? 'Humans will no longer query the AI for information as they do now,' Mensch says. 'Increasingly, the AI agents will query the humans.'
"El gran cambio? 'Los humanos ya no consultarán a la IA para obtener información como lo hacen ahora', dice Mensch. 'Cada vez más, los agentes de IA consultarán a los humanos'."
Mensch describe cómo las empresas comenzarán a representar cada departamento con un agente de IA, el cual se encargará de tareas diarias como la recopilación de información, redacción de propuestas y coordinación de proyectos. Según Mensch, estos agentes solicitarán información a los expertos humanos cuando sea necesario, invirtiendo el modelo actual de interacción entre humanos e inteligencia artificial.
Lo que plantea Arthur Mensch en su visión del futuro es un cambio de rol, ya no seremos nosotros los que consultemos a la IA, sino que serán los agentes de IA quienes nos consulten solo cuando lo necesiten. Algo así como pasar de ser el jefe que revisa cada detalle a ser el supervisor que interviene solo cuando hay una duda o un problema que resolver. No sé si estamos preparados para este cambio o cómo afectará realmente la forma en que trabajamos… si es que seguimos haciéndolo. Pero tengo claro que sí que cambiará nuestra manera de tomar decisiones y nuestra manera de entender el conocimiento.
McKinsey, Deloitte y Salesforce ya han empezado a trabajar con agentes internos de IA que organizan conocimiento, agilizan flujos de trabajo y optimizan procesos en consultoría, comunicación y gestión empresarial. En el sector público, los gobiernos también están explorando cómo integrar estos sistemas para reducir la burocracia y mejorar la toma de decisiones. En algunos casos, las administraciones están probando sistemas de IA capaces de analizar normativas, sintetizar informes o incluso sugerir políticas basadas en datos. No se trata solo de automatizar tareas, sino de redefinir cómo fluye la información dentro de las organizaciones.
Pero, ¿qué significa realmente este cambio?
Por un lado, la IA autónoma promete liberar tiempo en tareas repetitivas y analíticas, permitiendo a los humanos centrarse en lo realmente estratégico.
"Delegar tareas repetitivas a la IA permite que los profesionales se centren en el trabajo estratégico de alto valor."
Y es cierto. No es lo mismo pasar horas revisando datos que recibir directamente un análisis con las conclusiones claras. Este cambio puede impactar positivamente en la eficiencia de las empresas, reduciendo tiempos de respuesta y permitiendo que los profesionales tomen mejores decisiones basadas en información.
Que la IA asuma parte del trabajo no significa que nos lo ponga más fácil. Como ocurre con cualquier cambio tecnológico, hay desafíos a los que hacer frente. La falta de confianza en la IA sigue siendo una barrera real, no nos olvidemos que el problema de las alucinaciones no está resuelto del todo. No basta con que un sistema funcione bien, necesitamos entender cómo toma decisiones.
"La falta de confianza en los sistemas de IA sigue siendo una barrera importante para su adopción, lo que exige transparencia y supervisión."
Por lo tanto, si las decisiones empiezan a depender cada vez más de los algoritmos, ¿cómo aseguramos que sean justas y confiables? Este no es un tema nuevo, y el sesgo y la IA suelen ir de la mano. Sin directrices claras, la toma de decisiones impulsada por IA puede heredar y amplificar sesgos existentes.
Este tema va más allá de lo técnico. Hay un componente ético que no podemos ignorar. Si dejamos que los algoritmos tomen más decisiones sin intervención humana, ¿qué pasa con la responsabilidad? Si un sistema de IA recomienda una política, un cambio en la estrategia de una empresa o la denegación de un beneficio social, ¿quién responde si la decisión fue errónea? Se requiere un marco regulatorio claro para evitar situaciones en las que el humano quede desplazado del proceso de supervisión y validación.
También hay un impacto en la forma en la que trabajamos. Si hoy (casi diría que ayer) la habilidad clave es saber encontrar la información correcta, en un futuro inmediato será saber supervisar, validar y refinar el trabajo de la IA.
“La fuerza laboral del futuro deberá pasar de la ejecución manual a la orquestación de la IA."
Un cambio que nos obliga a aprender a trabajar de otra manera. Ya no se tratará solo de saber hacer algo, sino de saber gestionar inteligencias artificiales que lo hagan por nosotros.
Además, este cambio puede afectar la estructura de las empresas. Tradicionalmente, las organizaciones han estado diseñadas en torno a cadenas de mando claras, donde las decisiones fluyen de arriba hacia abajo. Si la IA comienza a gestionar información de manera autónoma, podríamos ver cambios en cómo se toman las decisiones y en cómo se distribuye el poder dentro de las organizaciones. ¿Cómo afectará esto a los liderazgos? ¿Habrá menos jefes y más expertos en gestión de IA? ¿Tendremos un departamento de Recursos IA?
Es un tema con muchas frentes. ¿La IA nos hará la vida más fácil o nos alejará del control sobre nuestras decisiones? ¿Cómo equilibramos eficiencia con ética? ¿Podemos asegurarnos de que estos sistemas realmente trabajen para nosotros y no al revés? Lo que está claro es que estamos en un punto de inflexión, donde el papel de los humanos en la toma de decisiones empresariales, políticas y organizativas está cambiando a una velocidad que no habíamos visto antes.
Quien no entienda cómo funciona esta nueva dinámica, se quedará fuera del juego antes de lo que cree. No se trata solo de aprender sobre IA, sino de comprender cómo nos afecta y cómo podemos adaptarnos a este cambio. Si la IA nos va a consultar en lugar de al revés, más nos vale tener respuestas que valgan la pena.
Si la IA nos consulta, sigue necesitando nuestra visión. Si dejamos que nos reemplace en la toma de decisiones sin cuestionar, el problema no será la IA, sino nuestro.
Nosotros no sé, pero tampoco creo que esté preparada la IA. Quizás IAs muy especializadas y después de una periodo de entrenamiento. Lo prioritario ahora mismo debería ser que fuesen asequibles y funcionales, darnos el máximo de autonomía con ellas. Que puedan funcionar en local en cualquier PC o en el móvil e incluso sin conexión a internet.