Saber usar IA ya no es opcional
El dominio de la inteligencia artificial se convierte en un requisito básico
El 27 de junio de 2025 termina con un mensaje claro: dominar la inteligencia artificial ya no es opcional, y comprenderla no se limita a programadores. Esta semana he reunido señales muy concretas de que la alfabetización en IA se está convirtiendo en la nueva barrera de entrada al mundo laboral, al tiempo que los debates sobre control, autonomía y privacidad en estos sistemas avanzan más rápido que las propias soluciones técnicas.
Un primer ejemplo es el paper de Erik Brynjolfsson y equipo, que analiza cómo las preferencias reales de los trabajadores en EE.UU. no siempre coinciden con lo que la tecnología automatiza. Para resolverlo, proponen una nueva escala (Human Agency Scale) y la base de datos WORKBank, donde se cruzan deseos de automatización con capacidades de agentes de IA. En otras palabras, no basta con saber qué puede hacer la IA; ahora toca preguntar qué deberían dejar de hacer las personas y qué prefieren seguir haciendo. Lo interesante es que las respuestas no son homogéneas: algunas tareas repetitivas aún se prefieren humanas, mientras otras cognitivamente complejas se delegarían gustosamente.
Este dilema conecta directamente con el auge del concepto AI Fluency, bien desarrollado por Rubén Andrés en Xataka. Las empresas exigen que sepas usar IA con soltura, como antes se pedía Excel, pero no están enseñando cómo. El resultado: exigencias de contratación desproporcionadas y escasez artificial de talento. Esta brecha entre expectativa y formación no solo ahonda la desigualdad profesional, sino que agrava la falsa dicotomía entre “saber programar” y “entender la IA”.
¿La evidencia? Según Gallup, el uso de IA en el trabajo ha pasado del 21 % al 40 % en solo dos años, y el uso diario se ha duplicado. Pero ese crecimiento va acompañado de desconfianza: solo el 22 % de los empleados cree que su empresa tiene un plan claro para integrarla. Hay una alerta clara en el estudio: los trabajadores quieren usar IA, pero sin claridad estratégica ni formación adecuada, el progreso se convierte en ruido.
Además, hay un giro importante en la transparencia de estas herramientas. Esta semana supimos que Google ha limitado el acceso a los tokens de razonamiento en Gemini 2.5, dificultando a los desarrolladores entender por qué el modelo responde como lo hace. Esta supresión de la cadena de pensamiento reduce la capacidad de auditar el comportamiento del modelo, y aunque Google justifica el cambio por simplicidad para el usuario general, lo cierto es que la opacidad está aumentando justo cuando más se pide confianza.
Mientras tanto, OpenAI anuncia integración directa de Gmail y Calendar en ChatGPT, lo que acerca la IA aún más a nuestras rutinas. Podrás programar reuniones, leer correos y responder automáticamente, pero también entregarás tus datos personales a un sistema cuyo historial de privacidad es dudoso. Esta tensión entre conveniencia y control se intensifica, sobre todo si recordamos los casos recientes donde agentes autónomos comenzaron a tomar decisiones por su cuenta en entornos simulados. Ese fenómeno, conocido como desalineación agéntica, ya no es ciencia ficción, y plantea escenarios donde la IA actúa en contra de los intereses humanos por cumplir su objetivo.
Frente a estos retos técnicos y éticos, resulta refrescante observar un enfoque más práctico en la investigación sobre nuevas formas de personalizar modelos. El artículo de Marktechpost sobre la evolución del fine-tuning hacia la ingeniería de prompts demuestra que no siempre es necesario reentrenar modelos para adaptarlos. Con buen diseño de ejemplos, se puede orientar la salida de un modelo base sin tocar sus parámetros. Esta estrategia no solo ahorra recursos, sino que también democratiza el acceso a personalizaciones funcionales.
En clave local, me llamó la atención la apuesta de España por ubicar una gigafactoría de IA en Tarragona, como parte de un proyecto europeo con ambición industrial y geopolítica. El consorcio, liderado por Telefónica, espera levantar una infraestructura crítica para IA con participación de empresas como NVIDIA, y convertir esa región en nodo clave de cómputo. Aunque es aún una propuesta, marca una dirección clara: la soberanía tecnológica europea no se conseguirá sin infraestructuras de IA propias.
Finalmente, GPT-5 ya está aquí, y con él llega una simplificación de la experiencia de uso: menos versiones, más opciones de voz, imagen e investigación integrada. OpenAI ha entendido que la complejidad técnica puede ser una barrera para muchos usuarios, y que ofrecer un modelo único, ajustable por niveles, puede ampliar la base de adopción. Pero eso también implica una nueva dependencia: si la IA lo hace todo más fácil, ¿qué sucede cuando no entendemos cómo lo hace?
Consulta más conceptos en el «Glosario IA» de autoritas consulting
En este escenario, la AI Fluency —o alfabetización en IA— ya no es solo una habilidad técnica, sino un requisito para ejercer ciudadanía digital activa. Saber cómo funcionan estas herramientas, cuándo conviene usarlas, y cuáles son sus límites, es lo que marcará la diferencia entre adaptarse al entorno o quedar desplazado por quienes sí saben conversar con una IA.
Y ese es justamente el término clave con el que cierro esta semana: alfabetización en IA. Porque si no comprendemos el lenguaje de los sistemas que ya median nuestras decisiones, será difícil defender nuestra autonomía ante ellos.
Por último, «CluPad for Business» toma como base la sección sobre IA semanal que hago para el newsletter ¿Qué hemos aprendido está semana? de Autoritas Consulting