CluPad (por Carlos Guadián)
CluPad en corto
¿Quién necesita trabajo cuando tienes IA?
6
0:00
-7:36

¿Quién necesita trabajo cuando tienes IA?

Semana del 20 de junio
6

Dicen que la inteligencia artificial no quita empleos, los transforma… aunque viendo cómo Mechanize acelera para automatizarlo todo, no queda claro si la transformación incluye también la indemnización. Mientras tanto, Sam Altman nos promete una singularidad amable, ideal para cuando queramos seguir queriendo a nuestras familias mientras los robots diseñan centros de datos por nosotros. ¿Que puede descontrolarse? Tranquilas, Nueva York ya lo ha regulado: si no mata a más de 100 personas o no cuesta más de 100 millones, todo bien. Para los más valientes, hay IA bélica con drones y algoritmos sin remordimientos, y para quienes aún creen que la tecnología puede servir a lo público, ahí está Ámsterdam, con su experimento fallido de IA en bienestar social. Y no olvidemos el episodio en GitHub, donde alguien pensó que era buena idea filtrar los planes de automatización del gobierno de EE. UU. en un repo público. Spoiler: lo borraron… después.

¿Comentamos qué parte os ha dejado con más cara de "esto no estaba en el briefing"? Os leo.

De cosecha propia

Cuándo usar suscripción o API para acceder a IA

Elegir entre suscripción o API depende del tipo de uso que haces de la inteligencia artificial. Si lo utilizas diariamente, con necesidades estables y prefieres evitar complicaciones técnicas, la suscripción mensual ofrece comodidad, acceso inmediato y un coste predecible. Es ideal para quienes requieren una herramienta confiable y lista para usar, sin necesidad de configuraciones ni control de gasto variable.

En cambio, si tu uso es ocasional, específico o automatizado mediante herramientas no-code/low-code, entonces conviene explorar el modelo API. Este permite integrar múltiples modelos, seleccionar el más adecuado para cada tarea y pagar únicamente por lo que consumes. Con plataformas como n8n u OpenRouter, se puede orquestar un flujo multi-modelo sin tener conocimientos avanzados de programación.

Por tanto, no se trata de elegir uno u otro, sino de entender que cada modalidad responde a una lógica distinta: la suscripción da estabilidad, la API aporta flexibilidad. Lo clave es combinar según el contexto y no limitarse a una única forma de acceso.

La carrera por decidir el futuro

En la review de esta semana de "Los libros de CluPad", dedicada a Supremacy de Parmy Olson, podemos ver una crónica precisa sobre la lucha por la supremacía en IA. No se trata de un avance tecnológico sin dirección, sino de una contienda por el control del futuro librada entre corporaciones con acceso privilegiado a datos, talento y capital. Las figuras de Sam Altman y Demis Hassabis, al frente de OpenAI y DeepMind, simbolizan rutas distintas que convergen en la misma lógica: la del mercado como fuerza rectora. La promesa inicial de transparencia y apertura ha sido sustituida por alianzas estratégicas con grandes tecnológicas, como Microsoft, que priorizan la escalabilidad comercial sobre la ética pública. En este escenario, el desarrollo de IA se convierte en un multiplicador de desigualdades y en una nueva frontera de poder sin control democrático.

Noticias

Qué alegría perder el trabajo gracias a la innovación

nos dice que la automatización avanza con paso firme y con la sutil delicadeza de una apisonadora. Mientras algunos todavía intentan reconvertirse o aprender a usar hojas de cálculo con macros, otros ya están celebrando que sus puestos de trabajo serán ocupados por algoritmos. Es reconfortante saber que startups como Mechanize no quieren esperar ni un minuto para que eso ocurra, porque al parecer la urgencia de dejar a miles sin empleo es el verdadero motor del progreso. La buena noticia es que, según sus fundadores, si todos somos más pobres, pero la economía crece, entonces todo está en orden. Al fin y al cabo, lo importante no es si hay trabajo, sino si alguien más rico puede invertir ese dinero en otra automatización.

👉🏻 New AI Startup Wants to Take Your Job ‘as Fast as Possible'

Tranquilos, que todo va según lo planeado

En su reciente artículo The Gentle Singularity, Sam Altman nos tranquiliza informándonos de que la superinteligencia está a la vuelta de la esquina, pero no pasa nada porque aún seguimos nadando en lagos y queriendo a nuestras familias. Según Altman, el progreso exponencial ya ha comenzado, aunque sin esos detalles cinematográficos de robots paseando por la calle o humanos fusionándose con chips (todavía). Que una IA sea más capaz que cualquier ser humano no es para alarmarse, sino para celebrar cómo escribimos más correos y generamos más código... siempre que no olvidemos darle a “guardar”.

Altman nos recuerda que si todo va bien, pronto tendremos robots que construyen robots que fabrican centros de datos que entrenan nuevas IAs que descubren mejores formas de hacer todo eso más rápido. Y todo esto, claro, para que podamos disfrutar de nuevas “ideas” y “creatividad” más eficientes, mientras algunos aún lidian con el formulario de la cita médica. Pero no hay que angustiarse: como dice el autor, esto es una singularidad “gentil”. El hecho de que avancemos tan rápido que pronto no sepamos qué es avanzar ya no es distopía, es curva exponencial.

En resumen, el mensaje de Sam Altman es claro: la superinteligencia llegará, el mundo cambiará, y todo será tan extraordinariamente normal que ni nos daremos cuenta... hasta que alguien pregunte quién tomó las decisiones importantes mientras mirábamos tutoriales de productividad.

👉🏻 The Gentle Singularity

Cuando regular significa esperar al apocalipsis

En

leo que Nueva York ha decidido que la Inteligencia Artificial se puede descontrolar, pero solo si supera los 10^26 cálculos, cuesta más de 100 millones de dólares y amenaza con matar a más de 100 personas o provocar daños por más de 1 000 millones. Es tranquilizador saber que si un modelo solo deja a 99 personas sin trabajo o genera una crisis “moderada”, no entra en la categoría de “riesgo crítico”.

La RAISE Act exige a los grandes desarrolladores informes, protocolos, auditorías externas y reportes anuales. Un despliegue impresionante de burocracia con potencial transformador... si uno cree que las grandes empresas se caracterizan por su amor a la transparencia y la autorregulación. Además, cualquier trabajador puede denunciar a su empresa sin miedo a represalias, gracias a una multa disuasoria de hasta 10 000 USD. Suena casi heroico.

En resumen, no hay interruptores de emergencia, no se regula la investigación académica ni a las pequeñas startups, y Silicon Valley ya está molesto. Lo que demuestra que si algo puede fallar en el futuro, al menos tendremos un documento PDF que diga que se intentó evitar.

👉🏻 Nueva York aprueba la RAISE Act para prevenir desastres provocados por IA

Bendecidos por el silicio y los drones

Parece que la inteligencia artificial ha encontrado su verdadera vocación.

explica que no es en curar enfermedades, reducir la pobreza o mejorar la educación, sino en transformar el campo de batalla en un tablero de ajedrez sin humanos, salvo como objetivos. Silicon Valley, que alguna vez se presentó como el bastión de la innovación humanista, hoy se alista con entusiasmo en las filas del Pentágono, jurando lealtad no al código abierto, sino al código de lanzamiento de misiles.

El espectáculo es conmovedor. Ex-hackers libertarios abrazando contratos militares, drones autónomos tomando decisiones letales más rápido que cualquier juicio humano, y una estructura de supervisión democrática tan robusta como un archivo .txt encriptado con la esperanza. Se invoca el mantra de la “precisión algorítmica” como si etiquetar civiles como enemigos combatientes por error fuera un detalle técnico menor, no una sentencia de muerte.

Y, claro, no falta el argumento estrella: si nosotros no lo hacemos, lo hará otro. Porque nada dice "liderazgo ético" como correr en círculo armando máquinas asesinas más eficientes mientras se reza para que el oponente se quede en versión beta.

👉🏻 Algorithmic Arms Race: How Tech is Fueling Weapons Systems and Mass Surveillance[Thoughts]

Inteligencia artificial para servir, clasificar y sancionar

El despliegue de IA en administraciones públicas ha alcanzado nuevas cotas de sofisticación con iniciativas como la de Ámsterdam, que intentó automatizar la detección de fraude en ayudas sociales. Lo interesante no es que el sistema Smart Check terminara reproduciendo exactamente los sesgos que prometía eliminar, sino que lo hizo tras aplicar todos los protocolos de IA responsable disponibles, auditorías incluidas. Es un alivio comprobar que, con suficientes fondos y consultores, se puede construir una máquina que discrimine con la misma eficacia que un humano… pero de forma transparente.

En lugar de preguntarse si tiene sentido que un algoritmo evalúe quién merece asistencia, el debate giró en torno a si el modelo discriminaba más contra migrantes o contra neerlandeses, hombres o mujeres. Al final, como no se pudo demostrar que el sistema fuera “equitativamente injusto”, decidieron volver al procedimiento tradicional, también sesgado, pero sin tanto Excel. Eso sí, la inversión en consultoría quedó amortizada: al menos ahora sabemos que ni con toda la buena voluntad, la automatización del juicio social funciona como prometía en las presentaciones de PowerPoint.

Y mientras tanto, los ciudadanos siguen aportando pruebas de su pobreza como si pidieran un préstamo bancario. Pero, eso sí, con esperanza en que la próxima versión de la IA venga con botón de “lo sentimos por el sesgo”.

👉🏻 Inside Amsterdam’s high-stakes experiment to create fair welfare AI

GitHub, ese discreto portero del gobierno federal

Nada como confiarle a GitHub el despliegue de una estrategia nacional de automatización gubernamental. Porque si algo garantiza confidencialidad y control es subir el plan entero a un repositorio público… y luego borrarlo cuando alguien hace preguntas. Todo muy alineado con los protocolos clásicos de ciberseguridad institucional: publicar primero, reflexionar después.

La visión de un AI-first government no estaría completa sin un staging site al alcance de cualquier curioso con tiempo libre. Y aunque el repositorio desapareció mágicamente tras el primer correo incómodo, menos mal que hay copias archivadas, por si alguien se quedó con dudas sobre qué modelo sin certificar se iba a usar o qué sistemas críticos se pensaban integrar por API.

Al final, más que un fallo, parece un tutorial práctico de cómo no lanzar una política de automatización estatal. Lo próximo será desplegar credenciales administrativas en Stack Overflow.

👉🏻 Trump administration's whole-government AI plans leaked on GitHub

Discusión sobre este episodio

Avatar de User