No, no es el tĆtulo de ninguna pelĆcula distópica. No hace falta llegar a Matrix o Skynet para darse cuenta de que nuestro dĆa a dĆa se estĆ” convirtiendo en una lucha constante contra las mĆ”quinas. Bueno, contra los algoritmos.
Cada vez es mÔs probable que seamos discriminados por un algoritmo. Nadie puede negar ya a estas alturas que tienen sesgo. Ya sea por parte del programador, por los datos de aprendizaje o porque asà se ha querido.
Esos algoritmos que según pasa el tiempo tienen mÔs y mÔs capacidad de decisión sobre nuestras vidas. Incluso de trastocarlas de la noche a la mañana.
Ellos deciden, tĆŗ obedeces
No es solo queĀ gracias a los algoritmos nos estemos volviendo tontos. Imaginar que os llama un amigo por telĆ©fono y os dice que te busques en Google. QueĀ tu fotografĆa aparece asociada a un asesino en serie. Es la historia deĀ Hristo GeorgievĀ Ā«que al parecer hay un asesino que se llama igual que Ć©l y es a donde apunta el enlace de la Wikipedia tras la descripción del Ā«violador y asesino en serie de cinco personasĀ». Con la salvedad de que en la wiki no aparece su fotografĆa por ningĆŗn lado, sino que ha sidoĀ el algoritmo de Google el que ha hecho la Ā«desafortunada asociación»» (VĆaĀ WTF).
Otra situación. Recibes un email generado automÔticamente por un algoritmo que gestiona los RRHH de tu empresa. Te dice que estÔs despedido y estÔs fuera, no hay a quién reclamar. Es lo que le ha pasado a Stephen Normandin, conductor de reparto de Amazon en Phoenix, que tras cuatro años de trabajo ha sido despedido de esta manera. Imagina, ser despedido por un bot, eres tú contra la mÔquina. En breve necesitaremos un defensor del empleado ante los algoritmos.
Los algoritmos ya deciden en muchos casos a quién contratar para un puesto de trabajo, las calificaciones de los estudiantes, aconsejan a los tribunales sobre la pena que se ha de imponer a un acusado, con quién te juntan en una aplicación de citas, si te hacen o no un seguro médico y a qué precio o deciden quién puede recibir un préstamo o no.
El problema es que en muchas ocasiones ni nos enteramos cuando un algoritmo ha tomado una decisión que nos afecta. Y todo eso a pesar de que el derecho a la explicación, a conocer los parĆ”metros en los que se ha basado un algoritmo para tomar una decisión ya estĆ” reconocido en sitios como laĀ carta de derechos digitales del Ayuntamiento de BarcelonaĀ o incluso a poder impugnar las decisiones automatizadas o algorĆtmicas segĆŗn recoge la propuesta de laĀ Carta de derechos digitalesĀ del gobierno de EspaƱa.
5 Libros sobre el tema
El enemigo conoce el sistema ā Marta Peirano
«La red no es libre, ni abierta ni democrÔtica. Es un conjunto de servidores, conmutadores, satélites, antenas, routers y cables de fibra óptica controlados por un número cada vez mÔs pequeño de empresas.
Es un lenguaje y una burocracia de protocolos que hacen que las mĆ”quinas hablen, normas de circulación que conducen el trĆ”fico, microdecisiones que definen su eficiencia. Si la consideramos un Ćŗnico proyecto llamado internet, podemos decir que es la infraestructura mĆ”s grande jamĆ”s construida, y el sistema que define todos los aspectos de nuestra sociedad. Y sin embargo es secreta. Su tecnologĆa estĆ” oculta, enterrada, sumergida o camuflada; sus algoritmos son opacos; sus microdecisiones son irrastreables. Los centros de datos que almacenan y procesan la información estĆ”n ocultos y protegidos por armas, criptografĆa, propiedad intelectual y alambre de espino.
La infraestructura crĆtica de nuestro tiempo estĆ” fuera de nuestra vista. No podemos comprender la lógica, la intención y el objetivo de lo que no vemos. Todas las conversaciones que tenemos sobre esa infraestructura son en realidad conversaciones sobre su interfaz, un conjunto de metĆ”foras que se interpone entre nosotros y el sistema.
Un lenguaje diseñado, no para facilitar nuestra comprensión de esa infraestructura, sino para ofuscarla. El enemigo conoce el sistema pero nosotros no.»
The Alignment Problem ā Brian Christian
Ā«Los sistemas actuales de Ā«aprendizaje automĆ”ticoĀ», entrenados con datos, son tan eficaces que los hemos invitado a ver y oĆr por nosotros⦠y a tomar decisiones en nuestro nombre. Pero las alarmas han saltado. En los Ćŗltimos aƱos ha surgido una gran preocupación a medida que avanza el campo del aprendizaje automĆ”tico. Cuando los sistemas que intentamos enseƱar no hacen, al final, lo que queremos o lo que esperamos, surgen riesgos Ć©ticos y potencialmente existenciales. Los investigadores lo llaman el problema de la alineación.
Los sistemas seleccionan los currĆculos hasta que, aƱos despuĆ©s, descubrimos que tienen sesgos inherentes de gĆ©nero. Los algoritmos deciden la fianza y la libertad condicional⦠y parecen evaluar de forma diferente a los acusados negros y blancos. Ya no podemos suponer que nuestra solicitud de hipoteca, o incluso nuestras pruebas mĆ©dicas, sean vistas por ojos humanos. Y a medida que los vehĆculos autónomos comparten nuestras calles, ponemos cada vez mĆ”s nuestras vidas en sus manos.Ā»
An artificial Revolution ā Ivana Bartoletti
Ā«La IA tiene un potencial transformador sin precedentes para remodelar la sociedad, nuestras economĆas y nuestras vidas laborales, pero sin un escrutinio legal, una supervisión internacional y un debate pĆŗblico, estamos caminando como sonĆ”mbulos hacia un futuro escrito por algoritmos que codifican prejuicios racistas, sexistas y clasistas en nuestras vidas diarias ā un problema que requiere un cambio polĆtico y cultural sistĆ©mico para abordarlo de forma productiva.
La experta en privacidad Ivana Bartoletti expone la realidad de la revolución de la IA, desde los trabajadores mal pagados que se esfuerzan por entrenar a los algoritmos para que reconozcan pólipos cancerosos, hasta el aumento del tecno-racismo y el tecno-chauvinismo y la relación simbiótica entre la IA y el populismo de derechas. Una revolución artificial es un manual esencial para entender la intersección entre la tecnologĆa y las fuerzas geopolĆticas que estĆ”n dando forma al futuro de la civilización.Ā»
Algorithms of Oppression ā Safiya Umoja Noble
Ā«Si buscas en Google Ā«chicas negrasĀ», ĀæquĆ© encontrarĆ”s? Ā«Big BootyĀ» y otros tĆ©rminos sexualmente explĆcitos probablemente aparezcan como tĆ©rminos de bĆŗsqueda principales. Pero si escribes Ā«chicas blancasĀ», los resultados son radicalmente diferentes. Los sitios porno sugeridos y los debates no moderados sobre Ā«por quĆ© las mujeres negras son tan descaradasĀ» o Ā«por quĆ© las mujeres negras estĆ”n tan enfadadasĀ» presentan un retrato inquietante de la feminidad negra en la sociedad moderna.
En Algorithms of Oppression, Safiya Umoja Noble cuestiona la idea de que los motores de bĆŗsqueda como Google ofrecen igualdad de condiciones para todas las formas de ideas, identidades y actividades. La discriminación de datos es un problema social real; Noble argumenta que la combinación de intereses privados en la promoción de ciertos sitios, junto con el estatus de monopolio de un nĆŗmero relativamente pequeƱo de motores de bĆŗsqueda de Internet, conduce a un conjunto sesgado de algoritmos de bĆŗsqueda que privilegian la blancura y discriminan a las personas de color, especĆficamente a las mujeres de color.Ā»
Human Compatible ā Stuart Russell
Ā«En este libro innovador, el distinguido investigador de la IA Stuart Russell sostiene que este escenario puede evitarse, pero solo si repensamos la IA desde la base. Russell comienza explorando la idea de la inteligencia en los seres humanos y en las mĆ”quinas. Describe los beneficios que podemos esperar a corto plazo, desde asistentes personales inteligentes hasta la aceleración de la investigación cientĆfica, y esboza los avances de la IA que todavĆa tienen que producirse antes de que alcancemos una IA sobrehumana. TambiĆ©n expone las formas que los humanos ya estĆ”n encontrando para hacer un mal uso de la IA, desde las armas autónomas letales hasta el sabotaje viral.
Si se producen los avances previstos y surge una IA sobrehumana, habremos creado entidades mucho mĆ”s poderosas que nosotros mismos. ĀæCómo podemos asegurarnos de que nunca, nunca, tengan poder sobre nosotros? Russell sugiere que podemos reconstruir la IA sobre una nueva base, segĆŗn la cual las mĆ”quinas estĆ”n diseƱadas para ser intrĆnsecamente inciertas sobre las preferencias humanas que deben satisfacer. Esas mĆ”quinas serĆan humildes, altruistas y estarĆan comprometidas a perseguir nuestros objetivos, no los suyos. Este nuevo fundamento nos permitirĆa crear mĆ”quinas que sean probadamente deferentes y probadamente beneficiosas.Ā»
Y la batalla mĆ”s dura contra los algoritmos esā¦
No equivocarte en un captchaā¦