¿Te ha rechazado una Inteligencia Artificial?
¿A quién reclamas? ¿Ha sido justa la decisión? ¿Qué implicaciones éticas tiene?
Los procesos en los que se utiliza una inteligencia artificial son cada vez más habituales. Es omnipresente, a menudo incrustada de manera invisible en nuestras vidas. Desde la concesión de un crédito o una ayuda por parte de la administración, a un proceso de selección laboral.
Hay diferentes tipos de inteligencia artificial. Hay IA’s no supervisadas, es decir, que trabajan de forma autónoma y también aquellas que necesitan la aprobación humana para tirar adelante una decisión. Los procesos de automatización suelen utilizar la primera. Es una manera fácil de descargar flujos de trabajo burocratizados. Pero estos algoritmos pueden tomar decisiones erróneas, decisiones que tengan un sesgo.
Los sesgos en la inteligencia artificial dependen de muchos factores:
Desde los datos que se utilicen en el entrenamiento. Estos pueden no ser representativos. Tanto a la hora de tomar a un solo grupo como un total. Hombres respecto de mujeres, blancos respecto de otras razas. Si solo entrenamos al algoritmo con uno de los grupos y no con el conjunto, seguro que sus decisiones serán discriminatorias.
Desde el lado de la programación. Cada equipo, cada programador tiene su propia perspectiva de las cosas, tiene su nivel de preferencias y en definitiva pueden imprimir un sesgo no voluntario en el código que están programando.
También desde el lado de su propia evolución. Esto quiere decir que una IA perfectamente programada, y con unos datos adecuados para su aprendizaje inicial, seguramente al aprender basándose en sus interacciones, acabaría adoptando algún sesgo de comportamiento.
Si tenemos en cuenta los sesgos más habituales, la inteligencia artificial puede ser discriminatoria en cuanto a género, perjudicar a las mujeres. Un caso constatado es la que utilizaba Amazon para la selección de personal y se descubrió que favorecía a los hombres a la hora de dar un puesto. Aquí uno de los factores que influyeron en la creación del sesgo fue la base de datos disponible.
La diversidad tampoco es su fuerte. Los casos en los que la población negra ha sido discriminada se pueden encontrar sin ningún problema. Aquí los problemas pueden venir desde el lado programación, al factor datos de entrenamiento. El caso es que, en muchas ocasiones, las inteligencias artificiales que emulan nuestro comportamiento acaban asumiendo alguno de los prejuicios que todo el mundo tiene.
Volvamos a su uso en los procesos de selección de personal. Ya hemos comentado el caso de Amazon que generaba discriminación de género. Hay que tener en cuenta que en determinado tipo de empresas ya es habitual que los procesos de selección tengan como protagonista una IA. El problema puede llegar si la decisión recae en el algoritmo y que esta sea inapelable, ya que lo que dice el asistente “va a misa”. Además si el algoritmo utilizado es de caja negra, es decir, que no es auditable el proceso de decisión llevado a cabo, peor todavía, porque no se puede saber exactamente el porqué de la decisión.
Pero saberse rechazado por una Inteligencia Artificial y no poder hacer nada puede suponer una sensación de impotencia que sería bueno evitar. Creo que la importancia del ser humano, de su contacto es imprescindible. Y no solo en procesos de selección de personal, en cualquier otro tipo de decisión que pueda afectarnos la vida. Ya que un algoritmo puede tomar una decisión, pero en ningún caso entenderla.
La pregunta que nos podemos hacer es ¿quién define la Inteligencia Artificial? La respuesta es compleja. La cultura de cada país puede influir claramente en como se moldea un algoritmo. Por ejemplo en Japón el cuto sintoísta siempre ha visto las máquinas como una ayuda, mientras que en Europa tenemos una clara influencia del mito Frankenstein. También son las empresas y los gobiernos los que acaban configurando como deben ser estos algoritmos, por lo tanto, tener una buena salud democrática debería garantizar una Inteligencia Artificial adecuada para todos.
El problema clave son las consecuencias éticas que se derivan de la toma de decisiones de una Inteligencia Artificial. Es la confianza que se genera en un ente que no es transparente, que no sabemos como toma las decisiones. Es la continuación de los sesgos que tenemos como sociedad y su intensificación.
La ciudadanía debe estar vigilante, la sociedad debe ser proactiva en la definición de la visión conjunta de la Inteligencia Artificial. El conocimiento necesario para entender todo lo que implica el uso de la IA debe estar al alcance de políticos y ciudadanos.
Señales en el suelo para la COVID-19
El Archivo de Gráficos Pandémicos es una colección en proceso de elaboración de carteles y señales de suelo que se están utilizando para marcar distancia y uso de máscaras en muchas ciudades.
El suelo es un espacio idóneo para hacer llegar a los peatones un determinado mensaje. Habitualmente se centran en consejos / recomendaciones sobre como circular por la calle. Tienen la misma función que las señales de tráfico pintadas en el suelo, que son marcas pintadas para indicar las reglas de circulación básicas.
Al no haber un manual estandarizado cada ciudad ha implementado como mejor ha podido sus propias señales. Aunque sí que podemos encontrar recomendaciones como las que hace la Junta de Extremadura respecto de su uso y colocación. Y desde luego con una pequeña búsqueda podemos encontrar multitud de empresas que ofrecen todo tipo de vinilos y señales para poner en el suelo.
¿Hay alguna señal en tu ciudad que te haya llamado la atención? ¿Crees que son útiles?
5 noticias que no debes dejar escapar
Que Tesla invierta 1,5b$ en Bitcoin y que lo acepte en futuros pagos ha sido todo un empujón para la crypto. Una vez más @elonmusk modela el futuro. Es increíble la influencia que Elon puede ejercer tanto en persona como a través de sus empresas. Y respecto a Bitcoin su normalización va camino de ser un hecho tal y como explica Enrique Dans.
Ayer mismo os comentaba que ClubHouse se había vuelto un paraíso para la disidencia en China y me preguntaba cuanto tardaría su gobierno en cerrar la aplicación. Pues bien, no ha tardado mucho en reaccionar, Pekín ha bloqueado la aplicación.
Si teletrabajas, Málaga te espera: la ciudad lanza Málaga WorkBay para atraer a trabajadores remotos. Los programas de atracción de trabajo en remoto y de empresas empiezan a ser básicos para modelar las nuevas ciudades. Unas Smart City que ahora deben empezar a pelear para no perder población gracias al éxodo que el teletrabajo está facilitando. ¿Veremos en breve pequeños focos de atracción en conjunción con grandes ciudades?
Un hacker se infiltra en la planta de tratamiento de agua e intenta envenenar la ciudad. La ciberseguridad en las ciudades es vital en cualquier infraestructura como las depuradoras de agua. Las ciudades deben actualizar sus protocolos, software y sobre todo cuidar el eslabón más débil, el usuario de los sistemas.
Facebook se menciona más que Parler en las demandas relacionadas con los disturbios del Capitolio. En esos documentos, Facebook se menciona más de 70 veces, mientras que Instagram y YouTube solo se mencionan unas docenas de veces como máximo, mientras que Parler solo aparece ocho veces. Vaya, parece que Facebook tuvo un papel más destacado en el asalto al Capitolio de lo que parece y pese a todas las medidas de prevención que tomó previamente.