La Inteligencia Artificial (IA), está siendo utilizada para mejorar la eficiencia en diferentes empresas y facilitar la realización de algunas tareas para los seres humanos. Sin embargo, esta tecnología no es infalible y Amazon lo comprobó cuando se vio en la obligación de desechar una IA que era sexista.

Un algoritmo que estaba siendo probado como una herramienta de reclutamiento por la compañía, demostró tener preferencia hacia uno de los sexos.

Este sistema fue capacitado con datos presentados por una gran cantidad de solicitantes en un período de 10 años, los cuales en su mayoría eran hombres. Esto trajo como consecuencia que la IA considerara más capaces a los hombres que a las mujeres para obtener un puesto laborar en la empresa.

Los desarrolladores del sistema, en una entrevista para Reuters, explicaron que el algoritmo tenía la finalidad de revisar las solicitudes de empleo de los candidatos y darles una clasificación de 1 a 5 estrellas. “Literalmente querían que fuera un motor en el que les daré 100 hojas de vida, escupirá los cinco primeros y los contrataremos”, afirmó uno de los diseñadores de la IA.

Sin embargo, está claro que aún necesita mejoras, ya que la IA entendió que eran preferibles los candidatos hombres que las mujeres. Amazon aún no ha respondido a los reclamos ocasionados por la tecnología defectuosa.

El sistema lleva años desarrollándose. Para el 2015 estaba claro que no calificaba a los candidatos de forma neutral. De hecho, la IA comenzó a penalizar los currículos que incluían la palabra “mujeres”. El programa fue editado para hacerlo neutral y elanzado este año, pero siguió presentando tendencias sexistas.

Esto aumenta las dudas sobre qué tan confiable pueda ser la Inteligencia Artificial para algunas labores. Según una encuesta realizada por la firma de software CareerBuilder, alrededor del 55% de los gerentes de recursos humanos en Estados Unidos aseguran que la IA tendrá un papel importante en el reclutamiento de trabajadores en los próximos cinco años, por lo que se espera que los problemas de sesgos sean solucionados a la brevedad posible.

Este no es el único caso de IA parcializadas. En mayo del año pasado, un programa generado con Inteligencia Artificial utilizado por un tribunal de Estados Unidos, tenía prejuicios contra las personas de color, ya que las marcaba como dos veces más propensas a reincidir en actividades criminales que las personas blancas.

Deja un comentario