Uno de las mayores debilidades históricas de la humanidad es sin duda el sesgo hacia lo diferente, hacia lo que no opinan igual e inclusive el racismo por la personas que tienen una apariencia distinta en raza, color o etnia; lo cual ha generado a lo largo de la historia lamentables sucesos de segregación racial, étnica y hasta de géneros

Como producto de la creación humana, a su semejanza en gran parte, la Inteligencia Artificial no escapa de este grave flagelo, donde los sistemas han demostrado un sesgo increíble para el reconocimiento facial de personas que no sean blancas y de género masculino.

Es por ello que la gigante americana IBM se ha propuesto a lanzar una serie de datos extensas de su equipo de científicos de desarrollo al dominio publico de empresas y particulares con el fin de lograr socavar esta deficiencia.

En un comunicado colgado en su website, IBM Research indica que pone a disposición mas de un millón de imágenes para mejorar el entrenamiento del sistema de análisis facial donde se destacan atributos de identidad según las etiquetas geográficas de las imágenes de FlicFlickr para equilibrar los datos de varios países y las herramientas de aprendizaje activo para reducir el sesgo de selección de muestras.

El segundo conjunto de datos que pone a disposición del publico IBM es el más interesante. Es apenas 36 mil imágenes, pero las caras que se encuentran dentro son de igual mezcla de etnias, géneros y edades. De la misma manera que las etiquetas de atributos faciales ayudan a entrenar a los sistemas de IA para reconocer estas diferencias, tener una mezcla diversa de rostros debería ayudar a los sistemas a superar varios sesgos.

Ambos conjuntos de datos se obtuvieron a partir de imágenes publicadas en Flickr con licencias de Creative Commons, que a menudo permite su uso con fines de investigación.

De igual forma IBM anuncia la creación de un taller técnico que se llevará a cabo a mediados de septiembre de este año con el fin de identificar y reducir el sesgo en análisis facial, cuyos resultados permitirán junto a la colaboraciones de usuarios y expertos comprender otros sesgos y vulnerabilidades que pueden afectar la toma de decisiones de IA.

Los sistemas comerciales de reconocimiento facial de IBM han sido criticados en el pasado por mostrar los mismos sesgos que este conjunto de datos intenta combatir. Un estudio del MIT Media Lab publicado en febrero encontró que la tasa de error de IBM al identificar el sexo de las mujeres de piel mas oscuras era casi el 35%, mientras que los hombres blancos eran mal generados sólo el 1% de las veces.

Dichos errores serán cada vez mas importantes a medida que los sistemas de reconocimiento facial se utilicen para tareas desde la contratación hasta la identificación de presuntos delincuentes.

IBM ha dejado claro que a medida que la adopción de esta tecnología aumenta, la cuestión de evitar que los sesgos entren en los sistemas de IA esta llegando a la vanguardia.

Han dejado claro, que el poder de las innovaciones avanzadas como la IA, radica en su capacidad de aumentar más no reemplazar la toma de decisiones humanas, por lo que es crucial que estos sistemas puedan comprender los prejuicios implícitos, inconscientes y ser capaz de controlarlos.

Al respecto, el arquitecto jefe de IBM Watson, ha indicado que no estaba al tanto de ningún otro conjunto de datos públicos tan diverso, y que estos deberían ayudar a los diseñadores a ajustar sus algoritmos.

Deja un comentario