Categorías: Tecno

¿La Inteligencia Artificial de Google es racista?

En nuestro artículo «Microsoft diseñando una IA para aprender a traducir» expusimos las complicaciones que poseen las plataformas basadas en Inteligencia Artificial para analizar textos, dado que requieren comprender el contexto alrededor de lo planteado, que varia según la procedencia del autor. Esto implica que pueden existir problemas al momento de cumplir la labor, como es en el caso de Google, llegando a un problema racial.

De acuerdo investigadores del MIT, los sistemas de inteligencia artificial destinados a detectar contenido en línea abusivo tienen muchas más probabilidades de etiquetar los tweets como «ofensivos» si fueron publicados por personas que se identifican como afroamericanos.

Los investigadores construyeron dos sistemas de IA y los probaron en un par de conjuntos de datos de más de 100.000 tweets que habían sido anotados por humanos con etiquetas como «ofensivo», «ninguno» o «discurso de odio». Uno de los algoritmos incorrectamente marcó el 46% de los tweets inofensivos de autores afroamericanos como ofensivos.

Las pruebas en conjuntos de datos más grandes, incluido uno compuesto por 5.4 millones de tweets, encontraron que las publicaciones de autores afroamericanos tenían 1.5 veces más probabilidades de ser calificadas como ofensivas. Cuando los investigadores probaron la Perspectiva de Google, una herramienta de IA que la compañía permite que cualquiera use para moderar las discusiones en línea, encontraron prejuicios raciales similares.

Considerando los tiroteos masivos perpetrados por los supremacistas blancos en los EE. UU. Y+y Nueva Zelanda han llevado a crecientes llamados de los políticos a que las plataformas de redes sociales hagan más para eliminar el discurso de odio. Estos estudios subrayan cuán complicada es una tarea.

Si el lenguaje es ofensivo puede depender de quién lo diga y quién lo escuche. Por ejemplo, una persona negra que usa la «palabra N» es muy diferente de una persona blanca que la usa. Pero los sistemas de inteligencia artificial no comprenden, y actualmente no comprenden ese matiz.

El riesgo de apresurar utilizar software para eliminar automáticamente el lenguaje ofensivo, se corre el riesgo de silenciar las voces minoritarias. Moderar el contenido en línea es un trabajo traumático y difícil, por lo que las empresas tecnológicas están dispuestas a confiar en los sistemas de inteligencia artificial en lugar de los seres humanos (también son mucho más baratos).

Este caso es similar a nuestro artículo «San Francisco prohíbe el reconocimiento facial por sus fallas«, en el cual de nuevo es un tema racial y un fallo de plataformas de IA. Entonces hacemos la pregunta, ¿se deberían prohibir las plataformas de detección automática de textos ofensivos por las fallas raciales?.

Entradas recientes

Presidente de Rusia está a favor de aceptar las criptomonedas como medio de pago

Vladimir Putin, presidente de Rusia dijo que las criptomonedas "tienen derecho a existir» y ser usadas como método de pago.

10 horas

Precio de Bitcoin se mantiene por encima de los USD 60.000

Durante la jornada de este sábado, el precio de la criptomoneda líder del mercado, Bitcoin, se mantiene por encima de…

11 horas

¡MicroStrategy duplicó su inversión en Bitcoin!

La apuesta de Michael Saylor vale la pena. Ya que la inversión de Bitcoin de MicroStrategy duplica su valor ¡Te…

11 horas

Prestamista hipotecario de Estados Unidos ya no aceptará criptomonedas

Prestamista hipotecario de Estados Unidos, United Wholesale Mortgage (UWM) ya no aceptará pagos con criptomonedas ¿Qué habrá pasado?

15 horas

Las criptomonedas podrían causar una crisis financiera como la ocurrida en 2008, según funcionarios del Banco de Inglaterra

El vicegobernador del Banco de Inglaterra, Jon Cunliffe, ha alertado sobre el peligro que representan las criptomonedas para la economía.

22 horas

Usamos cookies para optimizar el tiempo de carga. No recolectamos ninguna información.