Tecno

IA para reconocimiento emocional, ¿un peligro?

Retomando con los artículos de la tecnología liderando la cuarta revolución industrial, la Inteligencia Artificial, nos encontramos con un dilema. Lo que está ocurriendo dentro de la comunidad de desarrolladores IA es un debate si es seguro continuar las investigaciones de Reconocimiento Emocional.

Tipos de Reconocimiento

Este tema lo hemos expuesto en anteriores ocasiones, sin embargo, es momento de explicar a fondo que se refiere este derivado de IA. El reconocimiento emocional consiste que la plataforma analiza los rasgos faciales de una persona. De esta forma busca determinar el tipo de emoción que está experimentando.

Se podría decir que es un derivado del reconocimiento facial, sin embargo, es más amplio que eso. Considerando que las plataformas IA de reconocimiento emocional utilizan el facial para funcionar.

El dilema

El Instituto de Investigación IA Now en su informe anual planteó que este desarrollo debería prohibirse totalmente. Alegan que el reconocimiento emocional con IA es un peligro.

A pesar de la falta de evidencia de que las IA puedan determinar cómo nos sentimos es un mercado creciente. Se estima que el reconocimiento de emociones es de al menos un mercado de $ 20 mil millones, y está creciendo rápidamente.

La tecnología se está utilizando actualmente para evaluar a los solicitantes de empleo y las personas sospechosas de delitos, y se está probando para otras aplicaciones, como en los auriculares VR para deducir los estados emocionales de los jugadores.

También hay evidencia de que el reconocimiento de emociones puede amplificar las disparidades de raza y género. Los reguladores deberían intervenir para restringir en gran medida su uso, y hasta entonces, las compañías de inteligencia artificial deberían dejar de implementarlo, dijo IA Now.

Específicamente, citó un estudio reciente de la Asociación de Ciencias Psicológicas, que pasó dos años revisando más de 1.000 informes sobre detección de emociones y concluyó que es muy difícil usar solo expresiones faciales para saber con precisión cómo se siente alguien.

En su informe, IA Now pidió a los gobiernos y las empresas que dejen de usar la tecnología de reconocimiento facial para aplicaciones sensibles hasta que los riesgos se hayan estudiado adecuadamente, y atacó a la industria de la IA por su «racismo sistémico, misoginia y falta de diversidad«. También pidió la divulgación obligatoria del impacto ambiental de la industria de la IA.

Entradas recientes

El precio de BNB se puede ir al alza con la nueva estrategia de Binance

El precio de BNB puede irse al alza con la nueva estrategia de Binance, aunque estos días estará corrigiendo. Aquí…

38 mins

THORChain (RUNE) escala un 78%

La reactivación de los pools de Ethereum hace que el token de THORChain (RUNE) escale un 78% ¡Esto es imparable!…

6 horas

Shiba Inu marca un nuevo máximo histórico. ¿Qué está pasando?, ¿hacia dónde va?

La criptomeme Shiba Inu acaba de marcar un nuevo máximo histórico. Acá un análisis de lo sucedido y un pronóstico…

7 horas

Chainlink tiene un gran potencial alcista ¿Qué lo detiene?

Nuestra proyección a corto plazo de Chainlink (LINK) es bajista, pero hay fundamentos que lo pueden llevar al alza a…

14 horas

China, Rusia y Kazajistán protagonizan esta semana en materia de minería Bitcoin

En esta edición número 59 de nuestro clásico resumen semanal, los países euroasiáticos protagonizan en materia de minería de Bitcoin.

19 horas

Usamos cookies para optimizar el tiempo de carga. No recolectamos ninguna información.