Mantente al dรญa con el canal de WhatsApp de CriptoTendencia: Noticias al instante sobre Bitcoin, Altcoins, DeFi, NFT, Blockchain y Metaverso. ยกSuscrรญbete!
La tecnologรญa de reconocimiento facial de Amazon ha generado controversia durante su desarrollo, con crecientes preocupaciones hacia un sesgo conocido en el aprendizaje automรกtico y la privacidad.
Con Amazon en la cรบspide de la concesiรณn de licencias de su tecnologรญa de Rekognition, llamada apropiadamente a las fuerzas del orden de los EE.UU., los empleados ahora se expresan en contra del esfuerzo y lo llaman โpoco รฉticoโ y โpeligrosoโ.
Usando Medium, un presunto empleado anรณnimo verificado por la editorial de ese importante medio; reprendiรณ la tecnologรญa de ‘Big Brother’, afirmando que 450 colegas ya han escrito al CEO Jeff Bezos en protesta. Si bien su intenciรณn es permitir que la policรญa busque automรกticamente a las personas de interรฉs, agilizando el proceso de arresto, el reconocimiento facial en tiempo real a travรฉs de millones de rostros tambiรฉn fortalece los esfuerzos autoritarios.
โNuestra preocupaciรณn no es sobre algรบn daรฑo futuro causado por alguna otra compaรฑรญa: Amazon estรก diseรฑando, comercializando y vendiendo un sistema para vigilancia masiva peligros en este momentoโ afirma el empleado anรณnimo
โEl sitio Web Amazon se jacta de la capacidad del sistema para almacenar y buscar decenas de millones de caras a la vez. La policรญa ya ha comenzado a usar el reconocimiento facial prรกcticamente sin supervisiรณn pรบblica, debate o restricciones de uso de Amazonโ.
Mรกs allรก de las preocupaciones de privacidad viene el sesgo racial y de gรฉnero identificado en la tecnologรญa Gran parte de lo que el empleado describe se hace eco de lo que la Uniรณn Americana de Libertades Civiles (ACLU, por sus siglas en inglรฉs) dijo originalmente en mayo, como se muestra a travรฉs de mรบltiples โpersonas de interรฉsโ falsamente marcadas.
โEl producto que estamos vendiendo es una tecnologรญa defectuosa que refuerza el sesgo existente. Los estudios han demostrado que es mรกs probable que el reconocimiento facial identifique errรณneamente a las personas con piel mรกs oscuraโ, continรบan.
โIncluso si estas inexactitudes fueran corregidas, aรบn serรญa irresponsable, peligroso y poco รฉtico permitir que el gobierno use este software. Los sesgos existentes que produjeron este sesgo existen dentro de una sociedad mรกs amplia y nuestro sistema de justicia. El uso de reconocimiento facial solo reproducirรก y amplificarรก los sistemas existentes de opresiรณnโ.
La compaรฑรญa aรบn tiene que entregarse pรบblicamente a la conversaciรณn en curso, a pesar de la publicaciรณn que afirma que โBezos es conscienteโ de las preocupaciones. En cambio, Amazon acaba de ingresar su segunda fase de prueba de reconocimiento despuรฉs de que las quejas iniciales detuvieron el juicio en Orlando.
Queda por verse cรณmo Amazon evitarรก el uso indebido de su tecnologรญa, en el que โel daรฑo serรก extremadamente difรญcil de deshacerโ una vez que se implemente la vigilancia. En cambio, Bezos supuestamente sugiere โesperar la ‘respuesta inmune’ de la sociedadโ.
Es importante la menciรณn iniciada por el autor en el inicio del articulo y la cual vale la pena resaltar: โCuando una empresa pone las nuevas tecnologรญas en el mundo, tienen la responsabilidad de pensar en las consecuenciasโ.
Sin duda alguna, a pesar del รฉxito en ventas de este programa y de la utilidad quizรกs pensada en el gigante americano sobre el โbienโ de la justicia, la realidad es que ante las fallas demostradas por IBM por ejemplo, en los algoritmos de IA, asรญ como la cuestionable รฉtica de รฉstos al momento del sesgo del gรฉnero y color, serรญa un reto aรบn importante por mejorar para todos los desarrolladores de este tipo de tecnologรญa con el fin de hacerlo mas preciso y evitar complicaciones futuras, por que al fin y al cabo la tecnologรญa estรก ahรญ para mejorar nuestras vidas, no para degradarlas.

















