Regístrate en Bitget y obtén hasta 100 USDT en bonos completando simples tareas. Oferta por tiempo limitado.

Cuando la gente piensa en la inteligencia artificial (IA), a menudo vienen a la mente escenas de asesinos de androides y computadoras no aprobadas.

Películas de Hollywood como «Blade Runner» y «The Terminator» nos han inculcado un sentimiento de temor ante la idea de que una IA vaya en contra de su programación y se vuelva contra los humanos.

Para una industria que podría generar más de 1 billón de dólares en valor comercial este año, y casi 4 billones en 2022, cualquier duda importante sobre sus implicaciones éticas podría tener consecuencias significativas.

A medida que la inteligencia artificial se aproxima cada vez más a la madurez y las empresas continúan incrementando las inversiones en ella, a algunos les preocupa que no se esté prestando suficiente atención a las implicaciones sociales y morales más amplias de la tecnología.

En este sentido, CNBC habló con algunos expertos para ver cuáles creen que son los cinco escenarios futuros más espeluznantes para la inteligencia artificial.

1- Desempleo masivo

Un temor común entre los analistas y, de hecho, los trabajadores, es la probabilidad de que la inteligencia artificial dé lugar a un desempleo global masivo a medida que los empleos se automatizan y el trabajo humano ya no es necesario.

«Las pérdidas de empleos son probablemente la mayor preocupación», dijo Alan Bundy, profesor de la escuela de informática de la Universidad de Edimburgo.

Según Bundy, la pérdida de empleos es la razón principal del aumento del populismo en todo el mundo; cita como ejemplo la decisión del presidente Donald Trump y la decisión del Reino Unido de retirarse de la Unión Europea,

«Habrá una necesidad para los humanos de organizar una colección de aplicaciones de enfoque restringido, y detectar los casos límite que ninguno de ellos pueda manejar, pero esto no reemplazará el desempleo masivo esperado, al menos no por un muy largo tiempo», agregó.

Los defensores de AI dicen que la tecnología conducirá a la creación de nuevos tipos de trabajos.

Se intensificará la necesidad de ingenieros, ya que la sofisticación de la nueva tecnología requiere el talento adecuado para desarrollarla.

La firma de investigación Gartner predice que AI creará 2,3 millones de empleos y eliminará 1,8 millones, un aumento neto de 500,000 empleos para 2020. Eso no elimina el hecho de que provocaría despidos en todo el mundo.

Un estudio de 2013 de la Universidad de Oxford menciona con frecuencia que algunos de los trabajos más reemplazables incluyen empleados de corretaje, cajeros de bancos, aseguradores y preparadores de impuestos, ocupaciones críticas, aunque menos capacitadas, que mantienen la industria financiera en movimiento.

2- Guerra

Por otra parte, el advenimiento de los llamados «robots asesinos» y otros usos de la inteligencia artificial en aplicaciones militares ha preocupado a expertos ya que estos alegan que la tecnología podría llevarnos a la guerra.

El presidente ejecutivo de Tesla, Elon Musk, conocido por sus opiniones abiertas sobre la IA, advirtió el año pasado que la tecnología podría resultar en la Tercera Guerra Mundial.

Aunque conocido por su hipérbole, el comentario de Musk canalizó un temor muy real para los expertos. Algunos analistas y activistas sostienen que el desarrollo de armas letales autónomas y el uso de la inteligencia artificial en la toma de decisiones militares crea una multitud de dilemas éticos y abre la posibilidad de guerras intensificadas o lideradas por la IA.

Frank van Harmelen, un investigador de IA de la Vrije Universiteit Amsterdam, dijo que aunque no creía que usar la palabra «miedo» para describir a AI fuera completamente exacto, el uso de estas armas debería asustar a cualquiera.

«La única área donde realmente creo que la palabra “miedo” se aplica es a un sistemas de armas autónomas… sistemas que pueden o no parecerse a un robot», dijo Harmelen.

«Cualquier sistema informático, ya sea AI o no, que automáticamente decide sobre asuntos de vida o muerte, por ejemplo, lanzando un misil, es una idea realmente aterradora».

A principios de este año, el grupo de expertos de defensa estadounidense Rand Corporation advirtió en un estudio que el uso de IA en aplicaciones militares podría dar lugar a una guerra nuclear para 2040.

El pensamiento detrás de esa audaz predicción fue que la posibilidad de que un sistema militar de Inteligencia Artificial cometa un error en su análisis de una situación podría llevar a las naciones a tomar decisiones apresuradas y potencialmente catastróficas.

Esas preocupaciones surgieron de un incidente infame en 1983, cuando el ex oficial del ejército soviético Stanislav Petrov notó que las computadoras rusas habían emitido una advertencia incorrecta de que los Estados Unidos habían lanzado misiles nucleares, evitando la guerra nuclear.

Analisis de la Inteligencia Artificial 2

3- Medicina

En cuanto a medicina, aunque los expertos están de acuerdo sobre los beneficios que la IA proporcionará a los médicos, como diagnosticar enfermedades desde el principio y acelerar la experiencia general de atención clínica, algunos galenos y académicos son cautelosos en cuanto a las prácticas médicas basadas en datos rápido.

Uno de los temores entre los académicos es que las personas esperan demasiado de la IA, suponiendo que pueda formar el tipo de inteligencia general que los humanos poseen para resolver una amplia gama de tareas.

«Todas las aplicaciones de inteligencia artificial hasta la fecha son increíblemente exitosas, pero en un rango muy reducido de usos», dijo Bundy de la Universidad de Edimburgo.

Según Bundy, estas expectativas podrían tener consecuencias potencialmente graves para una industria como la sanidad. «Una aplicación de diagnóstico médico, que es excelente para problemas cardíacos, podría diagnosticar a un paciente con cáncer con algún tipo raro de problema cardíaco, con resultados potencialmente fatales», dijo.

Apenas la semana pasada, un informe de la publicación centrada en la salud, Stat, citó documentos internos de IBM que mostraban que la supercomputadora Watson del gigante tecnológico había hecho múltiples recomendaciones «inseguras e incorrectas» para el tratamiento del cáncer. Según el artículo, el software fue entrenado solo para tratar con un pequeño número de casos y escenarios hipotéticos en lugar de datos reales del paciente.

«Creamos Watson Health hace tres años para llevar la AI a algunos de los mayores desafíos en el cuidado de la salud, y estamos satisfechos con el progreso que estamos logrando», dijo un portavoz de IBM a CNBC.

«Nuestras ofertas de oncología y genómica son utilizadas por 230 hospitales de todo el mundo y han apoyado la atención de más de 84,000 pacientes, que es casi el doble de pacientes a finales de 2017».

El vocero agregó: «Al mismo tiempo, hemos aprendido y mejorado Watson Health en base a la retroalimentación continua de los clientes, nueva evidencia científica y nuevos cánceres y alternativas de tratamiento. Esto incluye 11 lanzamientos de software para una funcionalidad aún mejor durante el año pasado, incluyendo pautas nacionales para diferentes tipos cánceres que van desde el colon hasta el hígado».

Analisis de la Inteligencia Artificial 3

4- Vigilancia masiva

Otra preocupación es que el volumen de datos engullidos por las computadoras y compartidos sobre ellos -así como los algoritmos basados ​​en datos que automatizan las aplicaciones al usar esos datos- podría tener implicaciones éticas sobre la privacidad de los pacientes.

El comienzo de los macro-datos, ahora una industria multimillonaria que abarca desde comercio hasta hospitalidad, significa que la cantidad de información personal que pueden recolectar las máquinas se ha disparado a un tamaño insondable.

El fenómeno se promociona como un gran adelanto para el mapeo de diversas enfermedades, que predice la probabilidad de que una persona se enferme gravemente y examine el tratamiento con anticipación. Pero las preocupaciones sobre la cantidad de datos que se almacenan y dónde se comparten están resultando problemáticos.

Por otra parte, los expertos también temen que la inteligencia artificial pueda ser utilizada para la vigilancia masiva. En China, ese miedo parece convertirse en realidad.

En varios municipios chinos, la combinación de tecnología de reconocimiento facial e IA se está utilizando en beneficio de las autoridades para reprimir el delito.

La superpotencia mundial es conocida por su autoritarismo social, ya que el culto a la personalidad del difunto presidente Mao Zedong sigue siendo muy omnipresente en toda la nación, cuatro décadas después de su muerte. Y los críticos dicen que el impulso del país hacia la vigilancia total es nada menos que una pesadilla orwelliana.

Actualmente, China alberga unos 200 millones de cámaras de vigilancia, según un informe del New York Times publicado a principios de este mes. También es el único país del mundo que desarrolla un «sistema de crédito social» que rastrea las actividades de los ciudadanos para clasificarlos con puntajes que pueden determinar si pueden prohibir el acceso a todo, desde vuelos de avión hasta ciertos servicios de citas en línea.

China, que aspira a ser el líder mundial en inteligencia artificial para el año 2030, quiere aumentar el valor de su sector de IA a 1 billón de yuanes (146.6 mil millones de dólares). El país está invirtiendo miles de millones en la industria para ayudar a impulsar esta ambición.

Toby Walsh, profesor de AI en la Universidad de Nueva Gales del Sur, dijo que la vigilancia estaba «en lo alto» en su lista de las aterradoras ramificaciones que surgen de la IA.

Analisis de la Inteligencia Artificial 4

5- Discriminación

Algunos lectores pueden recordar Tay, un chatbot de IA creado por Microsoft que causó revuelo hace dos años.

El bot recibió una cuenta de Twitter y los usuarios tardaron menos de un día en entrenarla para publicar tweets ofensivos que apoyan a Adolf Hitler y la supremacía blanca. El problema aquí fue el hecho de que el chatbot fue entrenado para imitar a los usuarios que interactúan con él en línea. Teniendo en cuenta la naturaleza a menudo oscura de algunos rincones de Internet, podría decirse que los tweets ofensivos no eran sorprendentes.

El error obligó a Microsoft a retirar la cuenta. Aunque el incidente resultó algo humorístico, encendió un debate serio sobre la posibilidad de que AI se vea perjudicada.

Walsh dijo que la discriminación es una de las «consecuencias inesperadas» que se esperan de la tecnología.

«Estamos viendo esto con un sesgo involuntario en los algoritmos, especialmente el aprendizaje automático que amenaza con generar sesgos raciales, sexuales y de otro tipo que hemos pasado los últimos 50 años tratando de eliminar de nuestra sociedad», señaló.

El tema, según los expertos, se relaciona con la factibilidad de hacer de AI un pensador objetivo y racional, sin sesgos a favor de una raza, género o sexualidad en particular.

Es algo en lo que los investigadores y desarrolladores han pensado seriamente, examinando aspectos como la forma en que la tecnología de reconocimiento facial se ve mejor en las caras blancas que las negras, y cómo los sistemas de inteligencia artificial pueden presentar prejuicios, asociando ciertos géneros y razas con funciones estereotipadas.

IBM incluso tiene investigadores dedicados a abordar la discriminación en IA, y este año dijo que lanzaría dos conjuntos de datos que contienen una amplia gama de rostros con diferentes tonos de piel y otros atributos faciales para reducir el sesgo en los sistemas de reconocimiento facial accionados por inteligencia artificial.

Fuente: CNBC

Deja un comentario