La Inteligencia Artificial (IA), ha mejorado muchos aspectos en la actualidad; desde hacer más eficiente a una compañía hasta ayudar en el sector de la medicina, esta tecnología está decidida a cambiar la forma en la que la humanidad ve al mundo. Sin embargo, no siempre se utiliza para fines inocentes.

El riesgo de que la IA se utilice para realizar armamentos cada día es más real. De hecho, en Rusia ya existen algunos prototipos de misiles que emplean esta tecnología para el reconocimiento de objetivos. Pero que la decisión de atacar o no esté en manos de una máquina ha encendido las alarmas a nivel internacional.

Es por eso que la organización sin fines de lucro, Future of Life Institude (FLI), la cual figura entre las principales investigadoras de Inteligencia Artificial en el mundo, decidió organizar una reunión para hacer frente a esta problemática.

Los principales representantes, investigadores y desarrolladores de IA se reunieron en Estocolmo, Suecia, en la Conferencia Internacional Anual de la Inteligencia Artificial, acordaron “no participar ni apoyar el desarrollo, fabricación, venta o uso de armas letales autónomas”, según reporta Infobae.

En el documento, figura que “la Inteligencia Artificial (IA) desempeñará un rol cada vez más importante en los sistemas militares. Hay una oportunidad y necesidad urgente para que los ciudadanos, legisladores y los líderes distingan entre los usos aceptables e inaceptables de la Inteligencia Artificial”.

El uso inaceptable al que hace referencia el documento es para sustentar Armas Letales con Sistemas Autónomos (LAWS, por sus siglas en inglés), que son equipos con la capacidad de apuntar y asesinar a personas por su cuenta, sin intervención alguna de un humano.

“No le podemos dejar la decisión sobre quién vive y quién muere a las máquinas. Ellas no tienen la ética para hacerlo”, afirma Toby Walsh, miembro de la Universidad de New South Wales en Sidney, Australia. Y uno de los firmantes del acuerdo. “Los animo a ustedes y sus organizaciones a comprometerse a garantizar que la guerra no se ha vuelto más terrible de esta manera”.

El compromiso fue suscrito por más de 2.400 personas y 160 empresas de 36 países, todos relacionados con el desarrollo de Inteligencia Artificial. Entre ellos destacan algunos nombres como el MIT, Cambrige University, Boston University, la Asociación Europea para la IA y hasta Elon Musk.

Al final del documento, los firmantes del documento hicieron un llamado a los gobiernos y líderes mundiales solicitando que “generen normas, regulaciones y leyes fuertes en contra de las armas letales autónomas.

Porque, más allá de qué tan ético sea dejar la decisión de atacar a una máquina, las armas con IA son particularmente difíciles de controlar, corren el riesgo de ser hackeadas, que caigan en manos de algunos grupos insurgentes o que suceda algún error tecnológico y, debido a esto, ocurra una catástrofe.

La frase “un gran poder conlleva una gran responsabilidad”, explica perfectamente lo que está sucediendo actualmente con la IA. Los avances tecnológicos han demostrado traer infinidad de beneficios para la humanidad; sin embargo, está la otra cara de la moneda, que representa la cantidad de daño que se le ha hecho a gran cantidad de personas debido a estos avances.

Con esto no se quiere decir que la evolución o la tecnología sean malas, lo que se quiere es resaltar que, los grandes desarrolladores de estas innovaciones tienen una gran responsabilidad en sus manos y deben velar porque ese poder por el cual trabajan sea utilizado a favor y no en contra de la humanidad.

Deja un comentario