Portada>China
spanish.china.org.cn | 29. 07. 2015 | Editor: Elena Yang [A A A]

Stephen Hawking y otros científicos piden la prohibición de los "robots asesinos"

Palabras clave: Stephen Hawking y otros científicos piden la prohibición de los "robots asesinos"

Stephen Hawking y otros científicos piden la prohibición de los 'robots asesinos'
A diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones de expertos sobre la cuestión en Ginebra.
Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados para la población civil.
Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentística.
"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas (..) Y señores de la guerra que deseen perpetrar limpiezas étnica, etc." dice el texto.
La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad" pero "el inicio de una carrera armamentista de IA militar es una mala idea".
Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.

   Anterior   1   2  


   Google+

Comentarios (Total 0 comentarios)

Tu comentario
Nombre
Anónimo
Comentarios (0)

Más vistos