“Si un robot se
vuelve loco, ¿quién tendrá la culpa? Seguramente no el robot”, argumenta
la ONG
Texto completo
en: http://actualidad.rt.com/actualidad/view/78881-human-rights-watch-robots-asesinos
Human Rights Watch ha pedido que los gobiernos
prohíban el desarrollo de robots militares automáticos que busquen objetivos
para atacar y tomen por su cuenta la decisión de matar. “Pedimos una prohibición
del desarrollo, producción y uso de estas armas completamente autónomas, tanto a
nivel nacional de Estados Unidos como a través de un tratado internacional que
las prohíba de forma integral”, instó Steve Goose, director de la división de
Armas de esta ONG, en una rueda de prensa que tuvo lugar el lunes en Washington.
En la comparecencia Goose presentó el informe preparado por la organización
titulado ‘Losing Humanity: The Case against Killer Robots’ (‘Perdiendo la
humanidad: el caso contra los robots asesinos’). Según Human Rights Watch entre
los países involucrados en el desarrollo de estas armas están EE.UU., China,
Rusia, Corea del Sur, Israel, Alemania y el Reino Unido.
Las tecnologías ya
existen Los drones usados en los ataques en Pakistán, Afganistán y Yemen son
controlados por personas y no pueden matar sin autorización humana. En el
informe Human Rights Watch advierte que aunque la creación de robots militares
completamente autónomos puede tardar 20 o 30 años, ya existen tecnologías que
necesitan poca intervención humana. Por ejemplo, el sistema de armamento Phalanx
usado en los buques estadounidenses es capaz de detectar el fuego y destruir los
proyectiles adversarios por su cuenta.
Northrop Grumman X-47 Pegasus es un drone
de tamaño de un avión normal que puede despegar y aterrizar en los buques
portaaviones sin un piloto y hasta pueden repostar gasolina en el aire.
northropgrumman.com Finalmente el mecanismo quizá más parecido a una especie de
‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del
Sur. El robot es capaz de registrar movimientos en el territorio, conversar con
los visitantes y, en caso de recibir la autorización de un controlador humano,
disparar. hrw.org Riesgo inaceptable para los civiles
Muchos países están muy
interesados en crear robots capaces de atacar sin intervención humana para poder
minimizar la intervención de tropas y disminuir la cantidad de muertes de los
soldados, destacó Goose en la rueda de prensa. Pero, alertó, la aplicación de
robots que seleccionan objetivos para atacar pone en peligro a los civiles,
porque los robots no distinguirán si una persona es militar, ni sienten
compasión o enfado. Por otro lado, el organismo asegura en el informe que
dificulta la búsqueda de responsabilidades, porque los robots no pueden ser
condenados por sus actos ni está claro quién podría asumir la responsabilidad en
la jerarquía militar.
“Si un robot se vuelve loco, ¿quién va a ser responsable?
Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la
Universidad de Sheffield. “No hay ninguna manera de definir quién tiene que
asumir la responsabilidad, algo que es muy importante para la ley marcial”.
Además, cree que se entraría en guerras con mayor facilidad y los regímenes
dictatoriales podrían usarlo para ir en contra de su propia población
No hay comentarios.:
Publicar un comentario