Un reciente informe preparado por el departamento de Ethics and Emerging Technology de la California State Polytechnic University para la Oficina de Investigación Naval de la Marina de los Estados Unidos, advierte sobre los peligros de los usos de robots en combate y hace sugerencias sobre el código de conducta que deberían tener, lo que podría no resultar tan sencillo con el creciente avance de las tecnologías en inteligencia artificial. Segun este estudio, una de las incognitas es cómo responderán los algoritmos usados en los casos reales, en que las consecuencias de un error pueden ser catastroficas.


Así con este párrafo abro la polémica abierta tras un incidente ocurrido en Irak con robots militares y soldados americanos, que ha pasado desapercibido por la mayor parte de medios de comunicación.

El ejército estadounidense ha decidido retirar los robots de combate que había desplegado en Irak, después de un incidente en el que uno de estos dispositivos empezó a mover su arma sin haber recibido instrucciones para esta maniobra.
El robot implicado en el incidente es el SWORD, un robot teledirigido que puede equiparse con un amplio abanico de armas, aunque la preferencia es una ametralladora del calibre 50.

Estos robots se manejan mediante radiocontrol, y el incidente consistió en que uno de ellos empezó a mover su arma sin que el operador accionara los mandos correspondientes. La causa mas probable del fallo es algún problema de software.

Aunque el robot no llegó a abrir fuego y, en consecuencia, no hubo riesgo alguno para los soldados, la posibilidad de que un aparato equipado con una ametralladora pueda descontrolarse es lo suficientemente preocupante como para que los militares haya decidido no seguir utilizando estos robots.
En Irak se habían desplegado cuatro de estos robots armados, aunque estaba planeado desplegar 18 mas.

El SWORD es una versión modificada de Talon, un robot de apoyo que el ejército estadounidense viene utilizando desde el año 2000 en misiones de vigilancia y desactivación de explosivos.

"Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero".

Un informe preparado y financiado por la Oficina de Investigación Naval, un organismo secreto y de alta tecnología perteneciente a la Marina de Estados Unidos, realiza esta cruda advertencia e incluye también consideraciones acerca de un eventual escenario al estilo de 'Terminator' en el que los robots se vuelvan contra sus dueños humanos.
El informe, el primer trabajo serio de esta índole sobre la ética de los robots soldados, prefigura para un futuro cada vez próximo, una era en la que los robots serán suficientemente inteligentes como para tomar decisiones en el campo de batalla que hasta ahora se han reservado a los humanos. Al final, advierte, los robots podrían llegar a desarrollar ventajas cognitivas relevantes sobre los soldados de la especie Homo Sapiens.

"Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer", afirma Patrick Lin, el coordinador del informe. "Desgraciadamente, tal creencia es gravemente obsoleta: data de un tiempo en el que los programas sólo podían ser escritos y comprendidos por una única persona".

La realidad, dice Lin, es que los programas modernos tienen códigos de millones de líneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podría predecir con exactitud cómo interactuarían las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podría o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.

La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.

El informe cubre una rica variedad de escenarios en los que se perfilan los asuntos éticos, legales, sociales y políticos que se plantearán cuando la tecnología robótica progrese.
¿Cómo protegeremos nuestros ejércitos de robots contra los 'hackers' de bandas terroristas o los fallos informáticos?

¿A quién se culparía si un robot se vuelve loco ante una multitud de civiles: al robot, a su programador, al presidente de EEUU?

¿Deberían tener los robots una 'opción suicidio' o deberían ser programados para defender su vida?


El informe, coordinado por el departamento de Ética y Tecnología Emergente de la Universidad Politéctica Estatal de California, advierte duramente al ejército estadounidense contra la complacencia y los atajos, ahora que los diseñadores de robots militares están metidos en la carrera por llegar al mercado y se está incrementando el ritmo de los avances en inteligencia artificial.

La sensación de premura entre los diseñadores puede haberse visto acentuada por el mandato del Congreso para que en 2010 una tercera parte de todos los aviones de ataque operativos sean no pilotados y en 2015 lo sean también una tercera parte de todos los vehículos de combate de infantería.

"La carrera por llegar al mercado incrementa el riesgo de un diseño o una programación inadecuados. Peor aún: sin un esfuerzo importante y sostenido para inculcar códigos éticos a los sistemas autónomos, hay poca esperanza de que las primeras generaciones de tales sistemas y robots resulten apropiados, pues cometerían errores que podrían costar vidas humana", advierte el informe.

Un sencillo código ético en la línea de las 'Tres Leyes de la Robótica' que postuló en 1950 Isaac Asimov, el escritor de ciencia ficción, no será suficiente para garantizar un comportamiento ético por parte de las máquinas militares autónomas.

"Vamos a necesitar un código", sentencia Lin. "Estos artilugios son militares, y no pueden ser pacifistas, así que tenemos que pensar en términos de la ética de la guerra. Vamos a necesitar un código del guerrero".

Los principios o leyes de la robótica, que estableció Isaac Asimov en su novela de ficción, escrita en 1950, "Yo Robot" fueron las siguientes:

1) Un robot no debe de agredir a un humano ni, con su inacción, permitir que un humano sufra algún daño.

2) Un robot debe obeceder las órdenes dadas por los seres humanos salvo si dicho mandato entra en conflicto con la primera de las leyes arriba formulada.

3) Un robot debe proteger su propia existencia siempre y cuando no entre en conflicto con la primera y la segunda de estas leyes.

Sin embargo con la paulatina integración de soldados robots en los conflictos armados se desobedece la primera Ley de larobótica establecida en la novela de ficción de Asimov, que han sido ya incorporadas en el caso del Gobierno Surcoreano.
EL ROBOT MILITAR SWORD PROTAGONISTA DEL INCIDENTE EN IRAK CON SOLDADOS ESTADOUNIDENSES.
Fuente: vuelodelnavegante