El ejército de Estados Unidos tiene un firme objetivo: reclutar entre sus filas armadas más máquinas, cuyas tareas son cada vez más numerosas y comprenden actividades como turnos de guardia nocturnos hasta identificación y eliminación de francotiradores, aunque el uso de los "soldados robots" sigue siendo objeto de debate y controversia. Wendell Wallach, del Yale Interdisciplinary Center for Bioethics advierte sobre los riesgos que esta escalada de desarrollo de “soldados robots” puede ocasionar a los civiles e inocentes. Una máquina preparada para matar quizás no pueda distinguir o identificar, en una difícil situación de combate, a un uniformado o a un civil. Y siempre nos asalta el mismo interrogante ¿Hasta dónde llega la ética en el avance de la tecnología?
El problema de saber distinguir entre un soldado y un civil indefenso ya se ha presentado con el avión Predator, que identifica sus objetivos gracias a la ayuda de soldados en el campo pero que está teledirigido por Estados Unidos, desde suelo estadounidense, es decir, a miles y miles de kilómetros del escenario de combate. Los aviones Predator han causado la muerte de muchos civiles en Irak y Afganistán a raíz de (se presume) errores de identificación, por lo que se han convertido en objeto de agrias críticas a nivel internacional. En contra del uso de robots y de armas teledirigidas se elevaron ya muchas voces, según las cuales la aceleración en el uso de estos instrumentos amenaza la capacidad humana de tomar decisiones responsables.
Y mientras que las máquinas inteligentes ya son una partemuy importante de la guerra moderna, el ejército y sus contratistas están dispuestos a agregar más y nuevos robots, por supuesto, ninguno de ellos con aspecto humano. Los robots que se están desarrollando en la actualidad son cada día más pequeños, más ligeros y menos costosos. Los partidarios de este tipo de tecnología afirman que el resultado de este esfuerzo causará menos víctimas civiles. Al mismo tiempo, los técnicos militares afirman que los robots tele-operados, semiautónomos y autónomos son la mejor manera de proteger la vida de las tropas estadounidenses. Las Fuerzas Especiales del Ejército han comprado seis robots del tamaño de una podadora de césped para misiones clasificadas, y la Guardia Nacional ha solicitado algunas docenas más para servir como centinelas en sus bases en Irak y Afganistán. A estas unidades se conocen como MAARS (Modular Advanced Armed Robotic System) y están fabricados por una compañía llamada QinetiQ North America.
Y mientras que las máquinas inteligentes ya son una parte
Los robots MAARS primero atrajeron el interés de los militares como un sistema defensivo durante ejercicios militares de campo desarrollados en 2008. “Utilizado como un centinela nocturno contra infiltrados y equipados con sistemas de visión capaces de interpretar imágenes térmicas, una unidad MAARS puede permanecer invisible por no emanar radiaciones de calor como lo haría un ser humano y puede disparar a los intrusos con pistolas automáticas guiadas por sistemas láser”, afirma Bob Quinn, vicepresidente de QinetiQ luego de una demostración de esta y otras unidades en un evento denominado Robotic Rodeo. Obsérvalo en acción:
MAARS es el descendiente de un antiguo sistema experimental construido por QinetiQ, de los cuáles tres prototipos armados fueron enviados a Irak y crearon una polémica muy importante después de que apuntaran con sus armas, de forma inadecuada, debido a un “error de software”. Sobre este incidente, los ejecutivos de QinetiQ, dijeron que el defecto real del sistema fue provocado por los mismos oficiales del ejército que operaban el equipo ya que ellos no siguieron las normas militares de combate. Esto es, por ejemplo, mediante avisos de voz, luego gases lacrimógenos y como última instancia, disparos de armas de fuego. Como consecuencia, MAARS, en su nueva versión ha sido equipado con un altavoz, para que pueda emitir advertencias y un lanzador de granadas de gas lacrimógeno, los que serían operados antes de disparar su ametralladora.
Los sistemas con mando a distancia como el avión Predator y el robot MAARS son elementos que incrementan cada día las preocupaciones sobre la automatización de la guerra. ¿Qué podría ocurrir, preguntan algunos escépticos, cuando los seres humanos dejen de tomar las decisiones sobre las armas de fuego? A pesar de la insistencia de los oficiales militares de que el dedo de un ser humano seguirá siendo siempre la que accione la cola del disparador (popularmente conocida como “gatillo”) de todas las armas, la velocidad de combate se está tornando cada día más rápida y esto, sin duda alguna, trae consigo errores que cuestan vidas humanas inocentes. "La mejor protección de una vida indefensa siempre estará en los ojos de otro ser humano que estará viendo a su objetivo y no por alguien que esté a kilómetros de distancia en un mando remoto", dijo Tom Malinowski, director en Washington de Human Rights Watch, que estudia y se encarga de observar a criminales de guerra. Wendell Wallach, un erudito en el Centro Interdisciplinario de Bioética de la Universidad de Yale afirma que los beneficios a corto plazo que pueden traer estos avances robóticos, pueden transformarse en graves consecuencias a largo plazo. Encontrarás más información en el interesante blog de Wendell Wallach donde habla sobre la ética en la robótica. Nota: La imagen de cabecera del artículo pertenece a la tapa del libro Moral Machines y es propiedad de Wendell Wallach y Collin Allen.
MAARS es el descendiente de un antiguo sistema experimental construido por QinetiQ, de los cuáles tres prototipos armados fueron enviados a Irak y crearon una polémica muy importante después de que apuntaran con sus armas, de forma inadecuada, debido a un “error de software”. Sobre este incidente, los ejecutivos de QinetiQ, dijeron que el defecto real del sistema fue provocado por los mismos oficiales del ejército que operaban el equipo ya que ellos no siguieron las normas militares de combate. Esto es, por ejemplo, mediante avisos de voz, luego gases lacrimógenos y como última instancia, disparos de armas de fuego. Como consecuencia, MAARS, en su nueva versión ha sido equipado con un altavoz, para que pueda emitir advertencias y un lanzador de granadas de gas lacrimógeno, los que serían operados antes de disparar su ametralladora.
Los sistemas con mando a distancia como el avión Predator y el robot MAARS son elementos que incrementan cada día las preocupaciones sobre la automatización de la guerra. ¿Qué podría ocurrir, preguntan algunos escépticos, cuando los seres humanos dejen de tomar las decisiones sobre las armas de fuego? A pesar de la insistencia de los oficiales militares de que el dedo de un ser humano seguirá siendo siempre la que accione la cola del disparador (popularmente conocida como “gatillo”) de todas las armas, la velocidad de combate se está tornando cada día más rápida y esto, sin duda alguna, trae consigo errores que cuestan vidas humanas inocentes. "La mejor protección de una vida indefensa siempre estará en los ojos de otro ser humano que estará viendo a su objetivo y no por alguien que esté a kilómetros de distancia en un mando remoto", dijo Tom Malinowski, director en Washington de Human Rights Watch, que estudia y se encarga de observar a criminales de guerra. Wendell Wallach, un erudito en el Centro Interdisciplinario de Bioética de la Universidad de Yale afirma que los beneficios a corto plazo que pueden traer estos avances robóticos, pueden transformarse en graves consecuencias a largo plazo. Encontrarás más información en el interesante blog de Wendell Wallach donde habla sobre la ética en la robótica. Nota: La imagen de cabecera del artículo pertenece a la tapa del libro Moral Machines y es propiedad de Wendell Wallach y Collin Allen.
No hay comentarios:
Publicar un comentario