Diversas ONG se posicionan contra los 'robots asesinos'
- Plantean la prohibición de los robots usados como armas autónomas
- Estos robots y drones son cada vez más poderosos e independientes
Un robot peligroso sin un humano controlándolo hace surgir problemas morales y éticos
Los robots que científicos e ingenieros llevan décadas construyendo tienen múltiples aplicaciones. Una de las primeras, como ha sucedido con otros avances tecnológicos a lo largo de la historia, han sido las del campo militar.
Al igual que en su día se alzaron voces contra desarrollos como las bombas atómicas o las armas bacteriológicas, ahora un grupo de diversas ONG se han unido para concienciar y hacer campaña contra algunos robots en lo que han dado en llamar 'Stop Killer Robots' (Detener a los robots asesinos).
En esta categoría de 'robots asesinos' entrarían todos esos ingenios humanos que son capaces de alguna forma de acabar con vidas humanas directamente, atacando objetivos sin que intervenga un operador humano.
Drones para uso militar
Los primeros que vienen a la mente son los "drones" o vehículos militares no tripulados que están desplegados en diversos escenarios en la actualidad: pueden volar, encontrar objetivos, marcarlos, disparar sus armas y volver a la base.
Según los archivos, hace aproximadamente unos cuatro años (en 2009) se produjo la primera muerte registrada de la historia por parte de un vehículo aéreo militar no tripulado.
En aquel caso el drone estaba guiado por personal civil (y no militar) por lo que la situación era ligeramente diferente. No está del todo claro si ya en la actualidad hay equipos similares que puedan actuar de forma autónoma (o, diríase, un tanto 'inteligente') sin recibir instrucciones específicas.
Pero Noel Sharkey, profesor de Inteligencia Artificial y Robótica de la Universidad de Sheffield, que colabora con 'Stop Killer Robots', dice que crear un aparato así sería simplemente cuestión de días.
Prohición de 'robots asesinos'
El objetivo de los activistas es que se prohíban los 'robots asesinos' mediante tratados internacionales, de modo que no solo no puedan ser utilizados sino que se congele su desarrollo. El gobierno británico, por ejemplo, ha dicho que no piensa seguir esa línea de investigación, pero los activistas desconfían.
Hace ya tiempo que la ONG Human Rights Watch viene advirtiendo sobre los peligros de los robots asesinos autónomos y de la necesidad de regular su fabricación y uso. A nivel teórico incluso se han publicado libros como La gobernanza del comportamiento letal en los robots autónomos (Ronald Arkin), donde se analizan diversos puntos de vista y todas las derivadas de la situación.
Parte del problema es profundo porque, según los promotores de la campaña, "no se deberían cruzar ciertos límites morales y éticos". Quien pronunció estas palabras en la presentación de la campaña fue la Premio Nobel de la Paz de 1997 por su trabajo sobre la prohibición de las minas terrestres, Jody Williams, quien además explicó que: "Quienes soportarían el peso de la guerra si todo se reduce a armas de ataque sin el control de seres humanos sería la población civil".
La otra parte del problema es la garantía de precisión y seguridad de estas armas. ¿Cómo evitar que se equivoquen? ¿Deberían obedecer siempre a quienes los programan? ¿Serían capaces, con la inteligencia suficiente, de rebelarse contra sus creadores?
Este escenario lo resolvió la ciencia ficción con las famosas Tres leyes de la robótica que propuso Isaac Asimov: Vienen a decir que los robots deben siempre proteger a los humanos, obedecer sus órdenes y defenderse a sí mismos, por este orden de prioridad. Sin embargo, los expertos consideran que, aparte de en las novelas, estas leyes "carecen de propósito práctico más allá de servir para esos robots de ficción".