El peligro de los drones autónomos es real. Según un informe del Consejo de Seguridad de las Naciones Unidas, el año pasado por primera vez un dron militar pudo haber atacado de forma autónoma a humanos en Libia. No han trascendido detalles de la operación ni si hubo víctimas, pero confirma que estas armas autónomas letales ya se están utilizando en el campo de batalla pese a los esfuerzos internacionales por prohibirlas.
Un dron STM Kargu-2 de fabricación turca habría sido utilizado para "perseguir y comprometer remotamente" a los soldados en retirada, según describe el informe. El uso de estos drones en el conflicto de Libia puede abrir un nuevo capítulo para las armas autónomas. Unas herramientas programadas para que la IA decida por si sola eliminar a sus objetivos, incluidos los humanos.
Así son los Kargu-2, drones autónomos preparados para matar
En junio de 2020, el ejército turco compraba cerca de 500 drones Kargu a Defense Technologies Engineering and Trade Inc, más conocida como STM, una empresa turca armamentística. La primera generación de estos drones se presentó en 2017 y en 2019 se mostró la variante Kargu-2, capaz de llevar a cabo ataques en modo enjambre y operar de manera autónoma.
Kargu puede traducirse en turco como "halcón". La compañía explica que están diseñados para la "guerra asimétrica y la lucha antiterrorista". Con un peso de unos 7 kg, el dron puede permanecer en el aire al menos durante 30 minutos y volar a una velocidad de unos 145 km/h. Números mejorados en la segunda generación.
El informe del Consejo de Seguridad de las Naciones Unidas describe el suceso de la siguiente manera:
"Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”. Los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral".
Las pruebas encontradas por las Naciones Unidas indican que los STM Kargu-2 utilizaron munición y están operativos en Libia. Se trata de la primera vez que detectan su uso y su despliegue supone un incumplimiento del párrafo 9 de la resolución 1970 (2011).

Los drones de la serie Kargu pueden ser operados manualmente, pero también están preparados para operar autónomamente gracias al uso de sensores que van desde cámaras de video electroópticas e infrarrojas a un sistema de imágenes láser (LIDAR).
A través del programa KERKES, la empresa STM preparó a sus drones para poder coordinarse de manera autónoma en enjambre y moverse siguiendo el GPS. Junto a otros 20 drones, los Kargu-2 están programados con una IA capaz de seleccionar y atacar objetivos.
Por el momento no se ha informado de ninguna víctima de una de estas armas autónomas (sería la primera), pero en los vídeos demostrativos de STM se muestra como estos drones atacan a un grupo de maniquíes.
Cómo decide un dron autónomo a quién atacar
Las minas antipersona pueden configurarse para adaptar la sensibilidad y únicamente detonarse con adultos. Con los drones autónomos todavía hay mucho debate sobre qué parámetros concretos determinan cuándo atacan.
El aprendizaje automático de estos drones está programado con un gran conjunto de datos y permite diferenciar objetos. También vehículos como tanques, autobuses o furgonetas. Se presupone que los distintos ejércitos pueden entrenar a la IA del dron para que se focalice en las particularidades del enemigo, dándole acceso a bases de datos con imágenes e información de quienes desean abatir.

Sin embargo, de la misma manera que hemos visto como los algoritmos tienen muchos sesgos y no están exentos de fallos, estos drones autónomos también pueden equivocarse, con consecuencias fatales.
Expertos y organismos piden prohibir estas armas autónomas antes que sea demasiado tarde
Desde la Unión Europea han advertido contra estos robots asesinos. También Estados Unidos y Rusia son conscientes de las implicaciones de estas LAWs ('Lethal Autonomous Weapons'). Sin embargo, tanto una como otra potencia, apoyados principalmente por Corea del Sur, Israel y Australia, han bloqueado la negociación para prohibirlas.
Las Naciones Unidas tienen desde finales de 2013 la intención de prohibirlas, pero no han habido grandes avances. Durante este tiempo, personalidades como Brad Smith, presidente de Microsoft, Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 países han solicitado que se prohíba el desarrollo y el uso de robots asesinos autónomos. Porque "una vez que se abra esta caja de Pandora, será difícil cerrarla".
En Xataka | China avisa: el peligro de una guerra accidental por culpa de "las armas inteligentes" es real y creciente
Ver 57 comentarios
57 comentarios
jozeico
A ver si lo entiendo. Drones entrenados y armados para matar, ¿han matado? 😱 Sorprendente giro de los acontecimientos
amfortas
Skynet ya está avisando...
Anon
[...] pero no han habido grandes avances.
VAYA PALETADA. Ha ***habido***, por favor.
pableras
Para eso están, ¿no? Quiero decir (no se me malinterprete, por favor), han comprado y programado un arma para que dispare en unas determinadas condiciones, por lo que ha cumplido su cometido. No hay peligro, era lo esperado, ahora no nos podemos llevar las manos a la cabeza. Sabían lo que hacían, sabían cómo les programaron. Y esto se ha permitido.
Me doy un martillazo en los dedos -> me duele
Tengo sed -> bebo agua -> ya no tengo sed
Compro un dron con armas -> lo programo para que dispare sin confirmación humana -> dispara a gente -> la gente muere
Lo que hay que cuestionarse es por qué se permite esto, que se ceda por completo a una máquina la decisión sobre la vida o la muerte de otros seres humanos. Que la capacidad de matar ya la tiene, como otros tantos objetos, pero estos no tienen mecanismo alguno que les permita operar de manera autónoma y tomar decisiones unilateralmente según su programa.
Usuario desactivado
Así empiezan las películas apocalípticas:
Empieza una tragedia "aislada" de la que poca gente tiene conocimiento. Una máquina que mata a personas de forma autónoma. Se investiga, no pasa nada. Todo sigue igual.
Un día, uno de los ingenieros responsables del dron se levanta adormilado por un extraño ruido; sale a la "calle" de la base militar en la que está alojado temporalmente y nota que el zumbido cada vez es más fuerte, cree escuchar gritos de fondo, da unos pasos y de repente los ve... todos los drones están activos y han formado un enjambre.
Están listos para matar a todo el que vean. Y nadie se lo ha ordenado.
Muy pronto en tu realidad más cercana.
javicastro78
A día de hoy por mucho que tomen la decisión de atacar hay un operador detrás que los ha lanzado igual que un misil, el problema vendrá el día que Skynet tome conciencia de sí mismo y decida ser bueno o malo.
pererecuda
Espeluznante! Hay que prohibir los robots y las IA terminantemente para su uso contra objetivos humanos. Instauración de las 3 leyes de Asimov YA!.
La culpa de todo es el cáncer de los políticos, que no se ocupan de crear las leyes necesarias para controlar al sector militar y armamentístico. Siempre actuando en favor de sus intereses y no de la sociedad.
noseponada
Entre los robots y la IA, nos estamos acercando peligrosamente al principio del fin.
arts
La IA es un programa de aprendizaje por repetición de ejemplos donde el programador solo le dice a grandes rasgos que condiciones debe cumplir, la primera vez que lo viste decidiste atacar aquí primero luego allí hasta terminar el entrenamiento, la IA analiza los datos una y otra vez y se da cuenta que bajo las directrices del programador (hacerlo rápido, +1 al peso de las acciones, si mata +1 al peso también, si bate records ahorrando munición +1... así que al final prueba 490099millones de formas de matar en entrenamientos y te saca la mejor formula, es una forma de decir que la IA es un programa que agrupa y mete en cajones los entrenamientos y sabe en que momento debe utilizar uno u otro, pudiendo mezclarlos. no deja de ser un programa tonto que por repetición se ha especializado en algo muy concreto, pero su análisis de los datos será siempre mejor que el de una persona, sacando relaciones que nosotros no llegaríamos a ver. Ya ocurrió en videojuegos, Starcarft2 hizo un test a una IA y ganó a los mejores jugadores del mundo.
houk
¿Vamos a tener que esperar a que un descerebrado suelte uno de estos enmedio de una gran urbe occidental y se produzca una masacre de civiles para tener que prohibirlos?
emedoble
La noticia no es tanto que el dron autónomo armado haya hecho lo que se suponía, sino que lo haya hecho con tanta eficiencia en una (oficialmente) primera misión real.
También en el hecho de que alguno de los bandos lo haya utilizado a pesar de que, sin estar prohibido, el uso de un arma de este tipo debe ser, al menos, consultado con el resto de aliados.
Y finalmente, el otro punto remarcable es el hecho de que el dron no haya repelido un ataque sino que haya acosado, dado caza y muerte a un grupo que ya estaba en retirada, es decir, atacando por la espalda y por sorpresa, contraviniendo reglas no escritas de los conflictos armados.
Seyven
No necesitas un dron con armas de fuego. Puedes soltar ántrax, pulverizar ácido con él... etc.
Tron
El articulo no aclara si el dron viene del futuro.
Escepticum
Así que la carrera armamentística va a dar un salto de vértigo. Drones en los ejércitos también hará factibles drones en manos de terroristas... entre otras posibilidades, y al final tendremos a un ejército de drones para defendernos de los drones enemigos. El ejército convencional parece que va a cambiar a medida que todas las armas, desde tanques a aviones - ya están en ello - sean robóticas y lo que es más preocupante, completamente autónomas.
Conclusión: De nuevo la realidad va a dejar pequeña la ficción. Sólo falta que algún genio cree Skynet y ya tenemos la profecía autocumplida.
alvaro1962
Mirandolo bien, tiene cierto look de T-800....
crisct
A skynet le gusta esto.
dani43321
https://youtu.be/O-2tpwW0kmU
toniweblogs
El dron no ha atacado él solo a nadie, se trata de una programación deficiente que una persona no ha sabido programar correctamente, deberán ser retirados y revisados, y al que diseñó la programación lo tendrán que investigar y tomar las acciones oportunas
netmejias
Puede las naciones unidas debe de ponerse las pilas y prohibirlas. El mundo no es ee.uu, rusia y China. Se acuerda prohibirla el resto y se aplican sanciones a quien las use, sea eeuu, rusia , china , Turquía, Australia.
A ver cuando el resto del mundo espabila y se da cuenta que hay más países que esos 3.
Tampoco entiendo las normas de la naciones unidas y sus derechos a veto, los privilegios que tienen algunos. Eso se debe acabar.
netmejias
Por qué no diseñan drones autónomos resistentes a la radiación para trabajar en fukusima y chernobyl? Cuando hay una catástrofe nuclear y necesitamos de los robots no funcionan. Hay robots perrito, pero no habían para las cosas importantes.
tony.fernandez.7568
Esto es como la pregunta, quién fue primero? La gallina o el huevo? Terminator o los drones asesinos?
Existirian estos drones si la pelucula en cuestion nunca hubiera existido? O los tenemos mas vigilados gracias a que existió la pelicula?
¿O no tienen nada que ver?
nexus01
Estos bichos no se van a prohibir porque los ejércitos modernos son mas alérgicos a las bajas que nunca y porque siempre va bien tener a un dron al que culpar de los daños colaterales.
No nos engañemos, los bichos de dos patas matan igual.
yukik0
La cuestión aquí no es el dron en si, sino que se ha conseguido automatizar o al menos es como lo entiendo yo. Si se puede hacer con un dron entonces se debería poder hacer con un helicóptero o vete a saber.
pastoreo
Soltar 5 de estos en un estadio de futbol lleno en un ataque terrorista y dejará de ser gracioso para los imbéciles de turno, claro que sería la última vez que verías drones.
rvelezb
¿Alguien sabe cómo se da de baja de la notificación de respuesta de los comentarios?.
beriev
John Connor estará ahora en su casa jubilado arreglando bonsais diciendo , os lo dije y no me hicisteis caso