por James Vincent
Informes advirtieron sobre robots asesinos: la realidad es más complicada.
Es el tipo de cosa que casi se puede pasar por el ruido de fondo en estos días: durante la semana pasada, una serie de publicaciones tentativamente declarados, en base a un informe de la ONU de la guerra civil de Libia, que los robots asesinos puede haber cazado los seres humanos de forma autónoma por primera hora. Como decía un titular : “La era de los robots asesinos autónomos ya puede estar aquí”.
¿Pero es? Como puede adivinar, es una pregunta difícil de responder.
La nueva cobertura ha provocado un debate entre expertos que va al corazón de nuestros problemas al enfrentar el auge de los robots autónomos en la guerra. Algunos dijeron que las historias estaban equivocadas y eran sensacionales, mientras que otros sugirieron que había una pizca de verdad en la discusión. Bucear en el tema no revela que el mundo experimentó en silencio las salvas iniciales de la línea de tiempo de Terminator en 2020. Pero sí apunta a una verdad más prosaica y quizás mucho más deprimente: que nadie puede ponerse de acuerdo sobre lo que es un robot asesino , y si esperamos a que esto suceda, su presencia en la guerra se habrá normalizado durante mucho tiempo.
¿CUÁLES SON LAS NOTICIAS REALES AQUÍ?
La fuente de todas estas historias es un informe de 548 páginas del Consejo de Seguridad de las Naciones Unidas que detalla el final de la Segunda Guerra Civil Libia, que abarca un período comprendido entre octubre de 2019 y enero de 2021. El informe se publicó en marzo y puede léelo completo aquí . Para ahorrarle tiempo: es un relato extremadamente completo de un conflicto extremadamente complejo, que detalla varios movimientos de tropas, transferencias de armas, redadas y escaramuzas que tuvieron lugar entre las diversas facciones de la guerra, tanto extranjeras como nacionales.LAS NOTICIAS SE BASARON EN SOLO DOS PÁRRAFOS DE UN INFORME DE LA ONU
Sin embargo, el párrafo que nos interesa describe una ofensiva cerca de Trípoli en marzo de 2020, en la que las fuerzas que apoyaban al Gobierno de Acuerdo Nacional (GNA) respaldado por la ONU derrotaron a las tropas leales al Ejército Nacional Libio de Khalifa Haftar (mencionado en el informe como las Fuerzas Afiliadas de Haftar o HAF). Aquí está el pasaje relevante en su totalidad:
Posteriormente, los convoyes logísticos y las HAF en retirada fueron perseguidos y atacados a distancia por los vehículos aéreos de combate no tripulados o los sistemas de armas autónomos letales como el STM Kargu-2 (véase el anexo 30) y otras municiones merodeadores. Los sistemas de armas autónomas letales fueron programados para atacar objetivos sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”.
El sistema Kargu-2 que se menciona aquí es un quadcopter construido en Turquía : es esencialmente un dron de consumo que se usa para bombardear objetivos. Puede operarse manualmente o dirigirse por sí mismo mediante visión artificial. Un segundo párrafo del informe señala que las fuerzas en retirada estaban “sujetas al hostigamiento continuo de los vehículos aéreos de combate no tripulados y los sistemas de armas autónomos letales” y que las HAF “sufrieron bajas significativas” como resultado.
Pero eso es todo. Es todo lo que tenemos. Lo que el informe no dice, al menos no directamente, es que los seres humanos fueron asesinados por robots autónomos que actuaban sin supervisión humana. Dice que los humanos y los vehículos fueron atacados por una combinación de drones, cuadricópteros y “municiones merodeadores” (veremos eso más adelante), y que los cuadricópteros habían sido programados para funcionar fuera de línea. Pero no está claro si los ataques tuvieron lugar sin conectividad.
Estos dos párrafos se abrieron camino en la prensa a través de una historia en la revista New Scientist , que publicó un artículo con el título: “Los zánganos pueden haber atacado a seres humanos totalmente autónoma por primera vez.” La NS tiene mucho cuidado de advertir que los drones militares podrían haber actuado de forma autónoma y que los humanos podrían haber sido asesinados, pero los informes posteriores perdieron este matiz. “Un dron autónomo atacó a los soldados en Libia por sí solo”, decía un titular. “Por primera vez, los drones atacaron de forma autónoma a los humanos”, dijo otro.
Seamos claros: por sí misma, la ONU no dice con certeza si los drones atacaron de forma autónoma a los humanos en Libia el año pasado, aunque ciertamente sugiere que esto podría haber sucedido. El problema es que incluso si no suceda, para muchos expertos, no se trata sólo de noticias.
EL PROBLEMA DE DEFINIR “ROBOTS ASESINOS”
La razón por la que algunos expertos discreparon con estas historias fue porque siguieron la redacción de la ONU, que no distingue claramente entre municiones merodeando y sistemas de armas autónomos letales o LAWS (esa es la jerga política para los robots asesinos).
Las municiones merodeadores, para los no iniciados, son el arma equivalente a las gaviotas en la playa. Se cuelgan en un área específica, flotan por encima de las masas y esperan para golpear a su objetivo, generalmente hardware militar de un tipo u otro (aunque no es imposible que puedan usarse para atacar a individuos).
El ejemplo clásico es el IAI Harpy de Israel, que se desarrolló en la década de 1980 para atacar las defensas antiaéreas. El Harpy parece un cruce entre un misil y un dron de ala fija, y se dispara desde el suelo hacia un área objetivo donde puede permanecer hasta nueve horas. Busca las emisiones de radar reveladoras de los sistemas antiaéreos y cae sobre cualquiera que encuentre. El aspecto de merodeo es crucial, ya que las tropas a menudo apagarán estos radares, dado que actúan como balizas orientadoras.
“La cosa es, ¿cómo es esta la primera vez de algo?” tuiteó Ulrike Franke , investigadora principal de políticas en el Consejo Europeo de Relaciones Exteriores. “La munición merodeadora ha estado en el campo de batalla durante un tiempo, sobre todo en Nagorno-Karaback . Me parece que lo nuevo aquí no es el evento, sino que el informe de la ONU los llama sistemas de armas autónomos letales “.“LA LÍNEA ENTRE ALGO AUTÓNOMO Y AUTOMATIZADO HA CAMBIADO A LO LARGO DE LAS DÉCADAS”
Jack McDonald, profesor del departamento de estudios de guerra del King’s College de Londres, dice que la distinción entre los dos términos es controvertida y constituye un problema sin resolver en el mundo de la regulación de armas. “Hay personas que llaman ‘municiones merodeando’ ‘sistemas de armas autónomas letales’ y personas que simplemente las llaman ‘municiones merodeando’”, le dice a The Verge . “Esto es algo enorme y de larga duración. Y es porque la línea entre algo autónomo y automatizado ha cambiado a lo largo de las décadas “.
Entonces, ¿es la Arpía un sistema de armas autónomo letal? ¿Un robot asesino? Depende de a quien le preguntes. El propio sitio web del IAI lo describe como tal , llamándolo “un arma autónoma para todo clima”, y el Harpy ciertamente se ajusta a una definición improvisada de LAWS como “máquinas que apuntan a combatientes sin supervisión humana”. Pero si esta es su definición, entonces ha creado una iglesia muy amplia para robots asesinos. De hecho, según esta definición, una mina terrestre es un robot asesino, ya que también ataca de forma autónoma a los combatientes en la guerra sin supervisión humana.
LA INTELIGENCIA ARTIFICIAL LO EMPEORA
Si los robots asesinos han existido durante décadas, ¿por qué ha habido tanta discusión sobre ellos en los últimos años, con grupos como Campaign To Stop Killer Robots presionando por la regulación de esta tecnología en la ONU ? ¿Y por qué es especial este incidente en Libia?
El auge de la inteligencia artificial juega un papel importante, dice Zak Kallenborn, miembro de políticas de la Escuela de Política y Gobierno Schar. Los avances en inteligencia artificial durante la última década han dado a los fabricantes de armas acceso a sistemas de visión baratos que pueden seleccionar objetivos tan rápido como su teléfono identifica mascotas, plantas y rostros familiares en el carrete de su cámara. Estos sistemas prometen una identificación precisa y matizada de los objetivos, pero también son mucho más propensos a cometer errores.SE HA DEMOSTRADO QUE LA VISIÓN DE LA IA ES FRÁGIL, UNA Y OTRA VEZ
“Las municiones merodeando normalmente responden a las emisiones de radar, [y] un niño que camina por la calle no va a tener un radar de alta potencia en su mochila”, dice Kallenborn a The Verge . “Pero los sistemas de focalización de IA podrían clasificar erróneamente al niño como un soldado, porque los sistemas de IA actuales son muy frágiles: un estudio mostró que un cambio en un solo píxel es suficiente para que los sistemas de visión artificial saquen conclusiones radicalmente diferentes sobre lo que ven. Una pregunta abierta es con qué frecuencia ocurren esos errores durante el uso en el mundo real “.
Esta es la razón por la que el incidente en Libia es interesante, dice Kallenborn, ya que el sistema Kargu-2 mencionado en el informe de la ONU parece usar IA para identificar objetivos. De acuerdo con el fabricante del Quadcopter, STM, i t utiliza “algoritmos de aprendizaje automático integrados en la plataforma” a “responder con eficacia contra blancos fijos o móviles (es decir, vehículo, persona, etc.)” vídeos de demostración parecen mostrar que hacer exactamente eso. En el clip de abajo, el quadcopter se enfoca en un maniquí en un grupo estacionario.
Pero, ¿debemos confiar en un carrete o un folleto de demostración de un fabricante? ¿Y el informe de la ONU deja en claro que se utilizaron sistemas de aprendizaje automático en el ataque?
La lectura de Kallenborn del informe es que “implica fuertemente” que este fue el caso, pero McDonald es más escéptico. “Creo que es sensato decir que el Kargu-2 como plataforma está abierto a ser utilizado de forma autónoma”, dice. “Pero no necesariamente sabemos si lo fue “. En un tweet , también señaló que esta escaramuza en particular involucró misiles y obuses de largo alcance, lo que hace que sea aún más difícil atribuir bajas a cualquier sistema.
¿QUÉ SIGUE PARA LAWS Y LA LEY?
Lo que nos queda es, quizás como era de esperar, la niebla de la guerra. O más exactamente: la niebla de LEYES. No podemos decir con certeza lo que sucedió en Libia y nuestras definiciones de lo que es y no es un robot asesino son tan fluidas que incluso si lo supiéramos, habría desacuerdo.
Para Kallenborn, este es más o menos el punto: subraya las dificultades que enfrentamos al tratar de crear una supervisión significativa en las batallas asistidas por IA del futuro. Por supuesto, el primer uso de armas autónomas en el campo de batalla no se anunciará con un comunicado de prensa, dice, porque si las armas funcionan como se supone que deben hacerlo, no se verán fuera de lo común. “El problema es que la autonomía es, en esencia, una cuestión de programación”, dice. “El Kargu-2 usado de forma autónoma se verá exactamente como un Kargu-2 usado manualmente”.
Elke Schwarz, profesora principal de teoría política en la Universidad Queen Mary de Londres y afiliada al Comité Internacional para el Control de Armas Robóticas, le dice a The Verge que discusiones como esta muestran que debemos ir más allá de los debates “resbaladizos y políticos” sobre definiciones y centrarnos funcionalidad específica de estos sistemas. ¿Qué hacen y cómo lo hacen?“EXISTE UNA MASA CRÍTICA DE CONSTRUCCIÓN ENTRE LAS NACIONES Y LAS ORGANIZACIONES INTERNACIONALES PARA IMPULSAR UNA PROHIBICIÓN”
“Creo que realmente tenemos que pensar en el panorama más amplio […] y por eso me concentro en la práctica, así como en la funcionalidad”, dice Schwarz. “En mi trabajo trato de demostrar que el uso de este tipo de sistemas es muy probable que exacerbe la acción violenta como una opción ‘más fácil’. Y, como bien ha señalado, es muy probable que prevalezcan los errores […] que probablemente sólo se abordarán post hoc “.
Schwarz dice que a pesar de las innumerables dificultades, tanto en términos de redacción de regulaciones como de rechazar el entusiasmo de los ejércitos de todo el mundo para integrar la IA en el armamento, “existe una formación de masa crítica entre las naciones y las organizaciones internacionales para impulsar la prohibición de los sistemas que tener la capacidad de identificar, seleccionar y atacar objetivos de forma autónoma “.
De hecho, la ONU todavía está llevando a cabo una revisión de posibles regulaciones para LAWS, y los resultados se informarán a finales de este año. Como dice Schwarz: “Habiendo circulado esta noticia, ahora es un buen momento para movilizar a la comunidad internacional hacia la conciencia y la acción”.