jueves, febrero 2, 2023
InicioCuriosidadesQué significan los robots asesinos autónomos para el futuro de la guerra

Qué significan los robots asesinos autónomos para el futuro de la guerra

Es posible que haya oído hablar de los robots asesinos, masacradores o exterminadores, oficialmente llamados armas letales autónomas (LAW), en películas y libros. Y la idea de que las armas superinteligentes proliferen sigue siendo ciencia ficción.

Pero a medida que las armas de IA se vuelven cada vez más sofisticadas, crece la preocupación pública por los temores de falta de responsabilidad y el riesgo de falla técnica.

Ya hemos visto cómo la llamada IA ​​neutral creó algoritmos sexistas y sistemas de moderación de contenido ineptos, principalmente porque sus creadores no entendían la tecnología. Pero en la guerra, este tipo de malentendidos pueden causar la muerte de civiles o arruinar las negociaciones.

Por ejemplo, se puede entrenar un algoritmo de reconocimiento de objetivos para identificar tanques a partir de imágenes satelitales. Pero, ¿y si todas las imágenes utilizadas para entrenar el sistema mostraran soldados en formación alrededor del tanque?

Puede confundir un vehículo civil que atraviesa un bloqueo militar con un objetivo.

¿Por qué necesitamos armas autónomas?

Los civiles en muchos países (como Vietnam, Afganistán y Yemen) han sufrido debido a la forma en que las superpotencias globales construyen y usan armas cada vez más avanzadas. Muchas personas argumentarían que han hecho más daño que bien, y más recientemente señalaron la invasión rusa de Ucrania a principios de 2022.

En el otro campo están las personas que dicen que un país debería ser capaz de defenderse a sí mismo, lo que significa mantenerse al día con la tecnología militar de otras naciones. Es posible que la IA ya sea más astuta que los humanos en el ajedrez y el póquer. También supera a los humanos en el mundo real.

Por ejemplo, Microsoft afirma que su software de reconocimiento de voz tiene una tasa de error del 1 % en comparación con una tasa de error humano de alrededor del 6 %. Así que no sorprende que los ejércitos estén cediendo lentamente las riendas a los algoritmos.

Pero, ¿cómo evitamos agregar robots asesinos a la larga lista de cosas que desearíamos no haber inventado nunca? En primer lugar: conoce a tu enemigo.

¿Qué son las armas letales autónomas (LAW)?

El Departamento de Defensa de EE. UU. define un sistema de armas autónomo como: «Un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin la intervención de un operador humano».

Muchos sistemas de combate ya se ajustan a este criterio. Las computadoras en los drones y misiles modernos tienen algoritmos que pueden detectar y disparar objetivos con mucha más precisión que un operador humano. La Cúpula de Hierro de Israel es uno de varios sistemas de defensa activos que pueden atacar objetivos sin supervisión humana.

Aunque está diseñado para la defensa antimisiles, la Cúpula de Hierro puede matar personas por accidente. Pero el riesgo se considera aceptable en la política internacional porque la Cúpula de Hierro generalmente tiene un historial creíble de protección de vidas civiles.

También hay armas habilitadas para IA diseñadas para atacar a las personas, desde centinelas robóticos hasta drones kamikaze vagabundos utilizados en la guerra de Ucrania. Las LEYES ya están aquí. Entonces, si queremos influir en el uso de las LEYES, debemos comprender la historia de las armas modernas.

las reglas de la guerra

Los acuerdos internacionales, como los Convenios de Ginebra, establecen pautas para el tratamiento de los prisioneros de guerra y civiles durante los conflictos.

Son una de las pocas herramientas que tenemos para controlar cómo se libran las guerras. Desafortunadamente, el uso de armas químicas por parte de EE. UU. en Vietnam y de Rusia en Afganistán es una prueba de que estas medidas no siempre tienen éxito.

Peor es cuando los mejores jugadores se niegan a inscribirse. La Campaña Internacional para la Prohibición de las Minas Terrestres (ICBL, por sus siglas en inglés) ha estado presionando a los políticos desde 1992 para prohibir las minas y las municiones en racimo (que arrojan pequeñas bombas al azar sobre un área amplia). En 1997, el tratado de Ottawa incluyó la prohibición de estas armas, que firmaron 122 países. Pero Estados Unidos, China y Rusia no compraron.

Las minas terrestres han herido y matado al menos a 5000 soldados y civiles al año desde 2015 y hasta 9440 personas en 2017. El informe del Monitor de Municiones en Racimo y Minas Terrestres 2022 dice:

“Los casos… han sido inquietantemente altos durante los últimos siete años, después de más de una década de descensos históricos. El año 2021 no fue la excepción. Esta tendencia se debe en gran parte al aumento de los conflictos y la contaminación por minas improvisadas observado desde 2015. Los civiles representaron la mayoría de las bajas registradas, la mitad de las cuales eran niños”.

A pesar de los mejores esfuerzos de la ICBL, hay evidencia de que Rusia y Ucrania (un miembro del tratado de Ottawa) están usando minas terrestres durante la invasión rusa de Ucrania. Ucrania también se ha basado en drones para guiar los ataques de artillería o, más recientemente, para los «ataques kamikaze» en la infraestructura rusa.

Nuestro futuro

Pero, ¿qué pasa con las armas habilitadas para IA más avanzadas? La Campaña para Detener a los Robots Asesinos enumera nueve problemas principales con las LEYES, centrándose en la falta de rendición de cuentas y la deshumanización inherente de la matanza que conlleva.

Si bien esta crítica es válida, una prohibición total de las LEYES no es realista por dos razones. Primero, como las minas, la caja de pandora ya ha sido abierta. Además, las líneas entre las armas autónomas, las LAW y los robots asesinos son tan borrosas que es difícil distinguirlas.

Los líderes militares siempre podrían encontrar una laguna en la redacción de una prohibición y poner en servicio a los robots asesinos como armas defensivas autónomas. Incluso podrían hacerlo sin saberlo.

Ciertamente veremos más armas habilitadas para IA en el futuro. Pero eso no significa que tengamos que mirar para otro lado. Prohibiciones más específicas y matizadas ayudarían a responsabilizar a nuestros políticos, científicos de datos e ingenieros.

Por ejemplo, prohibir:

IA de caja negra: sistemas en los que el usuario no tiene información sobre el algoritmo más que las entradas y salidas

IA poco confiable: sistemas que no han sido probados adecuadamente (como en el ejemplo de bloqueo militar mencionado anteriormente).

Y no necesita ser un experto en IA para tener una idea de LAWS. Estén atentos a los nuevos desarrollos de IA militar. Cuando lea o escuche sobre el uso de la IA en combate, pregúntese: ¿está justificado?

¿Está preservando la vida civil? Si no, involúcrese con las comunidades que están trabajando para controlar estos sistemas. Juntos, tenemos la oportunidad de evitar que la IA haga más daño que bien.

Jonathan Erskine, estudiante de doctorado, IA interactiva, Universidad de Bristol y Miranda Mowbray, profesora de IA interactiva, Universidad de Bristol

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. leer el artículo original.

Enlace de la fuente

RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Mas Populares

- Advertisment -

Comentarios Recientes

A %d blogueros les gusta esto: