Riesgos y regulación de armamento bélico con ia

El desarrollo acelerado de los sistemas de Inteligencia Artificial (IA) en la última década ha llevado a un cambio de paradigma en varios sectores, incluyendo el militar. Los sistemas de armas autónomas (AWS), comúnmente conocidos como robots asesinos, pueden rastrear, seleccionar y atacar objetivos de manera independiente sin intervención humana adicional. Esta integración de la IA en aplicaciones militares tiene el potencial de revolucionar la guerra debido a capacidades como la toma de decisiones autónoma, una precisión posiblemente mejorada y tiempos de respuesta mucho más rápidos. Sin embargo, estas armas también plantean importantes preocupaciones de seguridad internacional y éticas. Este artículo explora algunos de estos problemas y subraya la necesidad de una regulación global integral dentro del marco de las Naciones Unidas.

Índice
  1. IA en Sistemas Militares: Una Espada de Doble Filo
  2. El Dilema Ético
  3. La Necesidad de Regulación

IA en Sistemas Militares: Una Espada de Doble Filo

La IA ha causado agitación social en los últimos meses. La liberación de la herramienta GPT-{n} al público generó discusiones sobre los riesgos y problemas éticos. Sin embargo, las empresas han implementado rápidamente el modelo para acelerar y mejorar los procesos. Las personas han encontrado muchas formas en las que el sistema puede facilitar su trabajo o actividades diarias. Este escenario de dualidad, beneficios vs. riesgos, no es nuevo en el contexto de la IA. En el ámbito militar, los AWS ofrecen ventajas potenciales pero también presentan riesgos significativos.

En primer lugar, existen preguntas sobre la capacidad de los AWS para cumplir con las reglas del Derecho Internacional Humanitario (DIH). Esta legislación establece los principios clave de distinción y proporcionalidad. La distinción establece una clara separación entre civiles y combatientes, donde los no combatientes no deben ser atacados durante la batalla, mientras que la proporcionalidad exige un uso no excesivo de la fuerza. Algunos investigadores sugieren que los AWS, al ser potencialmente más objetivos y confiables (ya que pueden programarse para evitar la autoprotección) que los humanos, podrían cumplir mejor con estos principios. Sin embargo, aún no existe una forma de traducir estos principios en algoritmos, especialmente porque hacer estas distinciones requiere evaluaciones complejas y sensibles al contexto que van más allá de la capacidad de los sistemas de IA actuales. Una forma de mitigar el riesgo de daño a civiles y el uso excesivo de la fuerza es asegurarse de que los AWS solo ataquen objetos militares, no a individuos. Hasta que sea posible codificar el DIH de manera confiable en la IA, las armas militares deben permanecer bajo control humano, para que los operadores puedan prevenir fallas y garantizar el cumplimiento de los principios del DIH, actuando como mecanismos de seguridad en el sistema.

En segundo lugar, los aspectos tecnológicos también son relevantes en esta discusión. Como el campo de batalla es un entorno desestructurado e impredecible, es difícil diseñar software que pueda adaptarse a esos cambios constantes y garantizar compromisos éticos en tales escenarios. Además, los AWS dependen de grandes cantidades de datos para entrenar algoritmos. Los datos pueden estar sesgados o no ser representativos, lo que puede llevar a resultados impredecibles o perjudiciales. Elaborar legislación sobre la recopilación, tratamiento y uso de conjuntos de datos para algoritmos militares podría ser un primer paso beneficioso.

Además de estos problemas, también existen desafíos relacionados con perspectivas políticas y operativas.

El Dilema Ético

El uso de sistemas de IA en armas militares plantea profundas consideraciones éticas. En el centro de estas se encuentran las preguntas sobre si las máquinas deben tomar decisiones de vida o muerte. Actualmente, estas decisiones se basan en la interpretación contextual de los soldados, además de las emociones humanas (como la compasión y la empatía) y el razonamiento (como evaluar matices y otros factores sociales, culturales y ambientales en juego). En este momento, los sistemas de IA no pueden comprender ni replicar estas cualidades. Además, si decisiones tan importantes se dejan en manos de algoritmos, los seres humanos son objetivados como puntos de datos que deben ser eliminados en lugar de sujetos humanos.

La Necesidad de Regulación

¿Podría la legislación frenar el desarrollo tecnológico? Esa ha sido una de las críticas contra la regulación tecnológica durante décadas, y también es una de las críticas actuales contra la Ley de Inteligencia Artificial de la UE. Recientemente, ejecutivos de más de 150 empresas europeas firmaron una carta abierta instando a la UE a repensar la AIA, argumentando que las reglas podrían poner en peligro la competitividad sin abordar realmente los riesgos. En cuanto a los AWS, la discusión a nivel global involucra a países que gastan miles de millones en investigación y desarrollo militar y entienden que mantenerse a la vanguardia del desarrollo tecnológico es necesario por motivos de seguridad nacional. Si bien el argumento es comprensible, es vital evaluar si la sociedad está dispuesta a comprometer su seguridad y derechos fundamentales a favor de armamento habilitado o mejorado por IA.

Una regulación sólida que se centre en el producto en sí (AWS) y cubra cuestiones relacionadas con el desarrollo y despliegue de las armas es fundamental para mitigar los riesgos. Un marco regulatorio centrado en el cumplimiento del DIH y diseñado para garantizar la transparencia y la rendición de cuentas puede conducir a un aumento de la seguridad, lo que hace posible incorporar los beneficios de la tecnología.

Si la regulación se lleva a cabo, se necesita una adopción amplia y significativa entre los Estados. Los Estados considerados actores importantes en el desarrollo militar deben liderar una regulación que favorezca la seguridad internacional. De lo contrario, podríamos ver el uso de AWS cuando sea conveniente, como ha sucedido recientemente con otras armas que están reguladas a nivel internacional.

Los avances en el campo de la IA avanzan a un ritmo exponencial. Los humanos tienen el poder de decidir si el despliegue de la IA será inhumano o no. Eso es cierto para todos los sectores de la sociedad, incluido el militar.

Dentro del marco de las Naciones Unidas, la comunidad internacional tiene la capacidad de tomar medidas para regular la tecnología. Aunque ha sido difícil llegar a un consenso, el diálogo debe continuar para lograr una cooperación internacional que gestione los riesgos que plantean los AWS. La tarea es compleja, pero las consecuencias de la inacción son demasiado preocupantes para ser ignoradas.

Si quieres conocer otras notas parecidas a Riesgos y regulación de armamento bélico con ia puedes visitar la categoría Seguridad.

Subir