El tiempo en: Sevilla
Publicidad Ai
Publicidad Ai

Andalucía

Viene un mundo de "robots asesinos" y la necesidad de regularlos

A medida que avanza la inteligencia artificial, las armas de guerra se vuelven cada vez más capaces de matar personas sin una supervisión humana

Publicidad Ai
Publicidad Ai
Publicidad AiPublicidad Ai
  • Drones armados. -
  • "En pocas palabras, no se debe confiar en la IA para tomar decisiones sobre la guerra", dice

La posibilidad de que pronto se desplieguen sistemas de armas letales autónomas en campos de batalla presenta una necesidad urgente de tomar medidas a escala mundial para regular estas tecnologías.

Es la conclusión de un nuevo libro titulado "La carrera militar de la IA: buena gobernanza común en la era de la inteligencia artificial", escrito por Denise García, profesora de ciencias políticas y asuntos internacionales en la Universidad de Northeastern, que formó quien formó parte del Panel Internacional para la Regulación de Armas Autónomas de 2017 a 2022.

A medida que avanza la inteligencia artificial, las armas de guerra se vuelven cada vez más capaces de matar personas sin una supervisión humana significativa, lo que plantea preguntas inquietantes sobre la forma en que se llevarán a cabo las guerras de hoy y de mañana, y cómo los sistemas de armas autónomos podrían debilitar la rendición de cuentas cuando se trata de posibles violaciones. del derecho internacional que acompañan su despliegue.

En su libro, Denise García condensa estas sombrías realidades y explora los desafíos que supone "crear un marco de gobernanza global" que anticipe un mundo de sistemas de armas de IA desenfrenados en el contexto del deterioro del derecho y las normas internacionales. Así, resalta que ya se han implementado aplicaciones militares de IA en los conflictos en curso en Europa y Medio Oriente, uno de los más famosos ejemplos de ello es la Cúpula de Hierro de Israel.

"El mundo debe unirse y crear nuevos bienes públicos globales, que yo diría que deben incluir un marco para gobernar la IA, pero también reglas comúnmente acordadas sobre el uso de la IA en el ejército", dice García en un comunicado de su universidad.

Esta experta advierteque acelerar la IA militarizada como tal no es el enfoque correcto y corre el riesgo de añadir más volatilidad a un sistema internacional que ya es muy inestable. "En pocas palabras, no se debe confiar en la IA para tomar decisiones sobre la guerra", dice.

Unos 4.500 investigadores de IA y robótica han dicho colectivamente que la IA no debería tomar decisiones con respecto al asesinato de seres humanos, una posición, señala García, que se alinea con las directrices del Parlamento Europeo y la regulación de la Unión Europea. Sin embargo, los funcionarios estadounidenses han presionado por un paradigma regulatorio de pruebas y diseños rigurosos de modo que los seres humanos puedan utilizar la tecnología de inteligencia artificial "para tomar la decisión de matar".

"Esto parece bueno sobre el papel, pero es muy difícil de lograr en la realidad, ya que es poco probable que los algoritmos puedan asimilar la enorme complejidad de lo que sucede en la guerra", dice García.

Los sistemas de armas de IA no sólo amenazan con alterar las normas de rendición de cuentas bajo el derecho internacional, sino que también hacen que el procesamiento de crímenes de guerra sea mucho más difícil debido a los problemas asociados con la atribución de "estatus de combatiente" a la tecnología militar de IA, dice García.

"El derecho internacional (y las leyes en general) han evolucionado hasta centrarse en el ser humano", afirma. "Cuando se inserta un robot o un software en la ecuación, ¿quién será el responsable?"

Y continúa: "Las dificultades de atribución de responsabilidad acelerarán la deshumanización de la guerra. Cuando los humanos sean reducidos a datos, la dignidad humana se disipará".

Las aplicaciones militares existentes de IA y cuasi-IA ya han causado sensación en los círculos de defensa. Una de esas aplicaciones permite a una sola persona controlar múltiples sistemas no tripulados, según una fuente, como un enjambre de drones capaces de atacar por aire o bajo el mar. En la guerra de Ucrania, las municiones merodeadoras (aviones no tripulados que utilizan sensores para identificar objetivos, o "drones asesinos") han generado un debate sobre exactamente cuánto control tienen los agentes humanos sobre las decisiones sobre los objetivos.

TE RECOMENDAMOS

ÚNETE A NUESTRO BOLETÍN