Mundo

Costa Rica plantea riesgos éticos por muertes causadas con armas guiadas por inteligencia artificial

Costa Rica albergó una conferencia regional en busca de un instrumento jurídico que sea vinculante para regular o prohibir las llamadas “armas autónomas” en el mundo.

El mundo se ha acostumbrado a ver volar los drones con su característico zumbido, o se asombra con el uso de robots en tareas tan nobles como los rescates, casi siempre bajo la dirección de una mano humana, pero también con el apoyo de la inteligencia artificial.

¿Pero qué pasa cuando este tipo de dispositivo se adapta como arma y se programa la identificación de objetivos?, este es uno de los grandes vacíos legales y dilemas morales que deja el uso de inteligencia artificial en las llamadas “armas autónomas”, cuya regulación internacional Costa Rica persigue con el apoyo de muchas organizaciones no gubernamentales en varios países del mundo.

La Conferencia Regional sobre el Impacto Social y Humanitario de las Armas Autónomas, que se realizó en el país con la presencia de 33 Estados de América Latina y el Caribe, es el primer foro que se realiza sobre este tema fuera de los edificios de la Organización de Naciones Unidas (ONU) en Ginebra, Suiza.

Además de promover este instrumento internacional, el vicecanciller Christian Guillermet anunció que el país promoverá una legislación interna para regular este tipo de armas.

La estrategia también llevará a proponer el tema el próximo 13 de abril en la Asamblea de la Organización de Estados Americanos (OEA) para que incluya a países como Estados Unidos y Canadá.

La embajadora de Costa Rica ante la ONU, Maritza Chan, junto al vicecanciller, Christian Guillermet, durante la Conferencia Regional sobre el Impacto Social y Humanitario de las Armas Autónomas que se realizó en el país entre el 23 y 24 de febrero.

El problema del control

Para los gobiernos y organizaciones promotoras de la regulación de las armas autónomas, es importante posicionar que el uso de este tipo de métodos para matar se deben estigmatizar y prohibir como se ha hecho con otro tipo de armas químicas, biológicas y nucleares.

El Comité Internacional de la Cruz Roja, participante del foro, define a las armas autónomas como aquellas que seleccionan objetivos y les aplican la fuerza sin intervención humana.

Según la embajadora de Costa Rica ante la ONU, Maritza Chan, el gran problema radica en que estas armas se pueden programar con todos los sesgos de raza, religión y género, para acabar con poblaciones muy específicas.

Además, cuestionó la ausencia de “control humano” en ese tipo de ataques, lo que calificó como un “cuchillo en el cuello” para la humanidad.

Además de las noticias que han circulado en el último año sobre el uso de este tipo de armas durante el conflicto entre Rusia y Ucrania, las oenegés que promueven la regulación indicaron que se tiene debidamente documentado un caso en el Consejo de Seguridad de Naciones Unidas.

El caso se remonta a 2021, cuando se registró el uso de drones turcos en el conflicto que se vive en Libia, con una capacidad autonómica bastante importante, según relataron.

A este movimiento de países y organizaciones, les preocupa el hecho de que una máquina pueda decidir de manera autónoma el poner fin a una vida, pues consideran que socava la dignidad humana y devalúa el concepto de humanidad.

“Cuando hablamos de la inteligencia artificial estamos hablando de una herramienta muy poderosa que no solamente está en las manos de los países con mayor desarrollo científico y militar, sino también puede estar en las manos de actores no estatales y de cualquiera que pueda desarrollar un algoritmo capaz de ser transportado a un dron armado. Esto puede tener serias consecuencias, ni qué decir de sus aspectos en la ciberseguridad”, comentó la embajadora Chan.

A las organizaciones también les preocupa la capacidad de un algoritmo para emitir juicios y evaluar la información disponible a la hora de realizar un ataque bajo las normas del derecho internacional sobre distinción, proporcionalidad y precaución.

Flávio Soares Damico, representante especial de Brasil ante la Conferencia de Desarme, comentó que los esfuerzos en este tema iniciaron hace algunos años y considera que debe avanzarse antes de que proliferen más en todo el mundo, aunque la negociación de un nuevo protocolo en el marco de la Convención sobre Desarme puede tomar unos diez años.

“Hoy día hay cinco protocolos, este podría ser el sexto. Obviamente, como trabajamos por consenso, eso impone dificultades importantes, porque hay potencias que tienen percepciones distintas y son obviamente aquellas potencias que tienen la capacitación para desarrollar estas armas”, comentó el embajador brasileño.

Hazel Villalobos, gerente técnica de la Fundación para la Paz y Democracia (Funpadem), indicó que es preocupante en el caso de países como Costa Rica, que, pese a no tener un ejército, sí podría tener problemas si este tipo de tecnología cae en manos del crimen organizado, sobre todo en una oleada de homicidios como la que se vive en la actualidad.

“Algo tan sencillo como las cámaras que se utilizan para el tema del monitoreo, muchas comunidades organizadas en nuestro país adoptan estas cámaras para generar más seguridad, pero resulta que ya tenemos casos de comunidades donde el mismo crimen organizado las ha hackeado para monitorear ellos”, aseguró Villalobos.

Para este movimiento que agrupa organizaciones de más de 67 países, otra gran preocupación con respecto a este tipo de armas es la facilidad con que podrían construirse con la tecnología que está hoy al alcance de mucha gente, como lo son las impresoras 3D (tercera dimensión), los pequeños drones de uso comercial y las capacidades de programación informática que tienen ya los grupos del crimen organizado.

Suscríbase al boletín

Ir al contenido