El gobierno de China lanzó una advertencia sobre los riesgos del uso de la inteligencia artificial en el ámbito militar y alertó que su desarrollo sin regulaciones podría derivar en un escenario “apocalíptico”. Funcionarios del Ministerio de Relaciones Exteriores señalaron que los algoritmos aplicados a sistemas de armamento autónomo podrían llegar a tomar decisiones letales sin intervención humana. Durante una conferencia internacional sobre seguridad tecnológica, el portavoz de la cancillería china, Lin Jian, advirtió que el uso irresponsable de la inteligencia artificial en el ámbito militar podría tener consecuencias catastróficas.
Las declaraciones se producen en un contexto en el que la inteligencia artificial está ganando cada vez mayor relevancia en los conflictos armados contemporáneos. Especialistas en estrategia militar señalan que estas tecnologías ya se emplean para el análisis de grandes volúmenes de información y la selección de objetivos, aunque su fiabilidad y su papel en la toma de decisiones continúan generando debate. El analista militar chino y coronel mayor retirado, Zhou Bo, explicó que la integración de inteligencia artificial en drones, misiles y otras plataformas de combate puede reducir los tiempos de decisión a milisegundos, lo que incrementa el riesgo de errores graves en el campo de batalla. “Las máquinas no deben decidir el destino de los seres humanos”, enfatizó el portavoz de la cancillería, quien llamó a la comunidad internacional a establecer reglas claras que garanticen que las decisiones críticas en los conflictos armados permanezcan bajo control humano. Expertos también han advertido sobre los riesgos asociados a los llamados algoritmos de “caja negra”, cuyo funcionamiento interno resulta difícil de explicar incluso para sus propios desarrolladores. El profesor de robótica y experto en ética tecnológica, Noel Sharkey, señaló que esta falta de transparencia complica determinar responsabilidades en caso de violaciones al derecho internacional humanitario. Ante este panorama, Beijing reiteró su llamado a impulsar acuerdos multilaterales que limiten el desarrollo y uso de sistemas de armas autónomas letales, con el objetivo de evitar una nueva carrera armamentística impulsada por la inteligencia artificial. |