Sin embargo, las posturas de muchos funcionarios del régimen de Pékin podrían ser más proclives a la cautela a la hora de valorar la actual 'carrera armamentística inteligente', según [el último informe] (Centro de Investigación de Sistemas No Tripulados (USRC), dirigido por Yan Ye, y el Centro de Investigación de Inteligencia Artificial (AIRC), dirigido por Dai Huadong.) hecho público por el estadounidense Center for a New American Security.

A medida que las naciones dedican más fondos a aplicar los avances de la inteligencia artificial al campo militar, se acrecienta el temor a que esto ayude a desatar 'guerras accidentales' entre las mismas, sobre todo en el actual marco de normas internacionales tecnológicamente obsoletas.
En palabras de Gregory C.
Allen, autor del informe, 'el escenario específico que me describió [un funcionario chino anónimo] fue una escalada involuntaria relacionada con el uso de drones'.
Otros países, como EE.UU, también usan los drones para tareas automatizadas (como el seguimiento de objetivos), pero China ha comenzado a exportar modelos, como el Blowfish A2, prometiendo capacidad para lanzar ataques autónomamente.
Y, al igual que en la guerra cibernética los países se arriesgan con ataques que no realizarían si hubiera humanos involucrados de manera física, los militares podrían estar más dispuestos a desplegar y derribar drones, al no ponerse en riesgo directamente vidas humanas.
O peor: en caso de que algún tipo de arma autónoma realice disparos de advertencia contra soldados enemigos, ¿a quién se atribuirá la responsabilidad de dicho ataque? ¿Cómo saberlo en ese momento, o cómo demostrarlo a posteriori?

Fuente: Diario Jornada >> lea el artículo original