¿Podrías escapar de un robot asesino?

La campaña Stop Killer Robots, de la que WILPF España forma parte, ha creado un filtro en redes sociales con inteligencia artificial para reconocer rostros y así concienciar sobre los peligros de las armas autónomas, también llamadas robots asesinos, que usan algoritmos de inteligencia artificial para elegir objetivos y matar. Puedes usar el filtro de Instagram aquí y el de Facebook aquí y así podrás comprobar el peligro que supone un robot asesino.

Como se señala en la web de la campaña, “creemos que la tecnología debería usarse para empoderar a todas las personas, no para reducirnos a estereotipos, etiquetas o un patrón de ceros y unos”. Por eso, la campaña organiza una petición de firmas para reclamar “a los dirigentes de los Gobiernos de todo el mundo que emprendan negociaciones para desarrollar una nueva ley internacional sobre armas autónomas que garantice el control humano del uso de la fuerza y para prohibir máquinas que tengan a personas como objetivo, reduciéndonos a objetos, estereotipos y datos”.

Este es el texto completo de la petición, que puedes firmar pinchando aquí:

Los Gobiernos y las empresas están desarrollando rápidamente sistemas de armamento con una autonomía cada vez mayor utilizando nuevas tecnologías e inteligencia artificial. Estos “robots asesinos” podrían ser utilizados en zonas de conflicto, por las fuerzas policiales y en el control de fronteras. No se debe permitir que una máquina tome una decisión sobre la vida y la muerte. Actuemos ahora para proteger nuestra humanidad y hacer del mundo un lugar más seguro.

Nos enfrentamos a lo impensable: se están desarrollando drones y otras armas avanzadas con la capacidad de elegir y atacar sus propios objetivos, sin control humano. Las armas autónomas, o “robots asesinos”, que antes se creían de película, ya no son un problema del futuro.

Las máquinas no pueden tomar decisiones éticas complejas. Carecen de compasión y comprensión, toman decisiones basadas en procesos sesgados, defectuosos y opresivos. Las tecnologías emergentes, como el reconocimiento facial y vocal, a menudo no reconocen a las mujeres, las personas de color y las personas con discapacidad. Esto significa que las armas autónomas nunca podrán ser programadas adecuadamente para sustituir la toma de decisiones humana.

La sustitución de las tropas por máquinas facilita la decisión de ir a la guerra – y a través de las transferencias ilegales y la captura en el campo de batalla, estas armas caerán en manos de otros. Además, estas tecnologías se utilizarán en la vigilancia policial, en el control de fronteras y para amenazar derechos humanos como el derecho a la protesta, el derecho a la vida, la prohibición de la tortura y otros malos tratos. A pesar de estas preocupaciones, países como Estados Unidos, China, Israel, Corea del Sur, Rusia, Australia y el Reino Unido siguen invirtiendo en armas autónomas.

Tenemos la oportunidad de actuar ahora. Mientras las empresas y los departamentos de defensa de todo el mundo se apresuran a desarrollar estas tecnologías, debemos actuar rápidamente antes de que perdamos el control humano significativo sobre el uso de la fuerza, con consecuencias devastadoras”.

Puedes firmar esta petición aquí: https://www.stopkillerrobots.org/now/

Posts recientes
Contáctanos

Mándanos un email y nos pondremos en contacto contigo lo más pronto posible.

Empieza a teclear y presiona enter para buscar