lunes, 16 de abril de 2018

Grupo de científicos se organizan contra la IA en armamento

Conocidos popularmente como “robots asesinos” su misión iría más allá de seguir las órdenes de un ser humano. Estarían preparados para ser, básicamente, armas propulsadas por Inteligencia Artificial, haciendo realidad la idea detrás de películas como Terminator. Detrás de todo esto se encuentra la universidad KAIST de Corea del Sur, encargada de desarrollar a estos soldados de acero preparados para matar. Ahora, un grupo de más de 50 investigadores líderes en inteligencia artificial y robótica han asegurado que boicotearán el proyecto para luchar activamente por un control más estricto del armamento controlado por IA.

El boicot ha sido organizado por el profesor Toby Walsh de la Universidad de Nueva Gales del Sur, quien advirtió en un comunicado de prensa que la carrera para construir armas autónomas ya había comenzado. Según el profesor: “Estamos atrapados en una carrera armamentista que nadie quiere que ocurra. Las acciones de KAIST hacen que todo vaya más rápido, algo que no se puede tolerar”.

Sin embargo, el presidente del KAIST, Sung-Chul Shin, aseguró estar “entristecido” por la amenaza de boicot, y niega que la universidad esté construyendo sistemas de armas autónomos. El directivo afirmó que KAIST no llevará a cabo ninguna actividad de investigación que vaya en contra de la dignidad humana, incluyendo armas autónomas que carezcan de control humano.

La universidad KAIST junto a Hanwha, uno de los mayores conglomerados empreseriales de Corea del Sur, reúne a dos de las principales organizaciones militares y de robótica del mundo. De hecho, KAISTes mundialmente conocida por trabajos como el robot transformador DRC-HUBO, que ganó el desafío robótico DARPA 2015. Por su parte, Hanwha está involucrada en el desarrollo de armas autónomas como el cañón centinela SGR-A1, que ha sido enviado a la frontera entre Corea del Norte y Corea del Sur.

Aunque un boicot contra KAIST sería significativo, algunos expertos coinciden en que la campaña para controlar el desarrollo de armamento autónomo es inútil. Expertos en IA y robótica ya se han puesto en contacto con la ONU para avisar de que las armas que matan sin intervención humana podrían desestabilizar el mundo y deberían estar controladas por tratados internacionales.

Esta iniciativa ha recibido cierto apoyo internacional, con el respaldo de 19 países, entre ellos Egipto, Argentina y Pakistán. Pero otros como EE.UU o Reino Unido aseguran que tal legislación sería poco práctica, debido a la imposibilidad de definir lo que constituye o no el control humano. Muchos sistemas ya tienen al menos algunas capacidades autónomas, incluidos los aviones no tripulados y las redes de defensa antimisiles.