CIENCIA Y TECNOLOGíA

Diplomáticos del mundo debaten regulación de ‘robots asesinos’

Expertos de muchos países se han reunido para ver cómo definir y tratar con “robots asesinos”, sistemas futuristas de armamentos que podrían dirigir guerras sin intervención humana. La reunión de una semana que comenzó el lunes es la segunda de su tipo este año en las oficinas de la ONU en Ginebra y se enfoca en estos sistemas letales y autónomos de armamentos y explora las maneras posibles de regularlas, entre otros asuntos.

En teoría, las armas totalmente autónomas y controladas por computadoras todavía no existen, dijeron funcionarios de Naciones Unidas. El debate está en las primeras etapas de desarrollo, y los expertos a veces han tenido problemas con definiciones básicas. Estados Unidos ha argumentado que es prematuro establecer una definición de estos sistemas, y por ende más difícil regularlos.

Algunas de las organizaciones activistas más prominentes dicen que se debe de evitar que los gobiernos y militares desarrollen estos sistemas, que han desatado temores y conllevado a que críticos se imaginen situaciones aterradoras por su uso.

Durante la apertura de la reunión del lunes, Amnistía Internacional exhortó a los países a que trabajen encaminados a la prohibición de estos sistemas.

Rasha Abdul Rahim, investigador sobre inteligencia artificial de Amnistía Internacional, dijo que los robots asesinos “ya no son cosas de ciencia ficción” y advirtió que los avances tecnológicos están yendo más rápido que las leyes internacionales.

Parte del problema para los organizadores de campañas, sin embargo, es que la organización apoyada por la ONU trabaja por consenso, lo que quiere decir que cualquier país, como una potencia militar, podría socavar los esfuerzos para lograr una prohibición internacional.

GOOGLE AFIRMA QUE NO USARÁ INTELIGENCIA ARTIFICIAL PARA CREAR ARMAS

En junio de 2018, el gigante tecnológico Google afirmó que no empleará la inteligencia artificial (IA) para crear armas o métodos de vigilancia que violen los derechos humanos, aunque sí seguirá colaborando con los Gobiernos en proyectos militares.

La empresa respondió así a la publicación de una carta, firmada por más de 4 mil de sus empleados, en la que se denuncia el posible uso de la inteligencia artificial en un programa gubernamental estadounidense, conocido como Project Maven, para mejorar la precisión del ataque de drones.

La protesta llevó a algunos trabajadores incluso a presentar su dimisión, según medios especializados.

En respuesta, la firma Google aseguró a comienzos de mes que no renovará el contrato firmado con el Pentágono, que expirará el próximo año, y este jueves publicó en el blog de la empresa una serie de reglas por las que se regirá para el uso apropiado de la inteligencia artificial.

En esas medidas, según detalló Sundar Pichai, máximo responsable de la compañía, se articula la obligación para la inteligencia artificial de ser “socialmente beneficiosa” y de “impedir la creación o el refuerzo de prejuicios injustos”.

Asimismo, concretó que la empresa no perseguirá que la inteligencia artificial se emplee para “armas y otras tecnologías cuyo principal objetivo o implementación sea causar o directamente facilitar el herir a las personas”.

Pichai recalcó que tampoco permitirá que la tecnología “recopile o emplee información de manera que viole normas internacionales aceptadas sobre derechos humanos”.

No obstante, el directivo aseguró que la compañía seguirá colaborando con gobiernos en proyectos militares dentro de áreas como ciberseguridad, entrenamiento y reclutamiento.

Con información de AP

HVI