Los avances de la IA le dan un potencial militar muy peligroso: más de 60 países creen que debe regularse
¿Necesita regulación la inteligencia artificial? De la primera convención tenida lugar y debemos aprender algunas cosas.
¿Está llegando la inteligencia artificial demasiado lejos en términos de evolución? Esto es lo que podría decirse tras ver cómo en los últimos años se han producido importantes avances en la materia. Pese a que los sistemas basados en el conocido como machine learning están centrado en múltiples áreas, una de las que genera una mayor controversia es la relacionada con el ámbito militar. Al fin ya al cabo, debido a la incorporación del aprendizaje profundo, el ser humano es capaz de crear armas que mejoran a base de la experiencia.
El potencial militar puede tener consecuencias catastróficas si no se produce una regulación. De hecho, hace tan solo unas semanas la Universidad de Oxford se mostraba tajante a este respecto. Un equipo de investigadores sugirió que debía hacerse un profundo análisis para determinar una serie de reglas internacionales parecidas a las que se puede observar en torno a la creación y mantenimiento de armas nucleares. Ahora, muy poco tiempo después, se ha podido establecer una primera reunión al respecto.
Veamos, por tanto, cómo la inteligencia artificial puede provocar daños a gran escala si no se produce una limitación a su alcance, por qué se trata de un elemento clave a tener en cuenta para poner un tope a esta especie del desarrollo autónomo de estos sistemas algorítmicos y, por supuesto, hasta qué punto este tipo de convenios puede servir para capar el potencial de los sistemas basados en inteligencia artificial aplicados al ámbito militar.
Un debate para limitar el potencial bélico de los sistemas basados en inteligencia artificial
¿Llegaremos a vivir una guerra entre el ser humano y la máquina? Se trataría de una forma muy peculiar de ludismo en el que no está muy claro quién podría ser el vencedor. Al fin y al cabo, se ha conferido a la tecnología una gran capacidad autónoma para mejorar tras cometer fallos. Aunque pueda parecer un tema a debatir sobre aspectos futuros, lo cierto es que en países como Estados Unidos ya se está legislando a este respecto. Es por ello que se ha creado la denominada Cumbre mundial sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM por sus siglas en inglés).
De acuerdo con la información proporcionada por TechSpot, delegaciones de 60 países, incluidos China y Estados Unidos, mostraron su compromiso para evitar la delegación de funciones a los sistemas basados en inteligencia artificial en el campo de batalla. El uso responsable de esta tecnología puede ser un factor clave de diferenciación en el medio plazo, por lo que se sabe que el potencial de mejora es muy notorio. A estos efectos, parece que se han establecido límites para permitir que un arma únicamente pueda operar bajo el permiso de un operario.
Aun así, pese a los avances de las conversaciones mantenidas entre muchos de los países avanzados en el ámbito militar, hay ciertas dudas sobre los límites del uso de la inteligencia artificial. Un buen ejemplo de ello nos lo muestran los misiles guiados gracias al uso de este tipo de tecnología. ¿Deberían regularse o este tipo de innovaciones no se encontrarían dentro del ámbito de intervención de esta especia de acuerdos? Como ves, hay todavía una serie de cuestiones que deben pulirse para evitar futuros vacíos legales.
Cabe precisar que las nuevas tecnologías basadas en estos programas informáticos afectan a toda una serie de soluciones dentro del sector de defensa. De hecho, empresas como Lockheed Martin han conseguido producir aviones con capacidad para conducir de forma autónoma durante varias horas sin necesidad de la asistencia de los pilotos. ¿Veremos algún día aviones comerciales sobrevolando ciudades sin tripulación alguna? El horizonte tecnológico se antoja, en cierto sentido, preocupante.