Matar o no matar con IA

La frase “estos son mis principios; si no le gustan, tengo otros”, ampliamente atribuida a Groucho Marx, ha renacido en nuestra era de aceleración tecnológica. Hasta hace poco, Google mantenía en su página web sobre principios de IA que existían cuatro objetivos que nunca perseguiría mediante la inteligencia artificial. Uno de ellos eran las armas, pero esta promesa de futuro ya ha desaparecido, como ha detectado esta semana la agencia Bloomberg.

Fotograma de la película Terminator, donde las máquinas se rebelan contra el hombre

Fotograma de la película 'Terminator', en la que las máquinas lideradas por una IA se rebelan contra los seres humanos 

Metro-Goldwyn-Mayer Studios Inc

Lo que decía Google antes es que no iba a utilizar la inteligencia artificial para desarrollar “armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente lesiones a las personas”. En lugar de eso, una nueva entrada en su blog describe unos objetivos más ambiguos en los que parecen encajar muchas más cosas. “Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”. Ahí cabe de todo.

Google suprime las armas de los principios de IA que decía que no perseguiría

El nuevo compromiso del gigante tecnológico es que actuará para “mitigar los resultados no deseados o perjudiciales y evitar sesgos injustos” y se alineará con “los principios ampliamente aceptados del derecho internacional y los derechos humanos”.

La utilización de la tecnología para matar más y más rápido es una delicada cuestión que afecta a los contratos que han firmado compañías tecnológicas de Estados Unidos con el Ejército y que han provocado protestas de sus propios empleados en varias ocasiones.

Recientemente, Meta anunció que ha puesto su modelo de IA Llama “a disposición de las agencias gubernamentales de Estados Unidos, incluidas las que trabajan en aplicaciones de defensa y seguridad nacional, y de los socios del sector privado que apoyan su trabajo”. La calculada indefinición sobre cómo se va a utilizar la inteligencia artificial en la industria de defensa no permite afirmar que se vaya a emplear para herir o matar personas, pero tampoco descartar que se utilice así.

Alguien que ya tiene alineados sus principios con el poder político del país es Darío Amodei, el consejero delegado de Anthropic, que ya ha negociado con el departamento de Defensa la utilización de su IA Claude.

En una entrevista en Financial Times , Amodei se expresó sin ambages: “la postura de que nunca deberíamos utilizar la IA en entornos de defensa e inteligencia no tiene sentido para mí. La postura de que deberíamos ir a lo grande y usarla para hacer lo que queramos, hasta fabricar armas apocalípticas, es obviamente igual de descabellada. Estamos tratando de buscar un término medio, de hacer las cosas de manera responsable”. Está claro. El término medio de matar nunca ha sido fácil.

Mostrar comentarios
Cargando siguiente contenido...