Darth Vader también usa la IA

NEWSLETTER 'ARTIFICIAL'

Las evidencias señalan que es factible la amenaza de crear armas biológicas mediante inteligencia artificial

Darth Vader de Star Wars es el villano por excelencia

Darth Vader de Star Wars es el villano por excelencia 

Lucasfilms

De forma recurrente, las compañías que gobiernan los designios de la inteligencia artificial admiten la posibilidad de que sea utilizada para atacar a la humanidad. Además de las especulaciones sobre un posible momento Skynet, en que una IA pueda tomar decisiones propias que amenacen la existencia de los seres humanos, los riesgos más cercanos a los que nos enfrentamos son aquellos que protagonizan personas. Sí, los malos también recurren a la tecnología para sacar provecho y los primeros indicios deberían mantenernos en alerta.

Una de las cosas más inquietantes sobre el desarrollo de potentes modelos de IA es que los que quienes los han construido no tengan claro sus alcances. OpenAI, la compañía detrás de ChatGPT, hace constantemente estudios sobre el alcance de su tecnología. En uno de los últimos informes, han evaluado los riesgos de que GPT-4, el modelo de lenguaje del que se alimenta su chatbot, aumenta el riesgo de que alguien con malas ideas pueda crear un arma biológica. Las conclusiones no son para quedarse tranquilos.

OpenAI admite que GPT-4 "puede aumentar la capacidad de los expertos para acceder a la información sobre amenazas biológicas, en particular en lo que respecta a la precisión y la exhaustividad de las tareas". Pero lo que más alarma es esta frase: "no estamos seguros de la importancia de los aumentos observados". No contentos con esa vaguedad, reconocen que hay "una necesidad clara y urgente de seguir trabajando en este ámbito" y consideran que por la forma en que en que están progresando los sistemas de IA de vanguardia, "parece posible que los sistemas futuros puedan proporcionar beneficios considerables a los actores maliciosos".

Un aviso de riesgo biológico en un laboratorio

Un aviso de riesgo biológico en un laboratorio 

THOMAS SAMSON / AFP

Bastaría con que uno solo de esos actores maliciosos -aunque no es una cosa de ficción, a mí me gusta personalizarlo en el villano por excelencia, Darth Vader- consiguiera crear un patógeno peligroso para ponernos en problemas. A diferencia de los autores del estudio, quienes intenten crear un arma biológica tienen un tiempo ilimitado para conseguir un resultado mientras, día a día, aumenta la potencia de los sistemas de IA.

El informe de OpenAI lleva a recordar que el pasado verano Dario Amodei, director ejecutivo y cofundador del sistema de IA Anthropic declaró ante un comité del Senado de Estados Unidos que a medio plazo se va a plantear con la inteligencia artificial la "combinación más alarmante de inminencia y gravedad", que incluye la posibilidad de que agentes maliciosos utilicen esta tecnología avanzada para producir armas biológicas.

Se materialice o no esa amenaza, los usos de la IA por parte de delincuentes ya están causando otro tipo de estragos. Esta semana se ha registrado la primera estafa millonaria conseguida mediante deepfake, falso vídeo que clona la imagen y la voz de alguien. Las autoridades de Hong Kong han explicado que el empleado de una multinacional recibió un correo electrónico del (supuesto) jefe de finanzas de su compañía que le citó para una videoconferencia. Para el trabajador, se trataba, en efecto, de ese responsable, así como otros cinco compañeros con los que también se entrevistó por videollamada. Fruto de esas reuniones virtuales, el hombre recibió la orden de transferir 25 millones de dólares a una determinada cuenta, cosa que hizo. Los encuentros virtuales fueron con personas suplantadas por IA. La línea entre lo real y lo falso se ha difuminado. En New Hampshire, una empresa difundió mensajes telefónicos con la voz clonada del presidente de Estados Unidos, Joe Biden, recomendando no votar en las elecciones primarias. Agárrense, porque vienen curvas.

Lee también
Etiquetas
Mostrar comentarios
Cargando siguiente contenido...