De forma recurrente, las compañías que gobiernan los designios de la inteligencia artificial admiten la posibilidad de que sea utilizada para atacar a la humanidad. Además de las especulaciones sobre un posible momento Skynet, en que una IA pueda tomar decisiones propias que amenacen la existencia de los seres humanos, los riesgos más cercanos a los que nos enfrentamos son aquellos que protagonizan personas. Sí, los malos también recurren a la tecnología para sacar provecho y los primeros indicios deberían mantenernos en alerta.
Una de las cosas más inquietantes sobre el desarrollo de potentes modelos de IA es que los que quienes los han construido no tengan claro sus alcances. OpenAI, la compañía detrás de ChatGPT, hace constantemente estudios sobre el alcance de su tecnología. En uno de los últimos informes, han evaluado los riesgos de que GPT-4, el modelo de lenguaje del que se alimenta su chatbot, aumenta el riesgo de que alguien con malas ideas pueda crear un arma biológica. Las conclusiones no son para quedarse tranquilos.
OpenAI admite que GPT-4 "puede aumentar la capacidad de los expertos para acceder a la información sobre amenazas biológicas, en particular en lo que respecta a la precisión y la exhaustividad de las tareas". Pero lo que más alarma es esta frase: "no estamos seguros de la importancia de los aumentos observados". No contentos con esa vaguedad, reconocen que hay "una necesidad clara y urgente de seguir trabajando en este ámbito" y consideran que por la forma en que en que están progresando los sistemas de IA de vanguardia, "parece posible que los sistemas futuros puedan proporcionar beneficios considerables a los actores maliciosos".
Bastaría con que uno solo de esos actores maliciosos -aunque no es una cosa de ficción, a mí me gusta personalizarlo en el villano por excelencia, Darth Vader- consiguiera crear un patógeno peligroso para ponernos en problemas. A diferencia de los autores del estudio, quienes intenten crear un arma biológica tienen un tiempo ilimitado para conseguir un resultado mientras, día a día, aumenta la potencia de los sistemas de IA.
El informe de OpenAI lleva a recordar que el pasado verano Dario Amodei, director ejecutivo y cofundador del sistema de IA Anthropic declaró ante un comité del Senado de Estados Unidos que a medio plazo se va a plantear con la inteligencia artificial la "combinación más alarmante de inminencia y gravedad", que incluye la posibilidad de que agentes maliciosos utilicen esta tecnología avanzada para producir armas biológicas.
Se materialice o no esa amenaza, los usos de la IA por parte de delincuentes ya están causando otro tipo de estragos. Esta semana se ha registrado la primera estafa millonaria conseguida mediante deepfake, falso vídeo que clona la imagen y la voz de alguien. Las autoridades de Hong Kong han explicado que el empleado de una multinacional recibió un correo electrónico del (supuesto) jefe de finanzas de su compañía que le citó para una videoconferencia. Para el trabajador, se trataba, en efecto, de ese responsable, así como otros cinco compañeros con los que también se entrevistó por videollamada. Fruto de esas reuniones virtuales, el hombre recibió la orden de transferir 25 millones de dólares a una determinada cuenta, cosa que hizo. Los encuentros virtuales fueron con personas suplantadas por IA. La línea entre lo real y lo falso se ha difuminado. En New Hampshire, una empresa difundió mensajes telefónicos con la voz clonada del presidente de Estados Unidos, Joe Biden, recomendando no votar en las elecciones primarias. Agárrense, porque vienen curvas.
Apple, mostrará su IA a final de año
Todo el mundo se preguntaba dónde está la IA de Apple. Esta semana, su consejero delegado, Tim Cook, aprovechó una conferencia sobre beneficios, para destacar la fuerte inversión de su compañía en inteligencia artificial y anunciar la presentación de su sistema de IA generativa "a finales de este año". Diez meses, como mucho, para despejar las dudas.
Gemini de Google reemplaza a Bard
Google anunció ayer que su IA Gemini se integrará como un ecosistema completo en todos los servicios de la compañía. El chatbot Bard pasa a llamarse Gemini. Está disponible en 40 idiomas en la web y llega a una nueva aplicación de Gemini en Android y a la aplicación Google en iOS La versión con Ultra se llamará Gemini Advanced y será de suscripción.
Altman y el primer milmillonario
Sam Altman, consejero delegado de OpenAI, afirmó durante la conferencia de inversores Robin Hood que en un futuro próximo se creará una "empresa de mil millones de dólares formada por una sola persona" gracias a la IA y que tiene junto a un grupo de dirigentes de compañías tecnológicas una porra sobre el año en que se alcanzará ese hito. La afirmación se produce en un contexto de despidos generalizados en las tecnológicas.