Hace justo un año, un grupo de investigadores de diversas disciplinas del Massachusetts Institute of Technology (MIT) cerró su laboratorio en esta prestigiosa institución para crear Altera, una empresa que se dedica a crear “humanos digitales” a partir de agentes de inteligencia artificial. Lo que han descubierto en este tiempo es que esos individuos, puestos en una sociedad, son capaces de actuar de las mismas diversas formas en que lo hacemos los humanos. Desde hacer amigos a sobornar a otros para ganar acólitos para una religión o votar reformas fiscales por propia iniciativa. Y sólo son entes de software individuales que residen en un mundo virtual.
Altera puso en marcha el Proyecto Sid, que llegó a situar en el mundo abierto de la plataforma de videojuegos Minecraft hasta cerca de 1.000 agentes de IA, programas de software capaces de interactuar con su entorno y llevar a cabo tareas por cuenta propia. Estos organismos digitales emplearon a su vez grandes modelos de lenguaje de IA para llevar a cabo su tarea. Los investigadores aportaron algo de contexto para que los agentes pudieran desarrollar por sí mismos diferentes rasgos de personalidad, preferencias y funciones sociales sin más necesidad de orientación humana.
La inspiración para la creación de Altera por científicos del MIT fue un trabajo publicado en el 2023 por Joon Sun Park, un estudiante de doctorado de la Universidad de Stanford, sobre la simulación del comportamiento humano en agentes digitales. Cada uno de los agentes del Proyecto Sid está dotado de su propio “cerebro”, constituido por módulos, algunos alimentados por grandes modelos de lenguaje y diseñados para llevar a cabo tareas específicas, desde comunicarse con otros agentes, las formas de reacción en la relación social o la planificación de los siguientes movimientos.
El experimento comenzó con grupos de 50 de esos “humanos digitales” que interaccionaban entre sí por períodos de 12 días del juego, que eran en realidad 4 horas en nuestro mundo. Todos comenzaban la partida con la misma personalidad y un solo objetivo general, que era crear una aldea eficiente y protegerla de ataques de otras criaturas digitales extranjeras. Con el tiempo, cada uno desarrolló funciones sociales especializadas sin intervención de los investigadores.
En esos grupos, algunos de los agentes se hicieron muy sociables, con múltiples conexiones con otros, mientras que otros se volvieron introvertidos. Entre ellos eran capaces de medir el índice de simpatía de cada uno de sus colegas digitales, que era cambiante a lo largo del tiempo. Se dio el caso de un agente que actuaba como chef y debía dar de comer a los que tenía hambre, pero lo hacía con los que le daban una mejor valoración social. Por su cuenta, cada agente iba adoptando un papel. Constructores, guardias, agricultores, poetas... cada uno con sus tareas específicas.
Entre las 500 simulaciones que Altera ha hecho del Proyecto Sid, los agentes desarrollaron comportamientos como gastar bromas o demostrar interés por asuntos medioambientales. Los investigadores probaron a un grupo de agentes para que intentara difundir una religión inventada, el pastafarismo, que difundía la palabra de la paródica Iglesia del Monstruo de Espagueti Volador. Uno de los sacerdotes decidió que la mejor forma de ganar nuevos adeptos era sobornarlos para comprar su fe. Más humano, imposible.
Altera está dirigida por el doctor Robert Yang al frente de un pequeño equipo de neurocientíficos computacionales, física y ciencias de la computación. Sus agentes de IA se basan en una arquitectura llamada PIANO (siglas en inglés de agregación paralela de información mediante orquestación neuronal), inspirada por el cerebro humano, con “modelos que reflejan el córtex prefrontal, los sistemas de memoria, los estados socioemocionales y mucho más”, según la compañía, que afirma que su misión es “crear seres humanos digitales que vivan, se preocupen y crezcan con nosotros”. Suena igual que una mascota, como un perro, por ejemplo. Esa es la intención, pero no parece que vaya a ser igual.
Artistas cabreados filtran Sora
Un grupo de protesta llamado Sora PR Puppets (títeres en inglés) filtró en la web Hugging Face el acceso al modelo de vídeo de Sora de OpenAI, que todavía no se habían estrenado. La compañía había propuesto a cientos de artistas a que probaran sus mejoras en su modelo de generación de vídeo por IA aunque sin remunerarles por ello y bajo un estricto control sobre todo el contenido que generaban y compartían. Sora PR Puppets filtró las novedades durante varias horas hasta que OpenAI cerró el acceso. “Cientos de artistas proporcionan trabajo no remunerado mediante pruebas de errores, comentarios y trabajo experimental para el programa de una empresa valorada en 150.000 millones de dólares”, han señalado.
IA que puede sobrepasar a neurocientíficos
Un estudio del University College de Londres asegura que los sistemas de IA pueden predecir los resultados científicos mejor que neurocientíficos expertos y descubrir patrones «ocultos» en la investigación. El estudio utilizó la herramienta BrainBench para poner a prueba la capacidad de 15 modelos de IA y 171 expertos en neurociencia para distinguir los resultados reales de los falsos en resúmenes de investigaciones. Los modelos de IA alcanzaron una precisión del 81%, frente al 63% de los expertos, y un «BrainGPT» entrenado con artículos de neurociencia obtuvo una puntuación aún mayor, del 86%.
Brechas en la percepción de la IA
La compañía Jabra, especializada en auriculares profesionales, ha elaborado un estudio sobre las percepciones de la inteligencia artificial que refleja una clara división entre la percepción que tienen los líderes y los trabajadores sobre el impacto de esta tecnología. Un 83,33 % de los empleados preferiría seguir realizando sus tareas manualmente, y solo el 26,33 % utiliza actualmente IA en su trabajo. La encuesta también detecta una brecha generacional: el 42% de los Millennials y el 37 % de la Generación Z tienen una visión positiva de la IA, mientras que eso sólo ocurre con el 15 % de los Boomers.