Apple y su alianza con OpenAI: “Estamos aplicando la IA de forma responsable”
Inteligencia artificial
En la defensa de las medidas para preservar la privacidad subyace la idea sobre el comportamiento dudoso de la empresa de ChatGPT
Para despejar dudas sobre la IA en Apple, la compañía organizó ayer una charla sobre el escenario del Steve Jobs Theater en la que una periodista formuló varias preguntas clave al vicepresidente de ingeniería de software, Craig Federighi, y al vicepresidente de aprendizaje automático y estrategia de IA, John Giannandrea. Federighi señaló que “el papel de la IA no es reemplazar a nuestros usuarios, sino darles poder”. El directivo consideró que esta tecnología “tiene que estar integrada en la experiencia que estás usando todo el tiempo. Tiene que ser intuitivo, pero también tiene que estar informado por tu contexto personal, conocerte realmente. Y si va a hacer eso, hay una gran responsabilidad: que tiene que ser proteger su privacidad.
El directivo reivindicó que su compañía no es nueva en esta tecnología y aseguró que antes del anuncio de ayer cada iPhone “tenía probablemente alrededor de 200 modelos de aprendizaje automático haciendo de todo”, como mejorar las fotos o la detección de un accidente de coche o una caída del usuario para pedir ayuda. “La IA ha sido un elemento clave en todo este tiempo, pero no la vemos como un fin en sí misma, sino como un medio para alcanzar un fin”, apuntó Federighi.
Para el responsable del software de Apple, las exigencias de privacidad no representan una limitación. “Es justo lo contrario, que solo la petición de la privacidad nos permite aplicar estos modelos a sus datos en sus dispositivos”, incidió. “Queremos que todo sea muy privado, ya sea ejecutado localmente en el dispositivo, o ejecutado en una nueva instancia de computación en nube privada. Esa es la forma en que podemos estar seguros de que podemos utilizar sus datos personales para hacer que estas experiencias realmente funcionen. Así que estamos muy entusiasmados con el enfoque”.
Ante algunos problemas conocidos de varios modelos de lenguaje, como las informaciones que se inventan, llamadas alucinaciones, Giannandrea indicó que ponen “a prueba todo este material”. “Hemos puesto una cantidad considerable de energía en la formación de estos modelos con mucho cuidado —agregó—. Y con los datos que hemos utilizado, con mucho cuidado, y luego, por supuesto, pruebas y pruebas y pruebas. Y así estamos bastante seguros de que estamos aplicando esta tecnología de una manera responsable”.
Giannandrea explicó que el planteamiento de Apple es que en el iPhone se ejecuten tres modelos de lenguaje propios, mientras que en conexión con la nube haya otro más. También se despejaron algunas dudas sobre cómo entrena Apple a sus modelos. No lo hacen, a diferencia de OpenAI con contenidos tomados de internet sin permiso. “Utilizamos una amplia variedad de datos para entrenar a los modelos básicos. Comenzamos con una inversión que hemos tenido en la búsqueda web durante muchos años. Seleccionamos cuidadosamente los datos de mayor calidad que podemos”, comentó. “Tenemos licencias de una gran cantidad de datos, una amplia variedad de datos, incluyendo archivos de noticias, libros de texto, fotografía de archivo, y todo eso entra en estos modelos”.
En las explicaciones de Apple subyace la idea de que la percepción del público es que hay mucha falta de privacidad en la IA, en especial en modelos poderosos como los de OpenAI. Federighi pidió un voto de confianza, como suele hacer, sobre el hecho de que su compañía no se dedica a recopilar datos de sus usuarios: “es esencial que puedas saber que nadie, ni Apple ni nadie más, tendrá acceso a ninguna de las informaciones utilizadas para procesar tus solicitudes”