El CEO de Instagram cree que se necesitan más medidas para regular la IA
La plataforma busca implementar etiquetas y contexto adicional para combatir la desinformación generada por inteligencia artificial

En medio de la creciente preocupación por el impacto de la inteligencia artificial en las redes sociales, Adam Mosseri, CEO de Instagram, ha lanzado una importante advertencia. El directivo ha expresado su inquietud por la facilidad con la que la IA puede generar imágenes engañosamente realistas**, según informa Business Insider.
La postura de Mosseri refleja un cambio significativo en cómo las plataformas sociales abordan el contenido generado por IA. A través de Threads, el ejecutivo ha enfatizado la responsabilidad de las plataformas de internet en etiquetar este tipo de contenido, reconociendo que, aunque las etiquetas no son infalibles, representan un primer paso crucial para ayudar a los usuarios a navegar en este nuevo panorama digital.
El desafío de mantener la confianza en la era de la IA
Esta preocupación surge en un momento crítico para la regulación de la IA. La entrada en vigor de la Ley Europea de Inteligencia Artificial el pasado mes de agosto ha marcado un precedente sobre cómo las empresas deben manejar esta tecnología, estableciendo un marco regulatorio que podría influir en las medidas que Instagram y otras plataformas implementen.
El problema va más allá de la simple identificación de contenido. Como señala Herminio Granero, Executive Director en Ingram Micro Iberia, la IA es una herramienta poderosa tanto para fines benéficos como maliciosos, lo que hace crucial desarrollar sistemas robustos de verificación y transparencia.
Meta, la empresa matriz de Instagram, se encuentra en una encrucijada sobre cómo implementar estas medidas. Mientras otras plataformas como X (antes Twitter) han adoptado soluciones como las Community Notes para añadir contexto a publicaciones potencialmente engañosas (si bien estas medidas no son todo lo útiles que deberían), Instagram aún no ha confirmado si implementará una función específica para etiquetar contenido generado por IA.
La propuesta de Mosseri va más allá de las simples etiquetas. El CEO argumenta que las plataformas deben proporcionar información sobre quién comparte el contenido, permitiendo a los usuarios evaluar mejor su credibilidad. Este enfoque dual de etiquetado y contextualización podría convertirse en un estándar para combatir la desinformación en la era digital.
El desafío es particularmente relevante considerando la sofisticación creciente de las herramientas de IA para generar contenido visual. Las imágenes y vídeos generados por inteligencia artificial son cada vez más difíciles de distinguir de los reales, lo que podría erosionar la confianza en las plataformas digitales si no se implementan medidas efectivas de transparencia y verificación.
Puedes seguir a Andro4all en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.