Loading...

Zuckerberg recurre a la inteligencia artificial para afrontar la nueva crisis por el contenido dañino en Facebook

Escándalo

‘The New York Times’ reveló que la directora de operaciones Sheryl Sandberg conspiró para rebajar el impacto de la campaña de desinformación de Rusia en la red social

Sheryl Sandberg, directora de operaciones de Facebook, señalada por ‘The New York Times’

Jim Watson / AFP

El director ejecutivo de Facebook, Mark Zuckerberg, ha presentado un plan desarrollado por la empresa para reducir la distribución de publicaciones no permitidas en la red social o que integran contenido ‘límite’ o cercano a vulnerar las políticas de la comunidad, a partir del entrenamiento de la Inteligencia Artificial para identificar este contenido de forma proactiva, y que tiene por objetivo reducir su visibilidad.

Según ha publicado Zuckerberg en un comunicado, el trabajo de la empresa es “mantener bajo el mal uso, mejorar constantemente con el tiempo y anticiparnos a las nuevas amenazas”, como ha publicado en una nota dentro de la red social. Por ello, las medidas tomadas por Facebook consisten en “eliminar más contenido dañino, evitar que el contenido ‘límite’ se propague, dar a las personas mayor control sobre su experiencia y crear supervisión y transparencia independiente en los sistemas”.

El logo de Facebook en la pantalla rota de un smartphone . (Photo by JOEL SAGET / AFP)

Caída de las acciones y gran golpe a la moral de los empleados

La medida se anuncia unos días después d eun nuevo escándalo que ha afectado a la compañía. El jueves, los empleados de Facebook Inc. volvieron a trabajar después de que la noche anterior, The New York Times desvelara un nuevo escándalo de la empresa. El reportaje informaba que Sheryl Sandberg, directora de operaciones de Facebook, trabajó entre bambalinas para impedir que la junta directiva de la compañía y el público captaran el alcance total de la campaña de desinformación de Rusia en la red social.

El artículo ha dañado la moral de los empleados de Facebook, según ha publicado Bloomberg. Durante el almuerzo, los trabajadores caminaban apesadumbrados y más callados de lo habitual por las cafeterías para el personal en la sede de la compañía en Menlo Park, California. Pero sus teléfonos no dejaban de sonar.

La mayor parte de la comunicación en Facebook tiene lugar en la versión de la compañía de la red social, en diversos grupos empresariales. Pero cuando la noticia se refiere a los directivos de Facebook, a algunos empleados les resulta más fácil hablar cuando no se da a conocer su nombre. Utilizan Blind, la aplicación anónima de chat para empleados, para plantear sus inquietudes, de acuerdo con capturas de pantalla que obtuvo Bloomberg.

El jueves, las conversaciones estaban llenas de ira. ¿Cómo pudo Sandberg –y el máximo responsable Mark Zuckerberg- no ver el riesgo que corría la compañía? ¿Y cómo fue que manejaron tan mal todo esto?

“¿Por qué nuestra compañía es un desastre en cuanto a tener una brújula moral?” preguntó un empleado en un mensaje enlazado al artículo de The New York Times.

“Zuckerberg delega demasiado a los demás en cuestiones en las que tiene que tomar una decisión”, dijo otro, también en forma anónima, en el mismo hilo.

“Estoy harto como la m* de limpiar después de los errores de descuido que hicieron tan, tan ricas a tantas de las personas responsables de ellos”, dijo un tercero.

Mark Zuckerberg, también señalado por delegar sus responsabilidades. Gerard Julien / AFP

Mark Zuckerberg y su directora de operaciones, Sheryl Sandberg, muy señalados

Las acciones de la compañía están en baja desde que en julio Facebook informó que preveía que el crecimiento se desaceleraría en los años futuros. El jueves tuvo lugar un evento de otorgamiento de acciones a empleados que se programa regularmente, según personas con conocimiento del tema. Pero las acciones valen 34% menos que en su pico de julio de este año.

Causa frustración, según algunos empleados, que las cosas que la compañía debe hacer para resolver problemas de imagen pública –como sumar personas que revisen el contenido dañino y limitar la recolección de datos- depriman aún más el crecimiento y, por lo tanto, el precio de la acción.

En una encuesta a empleados realizada en octubre, el 52% dijo ser optimista respecto del futuro de Facebook, por debajo del 84% registrado el año anterior, de acuerdo con cifras que primero dio a conocer un informe de The Wall Street Journal esta semana. Zuckerberg les ha dicho a los empleados en reuniones internas que están haciendo lo correcto con vistas al largo plazo.

El artículo del Times sugería que Sandberg y Zuckerberg no estaban tan involucrados como debían en los graves problemas que enfrentaba la compañía y que, en cambio, se preocupaban más por seguir defendiendo la reputación de Facebook. Sandberg, en particular, se esforzaba por impedir que la junta directiva y el público se enteraran de demasiadas cosas respecto de la campaña rusa y luego encabezaba una enérgica iniciativa de lobby para rebatir las críticas.

Revisión del contenido dañino con IA

Una de las primeras iniciativas para controlar este nuevo escándalo son los estándares que la comunidad de Facebook ha redactado en lo relativo a violencia y contenido gráfico, publicadas en abril y enmarcadas dentro de las directrices internas de la compañía.

Estos estándares recogen que la compañía elimina “contenido que glorifica la violencia o celebra el sufrimiento o la humillación de los demás”. En lo relativo a las revisiones del contenido, Zuckerberg ha aludido a los esfuerzos que la empresa realiza durante los últimos años para combinar Inteligencia Artificial (IA) junto con un equipo de personas encargadas de revisar las distintas publicaciones.

Al incorporar la IA y combinarla con las personas encargadas del filtrado de las publicaciones, Facebook pretende “denunciar de forma proactiva el contenido potencialmente problemático al equipo de revisores”, e incluso actuar de forma automática en algunos casos. Con la IA, Zuckerberg ha afirmado que se identifica y elimina “un porcentaje mucho mayor de contenido dañino” de forma más rápida.

En la publicación también se indica que con los avances implementados en los últimos años, los equipos de revisión han logrado reducir la identificación incorrecta de una publicación a uno de cada diez casos, y que estos errores se deben fundamentalmente a cuestiones relativas a los matices de las políticas.

La compañía ha resaltado los esfuerzos realizados en reducir estos errores y en “hacer cumplir de forma proactiva” las políticas mediante la combinación de la IA con los equipos de revisores. A esto hay que añadir el entrenamiento de los sistemas de IA para que sean capaces de detectar el contenido que sugiera un riesgo para el propio usuario, como ha destacado Zuckerberg, con el objetivo de ayudar a socorrer a estas personas.

El cuartel general de Facebook en Menlo Park (California). (Photo by JOSH EDELSON / AFP)

Detección del “contenido límite”

Otra de las medidas resaltadas por la compañía está relacionada con el entrenamiento de la IA para que sea capaz de detectar ‘contenido límite’, es decir, cercano a lo que prohíben publicar las políticas de la comunidad. Este tipo de publicaciones supone, cuando no se supervisan, que “la gente se implicará desproporcionalmente con más contenidos sensacionalistas y provocativos”, como ha detectado la compañía. Por ello si se identifican rápido, Facebook es capaz de reducir su distribución.

Zuckerberg espera que, al limitar la distribución de este contenido sensacionalista, materializado sobre todo a través de la desinformación y el ‘click-bait’, los usuarios tendrán menos incentivos para realizar publicaciones en esta línea.

A pesar de la efectividad de esta medida, el director ejecutivo de Facebook ha remarcado que “la manera más efectiva de detener la propagación de información errónea es eliminar las cuentas falsas que la generan”. Zuckerberg ha defendido que la empresa debe aplicar los cambios de distribución tanto en el ranking del ‘News Feed’ como en todos los sistemas de recomendación de cosas a las que unirse.

Este mecanismo de control estará activado de forma predeterminada y servirá, según la publicación, para “proporcionar una experiencia más segura” a los usuarios, los cuales verán menos contenido cercano al límite si así lo deciden, aunque quien quiera podrá tener acceso a esas publicaciones, ya que “no violan los estándares”.

Organismo independiente para apelar decisiones

Dados los errores que en ocasiones comenten, Facebook comenzó a introducir un “proceso de apelación de contenido” este año, con el que los usuarios podían denunciar decisiones de la compañia que supusieron el borrado de una publicación, en caso de que no estuvieran de acuerdo.

Ahora, la red social pretende ampliarlo para que se puedan apelar decisiones sobre un informe que también haya sido presentado por el usuario, además de ofrecer más transparencia sobre cómo se violaron las políticas de la empresa.

Por otra parte, la compañía se plantea que los usuarios puedan apelar las decisiones tomadas por la empresa en relación a los contenidos ante un organismo independiente, cuyas decisiones serían vinculantes. Así, Facebook establecería este organismo antes de que acabara el año 2019, un propósito con el que busca “defender el principio de dar voz a las personas y al mismo tiempo reconocer la realidad de mantener a las personas seguras”.

Este medida, como ha defendido el fundador de la red social, “evitaría la concentración de demasiada toma de decisiones dentro de nuestros equipos”, “crearía responsabilidad y supervisión” y, además, “ofrecería la seguridad de que estas decisiones se toman para el mejor interés de la comunidad, y no por razones comerciales”.

Vista del escaparate de una tienda efímera que Facebook montó en Colonia, Alemania. EFE/ Sascha Steinbach

Transparencia

En lo referente a transparencia, la empresa se enfocará en dos aspectos, permitir más investigación académica sobre los sistemas utilizados por Facebook y su impacto, así como establecer informes de transparencia y de aplicación trimestrales.

Facebook publica mediciones estadísticas sobre lo habitual que es el contenido dañino dentro de la red social, así como un seguimiento de su efectividad a lo largo del tiempo, y pretende informar sobre cada categoría de contenido dañino, además de agregar más métricas relacionadas con los errores cometidos y la velocidad de las respuestas.

Los informes están centrados en tres puntos básicos, que recogen cómo de frecuente es el contenido que viola las normas de Facebook, sobre qué cantidad de contenido se actúa y cuánto contenido violatorio se encuentra de forma proactiva. La empresa pretende ser capaz de publicar estos documentos con periodicidad trimestral a finales del año que viene.

Con el objetivo de “aumentar la transparencia y la responsabilidad”, Facebook también ha declarado que publicará las actas de las reuniones en las que participan expertos externos y organizaciones, y donde se abordan debates relacionados con la libertad de expresión y los impactos que tienen las acciones de la compañía. Esto se hará debido a que las políticas de Facebook incluyen la necesidad de “obtener regularmente aportaciones de expertos externos y organizaciones”.

Colaboración con empresas y Gobiernos

Para establecer un marco regulatorio adecuado, Zuckerberg ha comunicado que la empresa ha comenzado a trabajar con distintos gobiernos para regular el contenido, y así “definir tasas aceptables para distintos tipos de contenido” y dibujar las líneas entre “libertad de expresión y seguridad”.

En este sentido, la compañía ya ha empezado a trabajar, entre otros, con el Gobierno frances, y espera poder crear junto con la Comisión Europea, un marco común para Europa en los próximos dos años.

Además, el líder de Facebook ha planteado que las compañías de Internet “informen de la prevalencia de contenido dañino en sus servicios y luego trabajen para reducirla”. Con esto, el director ejecutivo de Facebook ha defendido que es necesaria la colaboración con gobiernos y empresas para “encontrar el equilibrio y las soluciones correctas”.

El cuartel general de Facebook en Menlo Park (California) (AP Photo/Marcio Jose Sanchez, File)