Una ley contra la pederastia en línea amenaza la privacidad de los europeos

Abuso sexual infantil

La propuesta de la Comisión es criticada por invasiva y técnicamente inviable

Miles de personas utilizan sus móviles en un concierto solidario con Ucrania en Viena en marzo del 2022

Miles de personas utilizan sus móviles en un concierto solidario con Ucrania en Viena en marzo del 2022

AFP

Quien no haya utilizado una aplicación de mensajería alguna vez para enviar algún mensaje o imagen subida de tono que tire la primera piedra. Lo hacemos creyéndonos en un espacio protegido del ojo ajeno. Lo que se dice o hace queda entre nosotros y el código. Esto podría estar a punto de cambiar en la Unión Europea, según denuncian activistas por los derechos digitales, en nombre de la lucha contra el abuso sexual infantil. La Comisión Europea pretende aprobar antes del próximo mes de octubre un reglamento –es decir, de aplicación directa en todos los países de la UE– que obligaría a todas las plataformas de mensajería, también a las de comunicación encriptada, a monitorear las comunicaciones en busca de comportamientos sospechosos. Casi la totalidad de organizaciones en defensa de los derechos digitales y un gran número de expertos en tecnología alertan de la posible pérdida de derechos fundamentales y peligros para la seguridad en la red que supondría su aprobación. No obstante, tanto la Comisaria de Interior, Ylva Johansson, como el ponente del proyecto, el español Francisco Javier Zarzalejos, sostienen que la Regulación para Prevenir y Combatir el Abuso Sexual Infantil no trata sobre privacidad sino sobre los derechos de los niños y acusan a los activistas de “distorsionar el sentido del proyecto”.

“No va sobre los niños, me he leído el borrador entero, y en 140 páginas no habla de abuso sexual infantil. Solo sobre el control de internet”, denuncia Sergio Salgado, activista de la plataforma en defensa de los derechos digitales Xnet, que hoy publica junto a Political Watch, The Commoners, Eticas, Inter_ferencias y Guifi•net el informe “#ChatControl –Monitorización automatizada de las conversaciones íntimas de la ciudadanía europea”.

El proyecto de ley actual plantea la creación de algoritmos que escaneen las comunicaciones, en particular el material sexualmente explícito (también entre adultos), para detectar material o comportamientos pederastas. Se habla de una “tecnología neutra”, es decir, el algoritmo en cuestión navegaría algo así como con los ojos cerrados, y solo los abriría si detecta casos sospechosos. Este material se enviaría después a un centro de procesamiento de datos, donde la mano humana haría una primera criba. De ahí, si fuera necesario, se mandaría a las autoridades de los países respectivos. El problema es que, hoy por hoy, afirman los detractores de la ley, esa tecnología no existe. Y todo lo que se ha probado antes se ha descartado por el inasumible número de falsos positivos que generaba. “El enfoque es no decir qué tecnología tiene que utilizar cada plataforma, sino exigir que se cumplan unos estándares”, defiende Zarzalejos en conversación con La Vanguardia. El eurodiputado popular afirma que cada servicio tiene sus propias particularidades, por tanto, deberán de aplicar medidas distintas para controlar el uso delictivo por parte de sus usuarios y el objetivo del reglamento es “no quedar obsoleto”.

“Johansson dice que quiere desalentar el uso de la comunicación cifrada porque impide acceder a la policía”

“Sabemos a ciencia cierta que las mejores tecnologías del mundo para hacer esto tienen una tasa de error de entre el 10% y el 20%. Solo en WhatsApp se envían 10.000 millones de mensajes diarios, una tasa de error del 10% al 20% es de miles de millones. Las tasas de error van a ser enormes”, apunta Ella Jakubowska, experta en derechos humanos digitales en la red European Digital Rights (EDRi). A esto Zarzalejos responde que “una tasa de acierto del 90%, teniendo en cuenta que después habría una revisión humana, no es escandaloso”.

No obstante, cuando se habla de falsos positivos no hablamos en abstracto, algunas plataformas como Facebook o Gmail ya utilizan tecnologías similares para identificar desnudos. Salgado explica, por ejemplo, el caso de una persona en Estados Unidos que sufrió problemas legales durante una década después de que Google identificara unas fotos de su hijo que mandó para una consulta médica como material de abuso sexual infantil. Jakubowska va más allá. La policía irlandesa identificó falsamente a cientos de personas como posibles abusadores tras compartir imágenes de sus hijos en la playa o incluso imágenes consentidas entre adultos.

El pasado 11 de mayo, 30 de los principales expertos en informática y ciberseguridad europeos publicaron una carta abierta a los líderes europeos en la que alertaban de que la propuesta de la comisión se basaba en tecnología altamente imprecisa y “pondría en peligro la seguridad de todos, incluidos algunos de los más vulnerables: los niños”. Pero Zarzalejos disiente y asegura que esta tecnología tiene que “adaptarse y calibrarse”. “Los algoritmos pueden ser tan específicos como se quiera. Me parece sospechoso que haya tecnología para todo y no para esto”, afirma.

El reglamento obliga a las plataformas de internet a buscar en las conversaciones íntimas material sospechoso

El informe sobre Chat Control (como se conoce entre los activistas el proyecto) critica que se vayan a malgastar esfuerzos en acciones “innecesarias e incluso perjudiciales” cuando quienes se dedican a combatir estos crímenes denuncian que ni siquiera dan abasto para eliminar las imágenes pederastas ya detectadas en la red. “De hecho, este tipo de criminales no usan la mensajería mainstream”, recuerda Salgado, que alerta, además, de que abrir puertas traseras para acceder a la comunicación cifrada no solo vulnera el derecho a la privacidad de las comunicaciones, si no que debilita la seguridad de toda la red. “No existen puertas traseras solo para los buenos”, explica. “Un internet menos seguro con la excusa de proteger a los niños es un internet menos seguro para todos. Más abierto a injerencias de servicios de inteligencia, de criminales, de potencias extranjeras y... de pederastas”.

“La comisaria Johansson lleva tiempo diciendo que quieren desalentar el uso del cifrado porque impide que la policía y los gobiernos puedan entrar en las conversaciones privadas de los ciudadanos”, afirma Jakubowska. Preguntado sobre el asunto, Zarzalejos admite que el cifrado de las comunicaciones es una de las cuestiones más peliagudas del proyecto. Aunque asegura que su propuesta “no contempla ninguna medida que rompa el cifrado”, sí que reconoce que existe un “debate” sobre “soluciones técnicas” como el escaneo de las comunicaciones antes de que se produzcan. “Antes de que se mandara una imagen, por ejemplo, se podría detectar si es material de abuso sexual”, explica. Pero insiste: “No se va a tocar el cifrado ni se va a exigir a nadie que acceda al contenido”.

Lee también
Mostrar comentarios
Cargando siguiente contenido...