Como se temía, la ley de escaneo CSAM de la UE podría prohibir el cifrado de mensajes de extremo a extremo
Ayer supimos que una nueva ley de escaneo CSAM de la UE propuesta para los gigantes tecnológicos obligaría a Apple a revisar sus propios planes para detectar materiales de abuso sexual infantil. La compañía los había dejado de lado silenciosamente en respuesta a una gran controversia sobre su enfoque propuesto.
Muchos temían que la ley propuesta implicaría otro asalto a la mensajería cifrada de extremo a extremo, y esto ahora ha sido confirmado por la redacción del documento...
Fondo
No hay duda de que existe un problema a gran escala con los materiales de abuso sexual infantil. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) dijo que el año pasado recibió 29,3 millones de informes, casi todos los cuales procedían de ISP y empresas de la nube como resultado del análisis de CSAM en sus servidores.
La pregunta es cuál es la mejor manera de abordar esto, sin invadir la privacidad de usuarios inocentes. Apple el año pasado pensó que había resuelto este problema. Anunció planes para el escaneo en el dispositivo de una manera que significaba que un moderador humano solo vería las coincidencias confirmadas.
Sin embargo, los expertos y los defensores de la privacidad señalaron rápidamente cuatro problemas con el enfoque de Apple. La empresa encontró una solución para uno de estos, los falsos positivos accidentales, al establecer un umbral de más de 30 imágenes para que se presente un informe. Quedan los otros tres problemas.
Propuesta de ley de escaneo de CSAM de la UE
La Unión Europea publicó ayer el borrador de una nueva ley que requeriría que los gigantes tecnológicos realicen escaneos MASI. Este requisito se extiende no solo a la detección de imágenes CSAM, sino también a los intentos de preparación, lo que requeriría escanear el texto.
Actualmente, esto no es posible con iMessage, ni con otras aplicaciones como WhatsApp, que utilizan encriptación de extremo a extremo.
cableado informes.
Todas sus fotos de WhatsApp, textos de iMessage y videos de Snapchat podrían escanearse para verificar si hay imágenes y videos de abuso sexual infantil según las reglas europeas recientemente propuestas. Los planes, advierten los expertos, pueden socavar el cifrado de extremo a extremo que protege miles de millones de mensajes enviados todos los días y obstaculizar la privacidad en línea de las personas […]
Según los planes, se puede ordenar a las empresas de tecnología, que van desde los servicios de alojamiento web hasta las plataformas de mensajería, que "detecten" el MASI nuevo y el previamente descubierto, así como las posibles instancias de "preparación". La detección podría tener lugar en mensajes de chat, archivos cargados en servicios en línea o en sitios web que alojan material abusivo […]
La propuesta europea de escanear los mensajes de las personas se ha encontrado con la frustración de los grupos de derechos civiles y los expertos en seguridad, quienes dicen que es probable que socave el cifrado de extremo a extremo que se ha convertido en el predeterminado en aplicaciones de mensajería como iMessage, WhatsApp y Signal.
“Increíblemente decepcionante ver que una propuesta de regulación de la UE en Internet no protege el cifrado de extremo a extremo”, dijo Will Cathcart, jefe de WhatsApp. tuiteó. “Esta propuesta obligaría a las empresas a escanear los mensajes de cada persona y pondría en grave riesgo la privacidad y la seguridad de los ciudadanos de la UE”. Cualquier sistema que debilite el cifrado de extremo a extremo podría ser abusado o ampliado para buscar otros tipos de contenido, los investigadores dicen.
Los legisladores han insistido en pedir puertas traseras en los mensajes cifrados E2E, sin entender constantemente que es una imposibilidad tecnológica. Como dice el profesor de ciberseguridad de la Universidad de Surrey, Alan Woodward: "O tienes E2EE o no".
Woodward nota que existe una posible solución alternativa: escaneo en el dispositivo, después de que se haya descifrado el mensaje. Pero ese es precisamente el mismo enfoque que Apple propuso usar para el escaneo CSAM, y que generó tanto furor sobre el potencial de abuso por parte de gobiernos represivos.
Foto: Alí Abdul Rahman /Unsplash
incrustar youtube