Los problemas de CSAM de Apple pueden regresar, ya que la UE planea una ley que requiere detección

Por: Philippa Axinous | 11.05.2022, 15:15
Los problemas de CSAM de Apple pueden regresar, ya que la UE planea una ley que requiere detección

Los problemas de CSAM de Apple pueden haber regresado, luego de que la controversia sobre el tema de escanear iPhones en busca de materiales de abuso sexual infantil llevó a la compañía a suspender sus planes.

Un informe de hoy dice que la Unión Europea está planeando una ley que requeriría que los gigantes tecnológicos como Apple detecten, informen y eliminen el MASI, y que veremos un borrador de la nueva ley esta semana...

Los problemas de CSAM de Apple

La mayoría de los servicios en la nube ya buscan materiales de abuso sexual infantil. Cualquier ejemplo detectado se informa a la policía.

Apple quería hacer lo mismo, pero al mismo tiempo quería escanear de una manera que protegiera la privacidad del usuario. Por lo tanto, anunció planes para el escaneo en el dispositivo de una manera que significaba que un moderador humano solo vería las coincidencias confirmadas.

  • Apple descarga los hash de la base de datos CSAM en tu iPhone
    (firmas digitales de imágenes CSAM, no imágenes reales, obviamente).
  • Un proceso en el dispositivo busca coincidencias con hashes de sus fotos.
  • Si se encuentran menos de 30, no se realiza ninguna acción.
  • Si se encuentran más de 30 coincidencias, Apple examina manualmente las resoluciones bajas de sus fotos.
  • Si se determina que las fotos son inocentes, no se toman más medidas.
  • Si la revisión manual los confirma como CSAM, se informa a la policía.

Sin embargo, los expertos y los activistas señalaron de inmediato posibles fallas en el enfoque, algo que Apple debería haber esperado, pero aparentemente no lo hizo.

Los expertos en ciberseguridad, las organizaciones de derechos humanos, los gobiernos y los propios empleados de Apple han planteado preocupaciones. Se han planteado cuatro preocupaciones principales, que se explican aquí:

  • Los falsos positivos accidentales podrían arruinar la reputación de alguien.
    (Apple abordó este al establecer un umbral de más de 30 coincidencias).
  • Se podrían crear falsos positivos deliberados (también conocidos como ataques de colisión) para lograr el mismo objetivo.
  • Los gobiernos autoritarios podrían agregar carteles políticos y similares a la base de datos.
  • Las mismas búsquedas en el dispositivo basadas en hash podrían aplicarse posteriormente a iMessage.

Luego, la compañía dijo que tomaría algún tiempo repensar sus planes. Eso fue en septiembre del año pasado, y han pasado ocho meses sin una sola palabra sobre el tema de Apple, lo que llevó a algunos a sospechar que la compañía pretendía simplemente fingir que nunca había sucedido durante el mayor tiempo posible. Pero eso puede no ser posible por mucho más tiempo...

Ley europea planificada sobre detección de MASI

politico informa que la Unión Europea planea anunciar una nueva ley que requiere que los gigantes tecnológicos busquen CSAM. Eso dejaría a Apple teniendo que descubrir cómo cumplir sin reavivar la controversia.

Se espera que la Comisión publique un proyecto de ley esta semana que podría exigir a las empresas digitales como Meta Platforms, Google y Apple que detecten, eliminen e informen imágenes ilegales de abuso a las fuerzas del orden público bajo la amenaza de multas.

Según una filtración de la propuesta obtenida por POLITICO el martes, la Comisión dijo que las medidas voluntarias tomadas por algunas plataformas hasta ahora “han resultado insuficientes” para abordar el uso indebido de los servicios en línea con fines de abuso sexual infantil.

El libro de reglas se produce cuando las líneas directas de protección infantil informan una cantidad récord de contenido perturbador que circula en línea durante la pandemia de coronavirus. Europa es un punto caliente para alojar dicho contenido, con el 62 por ciento de las imágenes ilegales del mundo ubicadas en servidores de datos europeos en 2021.

Tendremos que esperar hasta que se publique el proyecto de ley para ver exactamente lo que requiere, pero de una forma u otra, Apple tendrá que resolver el problema.

Es probable que la situación se complique, ya que uno de los principales defensores de la nueva ley parece oponerse al cifrado de extremo a extremo. La comisionada de Asuntos Internos, Ylva Johansson, dijo:

Los abusadores se esconden detrás del cifrado de extremo a extremo; es fácil de usar pero casi imposible de descifrar, lo que dificulta que las fuerzas del orden investiguen y procesen los delitos.

Hemos estado señalando durante muchos años que es imposible proteger simultáneamente la privacidad del usuario con el cifrado de extremo a extremo y al mismo tiempo crear puertas traseras para la aplicación de la ley.

Foto: Christina @ wocintechchat.com /Unsplash

incrustar youtube

Fuente: 9to5mac.com