Apple pospone plan de búsqueda de imágenes de abuso sexual infantil

Después de las objeciones sobre los derechos de privacidad, Apple dijo el viernes que decidió retrasar los planes para digitalizar las bibliotecas de fotos de los usuarios que buscan imágenes de explotación para niños.

“El mes pasado, anunciamos planes de recursos para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de pornografía infantil”, dijo la compañía en un comunicado.

“Basándonos en los comentarios de clientes, grupos de defensa, investigadores y otros, hemos decidido reservar tiempo adicional en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de la seguridad infantil de importancia crítica. Los ????

Vacío

Las acciones de Apple cayeron el viernes por la mañana. Apple generó controversia inmediatamente después de anunciar su sistema para escanear los dispositivos de los usuarios en busca de material ilegal de abuso sexual infantil. Los críticos señalaron que el sistema, que puede comparar las imágenes almacenadas en una cuenta de iCloud con una base de datos de imágenes “CSAM” conocida, contradice los mensajes de Apple sobre la privacidad del cliente.

El sistema no escanea las fotos de un usuario, sino que busca “huellas digitales” conocidas que coincidan con la base de datos CSAM. Si el sistema detecta suficientes imágenes en la cuenta de un usuario, se informará a un monitor humano que puede confirmar las imágenes y pasar la información a las autoridades si es necesario.

El sistema de detección CSAM de Apple estaba programado para ser comisionado para los clientes este año. No está claro cuánto tiempo retrasará Apple su lanzamiento después del anuncio del viernes.

Te puede interesar:  Honor 50 anunciado el 16 de junio: todo lo que sabemos hasta ahora

A pesar de las preocupaciones sobre el plan de Apple, en realidad es una práctica común entre las empresas de tecnología. Facebook, Dropbox, Google y muchos otros tienen sistemas capaces de detectar automáticamente el CSAM cargado en sus respectivos servicios.

Fuente: CNBC

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Share This