Te puede interesar:
Morena plagia campaña de Apple y le llueven críticas
Seguridad
La noticia despertó preocupación en investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos
Foto / Agencia Enfoque
Apple presentó el jueves nuevas herramientas que buscan detectar imágenes sexuales de niños almacenadas en su servidor iCloud, los casos serían reportados a las autoridades.
“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, informó el gigante informático.
La noticia despertó preocupación en investigadores en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.
La herramienta “neuralMatch” tiene el objetivo de hallar imágenes de abuso sexual infantil previamente identificadas sin comprometer los mensajes de los usuarios.
Te puede interesar:
Morena plagia campaña de Apple y le llueven críticas
Apple también está desarrollando funciones en su asistente de voz digital Siri para intervenir cuando los usuarios busquen material abusivo.
Además, Apple anticipó las tres nuevas funciones el jueves y dijo que estarán disponibles más adelante en 2021.
Si Apple detecta fotos de niños sexualmente explícitas en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa e informadas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) que trabaja con agencias judiciales.
La imagen será revisada por un trabajador, quien notificará a las autoridades si es necesario.
Te puede interesar:
¿Ser accionista de Tesla y Apple por tan sólo 100 pesos?
investigador en criptografía Matthew Green, de la Universidad Johns Hopkins, expresó su preocupación de que esta herramienta sea utilizada para inculpar a personas inocentes, ya que les podrían enviar imágenes inofensivas pero malintencionadas, diseñadas para que aparezcan como coincidentes con las de pornografía infantil.
“Los expertos son capaces de hacerlo con bastante facilidad'”, alertó Green.