Tecnología

Nueva herramienta de Apple podrá detectar material de abuso infantil en los iPhone

¡Se hizo oficial! Apple informó que implementará una serie de características que pretenden proteger a los menores, para ello pondrá en marcha un sistema para revisar las fotos en busca de imágenes de abuso infantil en cada país, dependiendo de las leyes locales.

Entre estas nuevas características, se implementará un escaneo de las fotos del iPhone e iCloud y, además, se reforzará la seguridad en Mensajes y se ofrecerá información y recursos de ayuda para niños a través de Siri y Búsqueda.

Aunque esta actualización iniciará solo en Estados Unidos, ya grupos que se dedican a la seguridad infantil elogiaron a Apple por implementar esta iniciativa, así como Facebook Inc, Microsoft Corp y Google de Alphabet Inc.

Medios especializados explican que Apple se basa en una serie de métodos criptográficos conocidos como “CSAM Hashes“, con los cuales es posible identificar material de abuso infantil sin comprometer la privacidad.

Imagen cortesía de hipertextual.com

Según explican desde la empresa de tecnología, para hacer esto teniendo a la privacidad como prioridad, se recurrirá a un complejo sistema de revisión de imágenes que le permitirá identificar material de abuso infantil, como Pornografía, antes de que una imagen se suba a iCloud, para lo cual el iPhone ejecutará un proceso de comparación de imágenes que se realiza de forma completamente local. Es decir, la imagen no se envía a servidores externos para el análisis.

Las críticas

Por otro lado, la revisión de fotografías de Apple en el propio iPhone produjo preocupación en un sector de los usuarios de que la empresa esté revisando en los dispositivos de forma que pueda ser aprovechada por los gobiernos, debido a que otras empresas tecnológicas realizan este tipo de comprobación de las fotos después de subirlas a los servidores.

La empresa explicó que su sistema, contienen “vales de seguridad” que pasan del iPhone a los servidores de Apple y que no contienen datos útiles, esto protegerá a Apple de las presiones de los gobiernos para que identifique material que no sean imágenes de abusos a menores.

Tambien te puede interesar  Científicos se preparan para revivir a un Mamut Lanudo extinto hace 4000 años

Nuestro canal de Telegram para recibir noticias

Artículos Relacionados

0 0 Votos
Ranking del artículo
Suscribirse
Notify of
guest
0 COMENTARIOS
Inline Feedbacks
Ver todos los comentarios
Volver al botón superior
VACUNA LIBRE BANNER WEB 800x800 (2)
OK
Diario La Ciudad

¡Hola!

Sumate a nuestro canal de Telegram para recibir GRATIS noticias en tiempo real HAGA CLICK AQUI : https://t.me/laciudadweb

Recibir noticias