Es oficial: Apple va a escudriñar los iPhone para detectar material de abuso infantil

Totus Noticias
3 Min Lectura

Redacción

Tras los rumores que surgieron en las últimas horas, Apple hizo oficial (vía 9to5Mac) una serie de características que pretenden proteger a los menores que usan sus dispositivos. Entre ellas se encuentra la de escanear las fotos del iPhone e iCloud con el objetivo de detectar material de abuso infantil. Por otra parte, se reforzará la seguridad en Mensajes y se ofrecerá información y recursos de ayuda para niños a través de Siri y Búsqueda. Cabe mencionar, eso sí, que toda esta iniciativa iniciará su camino únicamente en Estados Unidos.

Escaneando fotos sin comprometer la privacidad

Apple recurrirá a un complejo sistema de revisión de imágenes que le permitirá identificar material de abuso infantil. Pornografía, por ejemplo. No obstante, los de Cupertino dejan claro que esta iniciativa fue diseñada con la privacidad como eje principal. Antes de que una imagen se suba a iCloud, el iPhone ejecutará un proceso de comparación de imágenes que se realiza de forma completamente local. Es decir, la imagen no se envía a servidores externos para el análisis.

Apple se basa en una serie de métodos criptográficos conocidos como «CSAM Hashes», con los cuales es posible identificar material de abuso infantil sin comprometer la privacidad. Y es que el análisis no se hace sobre la parte visual de la imagen, sino sobre el hash de las mismas. ¿Qué es un hash? Es un bloque de datos generado a partir de otro bloque de entrada. En este caso, la entrada son las imágenes.

Sin entrar en términos demasiado técnicos, el iPhone hará la comparación apoyándose en una base de datos de hashes de material previamente identificado como abuso infantil. Si se encuentra alguna coincidencia, se generará una alerta cifrada que protege el resultado de la comparación. Ni siquiera Apple puede verlo.

Te gustaría leer también:  Malestar en la Junta de ISA por filtraciones de proceso de elección de Presidente

Ahora bien, si se alcanza un cierto número de coincidencias —no especificaron la cifra—, Apple podrá analizar manualmente el material para verificar que, efectivamente, se tratan de imágenes de abuso infantil. Aquí es importante indicar que esta verificación manual no se hace interviniendo el iPhone o extrayendo las imágenes de manera remota, sino en las fotos que ya se subieron a iCloud. Recordemos que todo este proceso ocurre antes de que la imagen se respalde en la nube.

hipertextual.com

Cuadro de comentarios de Facebook
Comparte este artículo