Lo que necesita saber sobre las protecciones de seguridad infantil de Apple

Lo que necesita saber sobre las protecciones de seguridad infantil de Apple

Apple ha anunciado recientemente nuevas protecciones de seguridad para niños que llegarán este otoño con la introducción de iOS 15, iPadOS 15 y macOS Monterey.





A continuación, analizaremos más de cerca estas características ampliadas de seguridad infantil y la tecnología que las respalda.





Escaneo de material de abuso sexual infantil

El cambio más notable es que Apple comenzará a usar nueva tecnología para detectar imágenes que representan imágenes de abuso infantil almacenadas en iCloud Photos.





Estas imágenes se conocen como Material de Abuso Sexual Infantil, o CSAM, y Apple informará los casos de ellos al Centro Nacional para Niños Desaparecidos y Explotados. El NCMEC es un centro de informes para CSAM y trabaja con las agencias de aplicación de la ley.

El escaneo CSAM de Apple se limitará a los Estados Unidos en el momento del lanzamiento.



¿PS4 juega juegos de ps3?

Apple dice que el sistema usa criptografía y fue diseñado teniendo en cuenta la privacidad. Las imágenes se escanean en el dispositivo antes de cargarse en Fotos de iCloud.

Según Apple, no hay necesidad de preocuparse de que los empleados de Apple vean sus fotos reales. En cambio, el NCMEC proporciona a Apple hashes de imágenes de imágenes CSAM. Un hash toma una imagen y devuelve una cadena larga y única de letras y números.





Apple toma esos hashes y transforma los datos en un conjunto ilegible de hashes almacenados de forma segura en un dispositivo.

Relacionado: Cómo iOS 15 protege la privacidad de su iPhone mejor que nunca





Antes de sincronizar la imagen con Fotos de iCloud, se compara con las imágenes CSAM. Con una tecnología criptográfica especial, intersección de conjuntos privados, el sistema determina si hay una coincidencia sin revelar un resultado.

Si hay una coincidencia, un dispositivo crea un vale de seguridad criptográfico que codifica la coincidencia junto con más datos cifrados sobre la imagen. Ese cupón se carga en Fotos de iCloud con la imagen.

A menos que una cuenta de iCloud Photos cruce un umbral específico de contenido CSAM, el sistema garantiza que Apple no pueda leer los cupones de seguridad. Eso es gracias a una tecnología criptográfica llamada intercambio secreto.

Según Apple, el umbral desconocido proporciona una gran cantidad de precisión y garantiza menos de uno en un billón de posibilidades de marcar incorrectamente una cuenta.

Cuando se excede el umbral, la tecnología permitirá a Apple interpretar los vales y las imágenes CSAM coincidentes. Luego, Apple revisará manualmente cada informe para confirmar una coincidencia. Si se confirma, Apple desactivará la cuenta de un usuario y luego enviará un informe al NCMEC.

Habrá un proceso de apelación para el restablecimiento si un usuario siente que su cuenta ha sido marcada por error por la tecnología.

Si tiene problemas de privacidad con el nuevo sistema, Apple ha confirmado que no se escanearán fotos con la tecnología de criptografía si deshabilita Fotos de iCloud. Puedes hacerlo dirigiéndote a Configuración> [Tu nombre]> iCloud> Fotos .

Hay algunas desventajas al desactivar Fotos de iCloud. Todas las fotos y videos se almacenarán en su dispositivo. Eso podría causar problemas si tiene muchas imágenes y videos y un iPhone más antiguo con almacenamiento limitado.

Además, las fotos y los videos capturados en el dispositivo no serán accesibles en otros dispositivos Apple usando la cuenta de iCloud.

Relacionado: Cómo acceder a las fotos de iCloud

Apple explica más sobre la tecnología que se utiliza en la detección de CSAM en un documento técnico PDF . También puede leer un Preguntas frecuentes de Apple con información adicional sobre el sistema.

En las preguntas frecuentes, Apple señala que el sistema de detección de CSAM no se puede utilizar para detectar nada más que CSAM. La compañía también dice que en los Estados Unidos, y en muchos otros países, la posesión de las imágenes de CSAM es un delito y que Apple está obligada a informar a las autoridades.

La compañía también dice que rechazará cualquier demanda del gobierno para agregar una imagen que no sea CSAM a la lista hash. También explica por qué un tercero no pudo agregar imágenes que no son CSAM al sistema.

Debido a la revisión humana y al hecho de que los hashes utilizados provienen de imágenes CSAM conocidas y existentes, Apple dice que el sistema fue diseñado para ser preciso y evitar problemas con otras imágenes o usuarios inocentes que se informan al NCMEC.

chrome: // configuración / contenido / flash

Protocolo de seguridad de comunicación adicional en mensajes

Otra característica nueva se agregarán protocolos de seguridad en la aplicación Mensajes. Esto ofrece herramientas que advertirán a los niños y sus padres cuando envíen o reciban mensajes con fotos sexualmente explícitas.

Cuando se reciba uno de estos mensajes, la foto se verá borrosa y el niño también será advertido. Pueden ver recursos útiles y se les dice que está bien si no ven la imagen.

La función solo será para cuentas configuradas como familias en iCloud. Los padres o tutores deberán optar por habilitar la función de seguridad de la comunicación. También pueden optar por recibir una notificación cuando un niño de 12 años o menos envía o recibe una imagen sexualmente explícita.

Para los niños de 13 a 17 años, los padres no son notificados. Pero se advertirá al niño y se le preguntará si quiere ver o compartir una imagen sexualmente explícita.

Relacionado: Cómo iOS 15 usa la inteligencia para hacer que su iPhone sea más inteligente que nunca

Messages utiliza el aprendizaje automático en el dispositivo para determinar si un archivo adjunto o una imagen es sexualmente explícito. Apple no recibirá ningún acceso a los mensajes o al contenido de la imagen.

La función funcionará tanto para los mensajes SMS normales como para los mensajes de iMessage y no está vinculada a la función de escaneo CSAM que detallamos anteriormente.

Por último, Apple ampliará la guía para las funciones de búsqueda y Siri para ayudar a los niños y padres a mantenerse seguros en línea y recibir ayuda en situaciones inseguras. Apple señaló un ejemplo en el que los usuarios que pregunten a Siri cómo pueden denunciar CSAM o explotación infantil recibirán recursos sobre cómo presentar una denuncia ante las autoridades.

Las actualizaciones llegarán a Siri y Search cuando alguien realice consultas de búsqueda relacionadas con CSAM. Una intervención explicará a los usuarios que el interés en el tema es perjudicial y problemático. También mostrarán recursos y socios para ayudar a obtener ayuda con el problema.

Más cambios que vienen con el último software de Apple

Desarrolladas en conjunto con expertos en seguridad, las tres nuevas funciones de Apple están diseñadas para ayudar a mantener a los niños seguros en línea. A pesar de que las características pueden causar preocupación en algunos círculos centrados en la privacidad, Apple ha sido comunicativo sobre la tecnología y cómo equilibrará las preocupaciones por la privacidad con la protección infantil.

Cuota Cuota Pío Correo electrónico 15 funciones ocultas en iOS 15 y iPadOS 15 que Apple no mencionó en la WWDC

Ya ha oído hablar de los cambios importantes en iOS 15, pero aquí están todos los cambios ocultos que Apple dejó fuera de la WWDC.

Leer siguiente
Temas relacionados
  • IPhone
  • Mac
  • manzana
  • Privacidad del teléfono inteligente
  • Crianza y tecnología
Sobre el Autor Brent Dirks(193 Artículos publicados)

Nacido y criado en el soleado oeste de Texas, Brent se graduó de la Texas Tech University con una licenciatura en periodismo. Ha estado escribiendo sobre tecnología durante más de 5 años y disfruta de todo lo relacionado con Apple, los accesorios y la seguridad.

Más de Brent Dirks

Suscríbete a nuestro boletín

¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!

Haga clic aquí para suscribirse