en iOS 18.2manzana es suma Una nueva característica revive algunas de las intenciones detrás de su discontinuación Planes de encuesta CSAM – esta vez, sin romper el cifrado de extremo a extremo ni proporcionar puertas traseras al gobierno. Implementada por primera vez en Australia, la expansión de la función de seguridad de las comunicaciones de la compañía utiliza el aprendizaje automático en el dispositivo para detectar y difuminar contenido desnudo, agregando advertencias y solicitando confirmación antes de que los usuarios puedan continuar. Si un niño tiene menos de 13 años, no podrá continuar sin ingresar el código de acceso de Screen Time del dispositivo.
Si el aprendizaje automático en el dispositivo detecta desnudez, la función difumina automáticamente la imagen o el video, muestra una advertencia de que el contenido puede ser confidencial y ofrece formas de obtener ayuda. Las opciones incluyen abandonar la conversación o el hilo del grupo, bloquear a la persona y acceder a recursos de seguridad en línea.
La función también muestra un mensaje que le asegura al niño que está bien no ver el contenido o abandonar el chat. También existe la opción de enviar un mensaje a un padre o tutor. Si un niño tiene 13 años o más, aún puede confirmar que quiere continuar después de recibir estas advertencias, con recordatorios repetidos de que está bien optar por no participar y que hay más ayuda disponible. de acuerdo a el guardiánTambién incluye una opción para reportar fotos y videos a Apple.
Esta función analiza fotos y videos en su iPhone y iPad en Mensajes, AirDrop, pegatinas de contactos (en la aplicación Teléfono o Contactos) y mensajes de video FaceTime. Además, escaneará “ciertas aplicaciones de terceros” si un niño elige una foto o un vídeo para compartir con ellos.
Las aplicaciones compatibles varían ligeramente en otros dispositivos. En Mac, analiza mensajes y algunas aplicaciones de terceros si los usuarios eligen contenido para compartir a través de ellos. En el Apple Watch, cubre mensajes, Pegatinas de contacto y mensajes de vídeo FaceTime. Finalmente, en Visión ProLa función escanea Mensajes, AirDrop y algunas aplicaciones de terceros (en las mismas condiciones anteriores).
Esta función requiere iOS 18, iPadOS 18, macOS Sequoia o VisionOS 2.
el guardián Los informes sugieren que Apple planea expandirse globalmente después de la prueba en Australia. La empresa probablemente eligió la tierra de Down Under por una razón específica: el país está listo para lanzar nuevos productos. Sistemas Lo que requiere que las grandes empresas tecnológicas controlen el abuso infantil y el contenido terrorista. Como parte de las nuevas reglas, Australia acordó agregar una cláusula que establezca que solo está autorizado “cuando sea técnicamente factible”, eliminando el requisito de romper el cifrado de extremo a extremo y comprometer la seguridad. Las empresas tendrán que cumplir antes de fin de año.
La privacidad y la seguridad del usuario han estado en el centro de la controversia en torno al infame intento de vigilancia CSAM de Apple. En 2021, me preparé para adoptar un sistema que Busque imágenes de agresión sexual en líneaque luego se enviará a revisores humanos. (Fue una sorpresa después de la historia de Apple de enfrentarse al FBI por su política). Intentos de desbloquear el iPhone de un terrorista.) Los expertos en privacidad y seguridad opinaron que la función abriría una puerta trasera para que los regímenes autoritarios espíen a sus ciudadanos en situaciones que no contengan ningún material de explotación. El año siguiente, Apple Dejé la funciónLo que conduce (indirectamente) a la característica de seguridad infantil más equilibrada anunciada hoy.
Una vez que se haya implementado a nivel mundial, podrás activar la siguiente función Configuración > Tiempo de pantalla > Seguridad de las comunicaciones, Y active la opción. Esta sección está activada por defecto desde iOS 17.