manzana Se enfrenta nuevamente a A. demanda de mil millones de dólares, Miles de víctimas se manifestaron contra la empresa por su presunta participación en la difusión de material de abuso sexual infantil (CSAM).
En una demanda presentada el 7 de diciembre, el gigante tecnológico fue acusado de cometer estos delitos. Revertir las obligaciones obligatorias de presentación de informes – que exige que las empresas de tecnología con sede en EE. UU. informen los casos de abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) – y permite la proliferación de armas de abuso sexual infantil. La demanda alega que Apple, al no establecer los mecanismos de seguridad prometidos, vendió “productos defectuosos” a categorías específicas de clientes (víctimas de CSAM).
Algunos de los demandantes afirman que estaban continuamente traumatizados por el contenido viral mucho después de su infancia, y que Apple decidió centrarse en prevenir nuevos casos de CSAM y cortejar a los usuarios más jóvenes.
“Miles de valientes supervivientes se están presentando para exigir responsabilidad a una de las empresas tecnológicas más exitosas del planeta. Apple no sólo se ha negado a ayudar a estas víctimas, sino que ha hecho público el hecho de que no detecta material de abuso sexual infantil. su plataforma o conducir a “Los dispositivos aumentan significativamente el daño continuo a estas víctimas”.
Velocidad de la luz triturable
La compañía ha mantenido un control estricto sobre los productos iCloud y las bibliotecas de los usuarios como parte de promesas de privacidad más amplias. En 2022, Apple Ella canceló sus planes Una herramienta controvertida que escanea y marca automáticamente las bibliotecas de fotografías de iCloud en busca de material ofensivo o problemático, incluido CSAM. La compañía citó la creciente preocupación por la privacidad de los usuarios y la vigilancia masiva por parte de las grandes empresas tecnológicas en su decisión de no ofrecer más la función de escaneo, y la elección de Apple ha sido ampliamente apoyada por grupos de privacidad y activistas de todo el mundo. Pero la nueva demanda dice que el gigante tecnológico simplemente utilizó esta defensa de ciberseguridad para evadir sus obligaciones de informar.
“El material de abuso sexual infantil es abominable y estamos comprometidos a luchar contra las formas en que los depredadores ponen a los niños en riesgo”, escribió el portavoz de Apple, Fred Saenz, en respuesta a la demanda. “Estamos innovando de manera urgente y activa para combatir estos delitos sin comprometer la seguridad y la privacidad de todos nuestros usuarios. Funciones como la seguridad de las comunicaciones, por ejemplo, advierten a los niños cuando reciben o intentan enviar contenido que contenga desnudos para ayudar a romper la cadena de coerción. Conduce al abuso sexual infantil “Estamos muy concentrados en crear protecciones que ayuden a prevenir la propagación de material de abuso sexual infantil antes de que comience”.
Las empresas tecnológicas tienen Lucha por el control La difusión de material ofensivo en línea. Informe 2024 del organismo de control del Reino Unido Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) manzana acusada Importante subregistro La cantidad de agresiones sexuales y agresiones sexuales compartida entre sus productos, y la empresa presentó solo 267 informes globales de agresiones sexuales y agresiones sexuales al NCMEC en 2023. Los competidores Google y Meta informaron más de 1 millón y 30 millones de casos respectivamente. Mientras tanto, la creciente preocupación por el surgimiento de CSAM sintético o modificado digitalmente ha complicado el panorama regulatorio, dejando a los gigantes tecnológicos y las plataformas de redes sociales luchando por ponerse al día.
Si bien Apple enfrenta una posible demanda de mil millones de dólares si la demanda llega a un jurado y la favorece, la decisión tiene ramificaciones más amplias para la industria y los esfuerzos de privacidad en general. El tribunal podría decidir obligar a Apple a reactivar su herramienta de escaneo de bibliotecas de fotografías o implementar otras funciones industriales para eliminar contenido ofensivo, allanando un camino más directo hacia la vigilancia gubernamental y asestando otro golpe a Apple. Artículo 230 Protección.