Los usuarios de Adobe están enojados por las implicaciones ambiguas de la nueva política relacionada con la inteligencia artificial



Los cambios en los términos de servicio de Adobe confunden y enojan a los usuarios porque su trabajo, incluso proyectos inéditos y en progreso, puede usarse para entrenar modelos de IA.

Usuarios de varias aplicaciones de Adobe, incluidas Photoshop y Substance Painter. Recibir una notificación emergente el miércoles, diciendo: “Es posible que podamos acceder a su contenido a través de métodos manuales y automatizados, como la revisión de contenido”.

Sección actualizada (a partir del 17 de febrero de 2024) en los Términos de servicio de Adobe Él dice:

“Nuestros sistemas automatizados pueden analizar su Contenido y Líneas de Clientes de Creative Cloud (definidas en la Sección 3.10 (Líneas de Clientes de Creative Cloud) a continuación) utilizando tecnologías como el aprendizaje automático para mejorar nuestros Servicios, Software y experiencia de usuario”.

El lenguaje es ambiguo. Pero la referencia específica a “sistemas automatizados” y al uso de “aprendizaje automático para mejorar nuestros servicios y software” inmediatamente generó preocupación de que el trabajo creativo de los usuarios se estuviera utilizando como datos de entrenamiento para las herramientas de inteligencia artificial de Adobe.

Aparte de la implicación de que todo el Contenido del usuario servirá como material de datos de capacitación sin crédito ni compensación, existen preocupaciones de privacidad específicas para los usuarios que trabajan con información confidencial. “¿Puedo usar Photoshop sólo si acepto tener acceso completo a todo lo que cree con él, incluido el trabajo de NDA?” a publicar Artista @SamSantala

Velocidad de la luz triturable

en pagina separada Lo que explica cómo Adobe utiliza el aprendizaje automático, Adobe dice que no utiliza contenido almacenado localmente en su dispositivo, por lo que sólo utiliza contenido almacenado en Creative Cloud. De lo contrario, el contenido que los usuarios publican públicamente, como contribuciones a Adobe Stock y envíos que se mostrarán en Adobe Express y se utilizarán como tutoriales en Lightroom, se utilizan para “capacitación”. [Adobe’s] Se mejoran así los algoritmos. [its] Productos y servicios.”

Estos usos del contenido público ya existen desde entonces. Adobe ha lanzado el modelo Firefly AI, que crea imágenes y ejecuta otras funciones de IA, como el relleno generativo. Adobe promociona Firefly como comercialmente seguro, pero también ha dicho que Firefly fue entrenado con datos de dominio público, que incluyen imágenes generadas por IA de su competidor Midjourney, un producto Los artistas afirman Fue el resultado de una infracción de derechos de autor.

Todo esto significa que la recopilación de datos de entrenamiento para modelos de IA es un problema turbio que ha dificultado tanto a los creadores como a las empresas rastrear contenido protegido por derechos de autor y evitar que trabajos no autorizados se filtren en el entrenamiento de modelos. Esto puede fue socavado La implementación por parte de Adobe de funciones de inteligencia artificial supuestamente éticas pone en riesgo la confianza del cliente.

Para ser claros, no se ha demostrado de manera concluyente que el reciente cambio de política de Adobe exponga a los usuarios a violaciones de privacidad, pero es comprensible que los usuarios estén preocupados incluso por el simple indicio de que su propio trabajo podría estar al alcance de los modelos de inteligencia artificial de Adobe. Los nuevos términos de servicio no mencionan explícitamente los datos de entrenamiento o la IA de Firefly, pero la actualización dice que es posible que necesite acceder al contenido del usuario para “detectar, prevenir o abordar problemas de fraude, seguridad, legales o técnicos”. y hacer cumplir sus términos que prohíben contenido ilegal u ofensivo, como material de abuso sexual infantil. Esto puede significar que Adobe busca monitorear el acceso al contenido del usuario para detectar violaciones específicas.

Pero el lenguaje utilizado, incluidas amplias alusiones al aprendizaje automático para “mejorar” las herramientas de Adobe, aprovecha conceptos de los que las personas preocupadas por la privacidad se han vuelto justificadamente cautelosas en un momento particularmente sensible.

Mashable se ha comunicado con Adobe para obtener una aclaración y actualizará esta historia si recibimos una respuesta.





Source Article Link

See also  OpenAI tiene una herramienta de detección ChatGPT con una efectividad del 99%, pero se resiste a lanzarla

Leave a Comment