Categories
News

YouTube amplía su proceso de quejas de privacidad, permitiendo a los usuarios denunciar contenido generado por IA utilizando sus rostros o voces

[ad_1]

YouTube Amplía el mecanismo de protección de la privacidad del usuario para incluir contenido de inteligencia artificial (IA). El gigante del streaming de vídeo anunció el jueves que los usuarios podrán informar sobre contenido generado por IA que imite sus rostros o voces. Los usuarios pueden denunciar estos vídeos mediante el Proceso de quejas de privacidad, un sistema de denuncias en línea que les permite completar un formulario para resaltar su problema, compartir evidencia de una violación de la privacidad y compartir detalles de quien los subió. Una vez que se envía una queja, se revisa manualmente según varios criterios y, si se determina que la queja es legítima, el video se elimina.

YouTube permite a los usuarios denunciar contenido generado por IA

En la comunidad correoYouTube ha revelado que está ampliando su proceso de solicitud de privacidad para contenido generado por IA que replica rostros y voces. En noviembre de 2023, la empresa Anunciar Su intención es llevar la innovación responsable de la IA a la plataforma. En ese momento, enumeró varias características nuevas que prometió ofrecer para proteger a los usuarios de información errónea y deepfakes.

falsificaciones profundas Pueden entenderse como medios sintéticos (creados mediante inteligencia artificial o de otro tipo) que han sido modificados digitalmente para hacerse pasar por otra persona. Recientemente, los incidentes de deepfakes han aumentado significativamente. YouTube ahora permite a los usuarios aprovechar su proceso de quejas de privacidad existente para denunciar cualquier contenido generado por IA que imite su rostro o su voz.

Los usuarios también pueden denunciar un canal si sienten que se está haciendo pasar por ellos. Sin embargo, esto no se considerará una violación de nuestras Normas de la comunidad, incluso si el video del creador se elimina mediante este proceso. Vale la pena señalar que YouTube desactiva el canal de un creador de contenido si recibe tres infracciones.

Cómo funciona el proceso de quejas de privacidad de YouTube

Se puede acceder al formulario de reparación de quejas de privacidad de YouTube aquí. Es un proceso largo en el que los usuarios pasan primero por seis páginas que les ayudan a determinar si se ha violado su privacidad y si han explorado todas las demás opciones antes de llegar a la plataforma. Esto incluye preguntar al usuario si ha sido acosado, contactar a quien subió el contenido y revisar las pautas de la comunidad. También se les informa que el abuso del proceso puede resultar en la suspensión de sus cuentas.

Sin embargo, para quejas de privacidad genuinas, los usuarios pueden seguir estos pasos para acceder a un formulario largo donde se les pide que compartan detalles sobre el incidente y cualquier evidencia e información sobre quien subió el video. Una vez que envía el formulario, YouTube evalúa la validez del incidente. Luego de verificar la validez, el video será eliminado de la plataforma.

[ad_2]

Source Article Link

Categories
News

Meta encuentra contenido potencialmente engañoso generado por IA en Facebook e Instagram

[ad_1]

muerto El miércoles, dijo que había encontrado contenido “potencialmente generado por IA” utilizado de manera engañosa en su sitio. Facebook Y Instagram Las plataformas, incluidos los comentarios que elogian el manejo de Israel de la guerra en Gaza publicados a continuación, son publicaciones de organizaciones de noticias globales y legisladores estadounidenses.

La compañía de redes sociales dijo en un informe de seguridad trimestral que las cuentas representan a estudiantes judíos, afroamericanos y otros ciudadanos preocupados, y se dirigen a audiencias en Estados Unidos y Canadá. La campaña se atribuyó a la empresa de marketing político STOIC, con sede en Tel Aviv.

STOIC no respondió de inmediato a una solicitud de comentarios sobre estas acusaciones.

Por qué es importante

Si bien Meta ha encontrado fotos de perfil básicas generadas por IA en operaciones de influencia desde 2019, el informe es el primero en revelar el uso de la generación de texto. Amnistía Internacional La tecnología existe desde su debut a finales de 2022.

A los investigadores les preocupa que la IA generativa, que puede producir textos, imágenes y audio similares a los humanos de forma rápida y económica, pueda conducir a campañas de desinformación más efectivas e influir en las elecciones.

En una conferencia de prensa, los ejecutivos de Meta Security dijeron que derribaron la campaña israelí temprano y no creían que las nuevas técnicas de inteligencia artificial obstaculizaran su capacidad para interrumpir las redes de influencia, que son intentos coordinados de enviar mensajes.

Los ejecutivos dijeron que no habían visto redes de este tipo publicar fotografías de políticos generadas por IA lo suficientemente realistas como para confundirlas con fotografías auténticas.

cita principal

“Hay muchos ejemplos en estas redes de cómo están utilizando herramientas de IA potencialmente generativas para crear contenido. Y tal vez eso les dé la capacidad de hacerlo más rápido o en un mayor volumen. Pero en realidad no ha impactado nuestra capacidad. detectarlos”, afirmó Mike Devlyanski, jefe de investigaciones de amenazas.

En números

El informe destacó seis operaciones de influencia encubiertas que Meta interrumpió en el primer trimestre.

Además de la red STOIC, Meta cerró una red con sede en Irán centrada en el conflicto entre Israel y Hamás, aunque no identificó ningún uso de IA generativa en esa campaña.

Contexto

Meta y otros gigantes tecnológicos han luchado por encontrar la manera de abordar el posible uso indebido de las nuevas tecnologías de inteligencia artificial, especialmente en las elecciones.

Los investigadores han encontrado ejemplos de generadores de imágenes de empresas como OpenAI y Microsoft que producen imágenes que contienen información errónea relacionada con la votación, a pesar de que esas empresas tienen políticas contra dicho contenido.

Las empresas se han centrado en los sistemas de etiquetado digital para etiquetar el contenido generado por IA en el momento de su creación, aunque las herramientas no funcionan con texto y los investigadores tienen dudas sobre su eficacia.

Entonces que

Meta enfrenta importantes pruebas para sus defensas con las elecciones en la Unión Europea a principios de junio y en Estados Unidos en noviembre.

© Thomson Reuters 2024


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
News

Google DeepMind usa SynthID para marcar el contenido generado por la IA de Gemini y Veo

[ad_1]

Google Él hizo muchas inteligencia artificial (IA) anuncios basados ​​​​en la noche del martes durante la sesión magistral de I/O 2024. Esto incluye nuevos modelos de IA, actualizaciones de los modelos principales existentes, integración de funciones de IA en los productos de Google y más. El gigante tecnológico también se centró en la seguridad de la IA y amplió el uso de su tecnología nativa de marca de agua para contenido generado por IA, llamada SynthID. Este nuevo conjunto de herramientas ahora incluirá marcas de agua para el texto creado por mellizo Aplicación, cliente web y vídeos creados por Veo.

SynthID fue el primero quitar el velo Por Google Mente profunda en agosto de 2023 como proyecto piloto destinado a clasificar correctamente el contenido generado por IA. La necesidad de una solución de este tipo se ha sentido debido a la aparición de casos en los que estos medios creados artificialmente se han compartido como reales. Se han utilizado para difundir información errónea y delitos cibernéticos como el phishing. El gigante tecnológico utilizó la tecnología por primera vez en noviembre de 2023, cuando se utilizó para marcar con agua el audio generado por IA a través de su modelo Lyria. El conjunto de herramientas agregó marcas de agua como formas de onda al audio para hacerlo imperceptible pero detectable.

Ahora, Google está ampliando el uso de SynthID para incluir la creación de texto y vídeo. El texto creado con la aplicación y el sitio web de Gemini ahora tendrá una marca de agua. Para ello, el conjunto de herramientas se centrará en el propio proceso de creación. Cada modelo de IA basado en texto utiliza tokens (que pueden ser palabras, clips de audio o frases) para el entrenamiento. El proceso de capacitación también incluye comprender el flujo de uso de estos tokens o el orden que deben seguir los tokens para generar la respuesta más consistente.

SynthID proporciona “información adicional en la distribución del token en el punto de creación ajustando la probabilidad de creación del token”. De esta forma, a determinadas palabras de un bloque de texto generado se les asigna un número. Cuando detecta si se utilizó IA para crear el texto, compara la puntuación con puntuaciones de probabilidad ajustadas para determinar si la fuente podría ser un modelo de IA. DeepMind fue destacado en un correo Esta técnica es útil cuando la IA crea texto creativo largo, ya que es más fácil para los modelos probabilísticos verificar cómo se generó. Sin embargo, para respuestas realistas más cortas, la detección puede no ser tan precisa.

La compañía también está ampliando SynthID para presentar recientemente videos Veo generados por IA. Google dijo que la tecnología incorporará marcas de agua directamente en los píxeles de cada fotograma de vídeo, que serán imperceptibles para el ojo humano pero que aparecerán cuando se utilice el sistema de detección.

En los próximos meses, Google planea abrir marcas de agua de texto de código abierto con SynthID a través de su kit de herramientas de IA responsable. También se publicará un artículo de investigación detallado que explica la tecnología de marcas de agua en textos.

[ad_2]

Source Article Link