Según se informa, Google Photos puede mostrar créditos fotográficos de IA para proteger a los usuarios de deepfakes



imágenes de google Se dice que la compañía está agregando una nueva funcionalidad que permitirá a los usuarios verificar si una imagen fue creada o mejorada utilizando inteligencia artificial (IA). Según el informe, el servicio de almacenamiento e intercambio de fotografías y vídeos está obteniendo nuevas etiquetas de recursos de identificación que revelarán la información de IA de la imagen, así como el tipo de fuente digital. Es probable que el gigante tecnológico con sede en Mountain View esté trabajando en esta función para reducir los casos de deepfakes. Sin embargo, no está claro cómo se mostrará la información a los usuarios.

Atribución de IA de Google Imágenes

falsificaciones profundas Ha surgido como una nueva forma de manipulación digital en los últimos años. Se trata de imágenes, vídeos, archivos de audio u otros medios similares que han sido creados digitalmente mediante inteligencia artificial o mejorados mediante diversos medios para difundir información errónea o engañar a las personas. Por ejemplo, el actor Amitabh Bachchan presentó recientemente una demanda contra el propietario de una empresa por publicar anuncios de vídeo falsos en los que se veía al actor promocionando los productos de la empresa.

Según la autoridad de Android un informeUna nueva función en la aplicación Google Photos permitirá a los usuarios ver si una foto de su galería se creó mediante medios digitales. La función se detectó en la versión 7.3 de la aplicación Google Photos. Sin embargo, no es una función activa, lo que significa que las personas que utilicen la última versión de la aplicación no podrán verla todavía.

See also  La Corte Suprema rechaza la petición de las empresas de telecomunicaciones sobre las cuotas anuales del impuesto sobre la renta adeudadas al gobierno

Dentro de los archivos de diseño, la publicación encontró nuevas cadenas de código XML que apuntan a este desarrollo. Estos son ID de recursos, que son identificadores asignados a un elemento o recurso específico en la aplicación. Según se informa, uno de ellos contenía la frase “ai_info”, que se cree que se refiere a información agregada a los metadatos de las imágenes. Esta sección debe tener un nombre si la imagen fue generada por una herramienta de inteligencia artificial que cumple con los protocolos de transparencia.

De lo contrario, se cree que la etiqueta “digital_source_type” indica el nombre de la herramienta o modelo de IA que se utilizó para crear o mejorar la imagen. Estos pueden incluir nombres como mellizo,En pleno vuelo,et al.

Sin embargo, actualmente no está claro cómo quiere Google mostrar esta información. Idealmente, se pueden agregar a los datos del formato de archivo de imagen intercambiable (EXIF) incrustados dentro de la imagen para que haya menos formas de manipularlos. Pero la desventaja de esto es que los usuarios no podrán ver esta información fácilmente a menos que vayan a la página de metadatos. Alternativamente, la aplicación podría agregar una insignia a la imagen para indicar imágenes de IA, similar a lo que hizo Meta. Instagram.



Source Article Link

Leave a Comment