Categories
News

YouTube se asocia con Creative Artists Agency para ayudar a las celebridades a luchar contra los deepfakes generados por IA

[ad_1]

YouTube Creative Artists Agency (CAA) anunció el martes una asociación con CAA para proteger a las figuras públicas de los deepfakes. A través de esta asociación, el gigante de transmisión de video propiedad de Google brindará acceso temprano a su tecnología de detección de deepfake generada por inteligencia artificial, mientras que las celebridades brindarán comentarios para ayudar a YouTube a mejorar su herramienta. La compañía también anunció que la tecnología de gestión de similitudes que se está desarrollando entrará en la fase de prueba a principios del próximo año. Vale la pena señalar que esta herramienta puede detectar cuando un video imita el rostro y la voz de una persona real.

YouTube se asocia con CAA para luchar contra los deepfakes

En septiembre, la empresa de streaming de vídeo abierto Están desarrollando nueva tecnología que ayudará a los creadores de plataformas a mantener el control sobre sus imágenes, incluidos sus rostros y voces. La herramienta de gestión de similitudes puede detectar y bloquear vídeos sintéticos que imitan a otro creador.

Tres meses después de ese anuncio, ahora es YouTube. Anunciar Su asociación con CAA para probar la tecnología y recibir comentarios de los usuarios. La empresa proporcionará acceso temprano a su tecnología a “varias de las figuras más influyentes del mundo” para ayudarlas a identificar y gestionar los deepfakes generados por IA. Si bien la compañía no mencionó ningún nombre, destacó que la alineación de celebridades incluirá “actores galardonados” y atletas de la NBA y la NFL.

Con esta herramienta, estas celebridades también podrán enviar fácilmente solicitudes de eliminación de contenido a través del proceso de quejas de privacidad de YouTube. La compañía probablemente formó esta colaboración con CAA donde las figuras públicas sufren más. falsificaciones profundasEsto permitirá que la plataforma de transmisión de video pruebe la capacidad de la tecnología en una amplia gama de posibles videos generados por IA.

“La experiencia directa de los clientes de CAA con replicantes digitales en el cambiante panorama de la IA será fundamental para dar forma a una herramienta que empodere y proteja de manera responsable a los creadores y a la comunidad de YouTube en general”, dijo la compañía.

YouTube también destacó que esta colaboración es el primer paso para mejorar el producto. A finales del próximo año, la compañía también planea probar la tecnología con grupos de los mejores creadores de YouTube, profesionales creativos y sus socios.

En particular, CAA tiene muchos clientes de alto perfil, incluidos Ariana Grande, Peter Dinklage, Tom Hanks, Reese Witherspoon, Zendaya, Matthew Stafford, Raphael Varane, Son Heung-min, Cole Palmer, Carlo Ancelotti y otros.

[ad_2]

Source Article Link

Categories
News

Según se informa, Google Photos puede mostrar créditos fotográficos de IA para proteger a los usuarios de deepfakes

[ad_1]

imágenes de google Se dice que la compañía está agregando una nueva funcionalidad que permitirá a los usuarios verificar si una imagen fue creada o mejorada utilizando inteligencia artificial (IA). Según el informe, el servicio de almacenamiento e intercambio de fotografías y vídeos está obteniendo nuevas etiquetas de recursos de identificación que revelarán la información de IA de la imagen, así como el tipo de fuente digital. Es probable que el gigante tecnológico con sede en Mountain View esté trabajando en esta función para reducir los casos de deepfakes. Sin embargo, no está claro cómo se mostrará la información a los usuarios.

Atribución de IA de Google Imágenes

falsificaciones profundas Ha surgido como una nueva forma de manipulación digital en los últimos años. Se trata de imágenes, vídeos, archivos de audio u otros medios similares que han sido creados digitalmente mediante inteligencia artificial o mejorados mediante diversos medios para difundir información errónea o engañar a las personas. Por ejemplo, el actor Amitabh Bachchan presentó recientemente una demanda contra el propietario de una empresa por publicar anuncios de vídeo falsos en los que se veía al actor promocionando los productos de la empresa.

Según la autoridad de Android un informeUna nueva función en la aplicación Google Photos permitirá a los usuarios ver si una foto de su galería se creó mediante medios digitales. La función se detectó en la versión 7.3 de la aplicación Google Photos. Sin embargo, no es una función activa, lo que significa que las personas que utilicen la última versión de la aplicación no podrán verla todavía.

Dentro de los archivos de diseño, la publicación encontró nuevas cadenas de código XML que apuntan a este desarrollo. Estos son ID de recursos, que son identificadores asignados a un elemento o recurso específico en la aplicación. Según se informa, uno de ellos contenía la frase “ai_info”, que se cree que se refiere a información agregada a los metadatos de las imágenes. Esta sección debe tener un nombre si la imagen fue generada por una herramienta de inteligencia artificial que cumple con los protocolos de transparencia.

De lo contrario, se cree que la etiqueta “digital_source_type” indica el nombre de la herramienta o modelo de IA que se utilizó para crear o mejorar la imagen. Estos pueden incluir nombres como mellizo,En pleno vuelo,et al.

Sin embargo, actualmente no está claro cómo quiere Google mostrar esta información. Idealmente, se pueden agregar a los datos del formato de archivo de imagen intercambiable (EXIF) incrustados dentro de la imagen para que haya menos formas de manipularlos. Pero la desventaja de esto es que los usuarios no podrán ver esta información fácilmente a menos que vayan a la página de metadatos. Alternativamente, la aplicación podría agregar una insignia a la imagen para indicar imágenes de IA, similar a lo que hizo Meta. Instagram.

[ad_2]

Source Article Link

Categories
Life Style

La Búsqueda de Google está probando nuevas tácticas para frenar los deepfakes

[ad_1]

La difusión en línea de fotografías falsas no consensuadas durante el último año, especialmente aquellas que representan a celebridades femeninas, ha presentado un desafío difícil para los motores de búsqueda. Incluso si alguien no está buscando ese material, la búsqueda de nombres específicos puede generar una cantidad sorprendente de enlaces a fotos y videos explícitos falsos de esa persona.

Google La compañía está tratando de abordar este problema actualizando sus sistemas de calificación, anunció la compañía el Entrada en el blog.

La gerente de producto de Google, Emma Higham, escribió en la publicación que las actualizaciones de clasificación están diseñadas para reducir el contenido completamente falso en muchas búsquedas.

Cuando alguien utiliza términos para buscar clips falsos no consensuados de individuos específicos, el sistema de clasificación intentará proporcionar “contenido no explícito y de alta calidad”, como artículos de noticias, cuando esté disponible.

“Gracias a estos cambios, la gente puede leer sobre el impacto de las fotografías falsas en la sociedad, en lugar de ver páginas que contienen fotografías falsas que en realidad no están aprobadas”, escribió Higham.

Velocidad de la luz medible

Higham dijo que las actualizaciones de clasificación ya han reducido la exposición a resultados de imágenes explícitos en búsquedas de imágenes falsas en un 70 por ciento.

Google también pretende degradar el contenido profundo explícito, aunque Higham señaló que puede ser difícil distinguir entre contenido real y consensuado, como escenas de desnudos de un actor, y material generado por inteligencia artificial, sin el consentimiento del actor.

Para ayudar a detectar contenido falso, Google ahora tiene en cuenta en sus clasificaciones si las páginas de un sitio han sido eliminadas de la búsqueda según las políticas de la empresa. Los sitios con una gran cantidad de eliminaciones debido a imágenes explícitas falsas ahora serán degradados en la búsqueda.

Además, Google está actualizando los sistemas que manejan las solicitudes para eliminar videos falsos inaceptables de la búsqueda. Se supone que los cambios facilitarán el proceso de pedido.

Cuando una víctima puede eliminar imágenes falsas de sí misma de una búsqueda en Google, los sistemas de la empresa intentarán filtrar todos los resultados relacionados con búsquedas similares sobre ella y escanear y eliminar duplicados de estas imágenes.

Higham reconoció que hay “más trabajo por hacer” y que Google seguirá desarrollando “nuevas soluciones” para ayudar a las personas afectadas por deepfakes inaceptables.

El anuncio de Google llega dos meses después La Casa Blanca invita a empresas tecnológicas Para detener la difusión de fotografías falsas explícitas.



[ad_2]

Source Article Link

Categories
Entertainment

Los deepfakes de Elon Musk promueven estafas con criptomonedas en YouTube Live

[ad_1]

Una transmisión en vivo de YouTube de cinco horas de hoy utilizó un deepfake de Elon Musk para impulsar una estafa de criptomonedas, en la última de una serie de transmisiones falsas similares. El video, que desde entonces ha sido eliminado, mostraba un clip de Musk que se suponía que sonaría como una transmisión en vivo de un evento de Tesla, con una versión de su voz generada por IA instruyendo a los espectadores a visitar un sitio web y depositar su bitcoin, Ethereum. O Dogecoin para poder participar en el sorteo. El mensaje, que se reprodujo repetidamente, prometía que el sistema “enviaría automáticamente el doble de la cantidad de criptomonedas que depositaste”.

Más de 30.000 espectadores sintonizaron la transmisión en un momento (aunque no podemos descartar la posibilidad de que estos números hayan sido inflados por bots), lo que la llevó a la cima de las recomendaciones de YouTube Live Now. La cuenta que se hace pasar por Tesla, @elon.teslastream, tenía una insignia verificada en el canal oficial del artista, por lo que es posible que estemos viendo que la cuenta está siendo pirateada. Tanto el vídeo como el canal fueron eliminados después de que Engadget se pusiera en contacto con Google. Actualizaremos este artículo si escuchamos más información.

Una captura de pantalla que muestra una cuenta que se hace pasar por Tesla a través de una transmisión en vivo utilizando inteligencia artificial creada por Elon Musk para impulsar una estafa de criptomonedas.Una captura de pantalla que muestra una cuenta que se hace pasar por Tesla a través de una transmisión en vivo utilizando inteligencia artificial creada por Elon Musk para impulsar una estafa de criptomonedas.

Captura de pantalla de Cheyenne MacDonald/Engadget

Estas profundas estafas por parte de Elon Musk parecen haber ido en aumento en los últimos meses, en cada caso utilizando una cuenta que se hace pasar por una de las empresas de Musk. Este se tituló “Tesla”. [sic] Revela una obra maestra: el Tesla que cambiará la industria automotriz para siempre. A principios de junio, Cointelegraph 35 cuentas que se hacían pasar por SpaceX informaron estafas similares en el momento del lanzamiento de Starship. En abril, los estafadores intentaron entrar en la publicidad del eclipse utilizando la misma táctica, por ejemplo Mashable informó en su momento. Ha habido numerosos informes sobre Transmisión en vivo de almizcle falso. Publicado en Reddit recién.

Las estafas con criptomonedas dirigidas a los seguidores de Musk en las redes sociales han sido un problema durante años, al igual que las que involucran a celebridades en general. Sólo este viernes 50 Cent ha sido hackeado Que utilizó sus cálculos para implementar el esquema de bombeo y descarga.

[ad_2]

Source Article Link

Categories
Entertainment

El fiscal general de California dice que las estafas con IA y “deepfakes” están muy extendidas. He aquí cómo evitarlo

[ad_1]

La inteligencia artificial y el contenido relacionado con “deepfakes” en forma de medios visuales o de audio falsos son cada vez más frecuentes a medida que avanza la tecnología. Los funcionarios de California esperan informar Residentes sobre cómo descubrirlos.

“Los estafadores a menudo están en nuestros bolsillos, solo con una llamada telefónica, un mensaje en las redes sociales o un mensaje de texto”, dijo el Fiscal General Rob Bonta en un comunicado. “La inteligencia artificial y otras tecnologías nuevas y en evolución pueden dificultar la detección de estafas. Saber qué buscar es una forma importante de mantener a los consumidores a salvo de estas tácticas. Insto a los californianos a tomar medidas prácticas para protegerse contra ser víctimas de estafadores. incluso hablar con amigos y familiares que tal vez no estén conscientes de estos riesgos.

Los escándalos relacionados con la IA ya han sacudido a Estados Unidos en los últimos meses.

ARCHIVO - El presidente Joe Biden firma un documento ejecutivo sobre inteligencia artificial en el Salón Este de la Casa Blanca, el 30 de octubre de 2023, en Washington.  La vicepresidenta Kamala Harris mira hacia la derecha.  La Casa Blanca dijo el miércoles 21 de febrero de 2024 que está buscando comentarios públicos sobre los riesgos y beneficios de poner a disposición del público componentes clave de un sistema de inteligencia artificial para su uso y modificación.  (Foto AP/Evan Vucci, archivo)
ARCHIVO – El presidente Joe Biden firma un documento ejecutivo sobre inteligencia artificial en el Salón Este de la Casa Blanca, el 30 de octubre de 2023, en Washington. La vicepresidenta Kamala Harris mira hacia la derecha. La Casa Blanca dijo el miércoles 21 de febrero de 2024 que está buscando comentarios públicos sobre los riesgos y beneficios de poner a disposición del público componentes clave de un sistema de inteligencia artificial para su uso y modificación. (Foto AP/Evan Vucci, archivo)

Desparramar Imágenes porno generadas por inteligencia artificial de jóvenes estudiantes de una escuela secundaria de Beverly Hills provocó la expulsión de cinco estudiantes en febrero. En abril, un profesor de secundaria en Maryland Crea una grabación de audio falsa Su jefe hizo comentarios racistas y antisemitas.

Según California AG, está circulando una estafa de IA dirigida a los padres, donde la voz clonada de sus hijos puede pedir dinero después de un accidente automovilístico o problemas con la ley. En enero, una estafa de IA en New Hampshire supuestamente les dio a los votantes una llamada falsa del presidente Joe Biden, lo que los disuadió de votar en las primarias del estado.

Han ocurrido incidentes similares a nivel macro, e incluso a nivel macro Taylor Swift fue una víctima La pornografía y la desinformación generada por la inteligencia artificial pueden extenderse como la pólvora en Internet. Especialmente en un año electoral.

Taylor Swift usa la chaqueta del ala cerrada de los Kansas City Chiefs, Travis Kelce, cuando llega antes de un partido de fútbol de playoffs de la NFL entre los Chiefs y los Miami Dolphins, el sábado 13 de enero de 2024, en Kansas City, Missouri. Los deepfakes creados por inteligencia artificial y sexualizando a personas sin su consentimiento han golpeado a su víctima más destacada, la cantante Taylor Swift, llamando la atención sobre un problema que las plataformas tecnológicas y los grupos anti-bullying están luchando por resolver. (Foto AP/Ed Zurga, Archivo)

La legislación para combatir estas “falsificaciones profundas” es En negocios en el pais Y a nivel nacional, pero mientras tanto, ¿cómo puede la gente corriente evitar ser víctima de ataques y desinformación?

Estos son los consejos de la oficina del fiscal general de California:

  • Desarrollar palabras con símbolos familiares.: Desarrollar formas sencillas de verificar si un miembro de la familia realmente está en problemas antes de contestar llamadas telefónicas para solicitar asistencia financiera o compartir información personal. Hable con la familia sobre asignar “palabras seguras” o hacer una pregunta cuya respuesta solo esa persona sepa. Al crear una pregunta, tenga en cuenta que los estafadores pueden acceder a información de las redes sociales y otras fuentes en línea.
  • Minimizar el contenido personal de audio/video en cuentas de redes sociales: Considere eliminar números de teléfono personales y clips de audio y video de sus perfiles de redes sociales y los de sus hijos. Los estafadores de IA pueden utilizar estos clips para crear voces y vídeos clonados de sus seres queridos.
  • Verifique la configuración de privacidad: Fortalezca la configuración de privacidad de sus redes sociales para que extraños no sepan datos sobre su vida y su paradero actual, incluso si usted o un ser querido se encuentra fuera de la ciudad.
  • No contestes el teléfono: Permita que las llamadas telefónicas entrantes de números desconocidos vayan al correo de voz. Suelen ser llamadas automáticas ilegales.
  • No confíes en el identificador de llamadas: Los números de teléfono pueden “falsificarse” para que parezcan un número familiar de amigos, familiares, distrito escolar o una agencia gubernamental. No asuma que el identificador de llamadas es exacto y tenga cuidado si algo parece diferente en la persona que llama o si le solicitan información financiera o personal.
  • Coger el teléfono: Si sospecha que se trata de una llamada fraudulenta, cuelgue inmediatamente. No confíe automáticamente en los mensajes automáticos: al presionar “1” para indicar que no desea recibir llamadas futuras, a menudo les indicará a los malos actores que deben continuar llamando a ese número de teléfono activo.
  • Benefíciese de la tecnología de bloqueo de llamadas: Muchos proveedores de telefonía móvil ofrecen tecnología mejorada de bloqueo de llamadas que puede ayudar a evitar que le lleguen llamadas automáticas.
  • No hagas clic en enlaces sospechosos: Los estafadores intentarán que usted haga clic en enlaces que le envíen en mensajes de texto, correos electrónicos o redes sociales. Los mensajes de texto son especialmente peligrosos porque puedes hacer clic rápidamente en un enlace y comenzar a ingresar tu contraseña, sin darte cuenta de que el enlace es falso y que tu contraseña está siendo registrada.
  • Ir directamente a sitios web: Vaya directamente al sitio web de la empresa que conoce en lugar de hacer clic en el enlace que le envían. Algunos enlaces fraudulentos se crean para parecerse mucho a la dirección real del sitio web. Nunca debe hacer clic en enlaces que le envíen por mensaje de texto (por ejemplo, en lo que parece un banco). Alternativamente, vaya al sitio web del banco en su navegador de Internet.
  • Utilice contraseñas seguras: Protéjase utilizando contraseñas diferentes y únicas para cada una de sus cuentas en línea. Asegúrese de que las contraseñas que utilice tengan al menos ocho caracteres, incluida una combinación de letras, números y símbolos. Considere utilizar un administrador de contraseñas para brindar sugerencias y almacenar contraseñas seguras.
  • Proteja su Número de Seguro Social (SSN) y otra información confidencial: Guarde su tarjeta de Seguro Social en casa en un lugar seguro en lugar de llevarla en su billetera. No proporcione su número de seguro social (SSN) a menos que sea absolutamente necesario, como en formularios de impuestos o registros laborales. Si una empresa le solicita su Número de Seguro Social (SSN), vea si hay otro número que pueda usarse en su lugar.
  • Tenga cuidado con la suplantación de identidad del gobierno y otras estafas comunes: Algunos estafadores son sofisticados. Es posible que se ofrezcan a proporcionar “documentos” o “pruebas” o utilicen el nombre de un funcionario o agencia gubernamental real para hacerle creer que sus llamadas son legítimas. Si una agencia gubernamental se comunica con usted y le solicita información financiera o personal, cuelgue, vaya al sitio web oficial de la agencia (que debería ser un sitio web .gov) y comuníquese con ellos directamente. Los funcionarios del gobierno no lo amenazarán con arrestarlo o emprender acciones legales a cambio de un pago inmediato. No prometerán aumentar sus beneficios, resolver un problema a cambio de una tarifa ni transferir dinero a una cuenta protegida. No requerirán pago en forma de tarjetas de regalo, tarjetas de débito prepagas, transferencias bancarias, moneda de Internet o efectivo por correo.

[ad_2]

Source Article Link

Categories
Featured

The impact of AI and deepfakes on identity verification

[ad_1]

In the digital landscape, where identities are woven into every aspect of our online interactions, the emergence of AI-driven deepfakes has become a disruptive force, challenging the very essence of identity verification. In navigating this ever-evolving terrain, CIOs and IT leaders must dissect the intricate interplay between emerging technologies and their profound impact on the integrity of identity management processes.

Online identity verification today consists of two key steps. Firstly, a user being asked to take a picture of their government-issued identity document, which is inspected for authenticity. And secondly, the user being asked to take a selfie, which is biometrically compared to the picture on the identity document. Traditionally only used in regulated know-your-customer (KYC) use cases such as online bank account opening, identity verification is now used in a range of contexts today from interactions with government services, preserving the integrity of online marketplace platforms, employee onboarding, and improving security during password reset processes.

[ad_2]

Source Article Link