Categories
News

Google lanza podcasts personalizados de “escucha diaria” generados por IA a través de Discovery Feed: informe

[ad_1]

Google Según se informa, ha lanzado Daily Listening, una nueva función experimental de inteligencia artificial (IA) que puede generar una descripción general de audio estilo podcast basada en el feed Discover de un usuario. Esta función estará disponible actualmente en las versiones de Android e iOS de la aplicación de Google en determinadas regiones. Para que los usuarios sean elegibles para esta función en los sitios mencionados, deberán registrarse y activar Google Search Labs. Vale la pena señalar que las resúmenes de audio generadas por IA son similares a las generadas por la plataforma NotebookLM de la compañía.

El lanzamiento de la función de escucha diaria de Google parece ser limitado

9to5Google Informes La función experimental de IA se lanzó a los usuarios el miércoles. Se puede acceder a la herramienta a través de la aplicación de Google para Android e iOS. Parece que la disponibilidad del servicio Daily Listening está limitada a un país. Los probadores beta en los EE. UU. pueden probar la función, pero no está claro si la herramienta de inteligencia artificial está disponible actualmente en otros lugares.

numeroso Informes Confirmaron que la función existía, pero los empleados de Gadgets 360 no pudieron verla en la aplicación ni en Search Labs, a pesar de estar inscritos en el programa beta. Parece que no está disponible en India por el momento.

Escucha diaria de Google Autoridad de Android Escucha diaria de Google

Escucha diaria de Google
Crédito de la imagen: Autoridad de Android

Según el informe, Daily Listening aparece debajo de la barra de búsqueda en la aplicación de Google para los usuarios elegibles. Aparece una captura de pantalla de la función dentro de un cuadro de color con esquinas redondeadas, que se puede tocar para abrir la interfaz de pantalla completa, con… mellizo Icono de brillo. Esto sugiere que la herramienta funciona con el modelo de inteligencia artificial interno del gigante tecnológico.

Se dice que la función utiliza datos del feed de descubrimiento de los usuarios y de la actividad de búsqueda para comprender qué temas de noticias podrían interesarles. Luego, supuestamente crea un resumen diario de las historias más importantes de esos temas y convierte el texto en un podcast. Se dice que todo el proceso no requiere que el usuario ingrese ningún mensaje, y la IA maneja el proceso automáticamente.

Además, el texto completo del podcast se puede ver en pantalla y leer en base a la captura de pantalla. Según se informa, a los usuarios también se les muestran artículos de noticias relacionados en los que pueden hacer clic para obtener más contexto detrás de las noticias. Vale la pena señalar que, dado que se trata de una función experimental, es posible que la IA no sea precisa a la hora de seleccionar los temas de noticias y artículos correctos.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.


Google debe afrontar una demanda colectiva sobre privacidad móvil y un posible juicio

[ad_2]

Source Article Link

Categories
Entertainment

Meta envía perfiles generados por IA al infierno al que pertenecen

[ad_1]

Meta ha confirmado que ha bombardeado un lote de perfiles generados por IA desde Facebook Instagram, después de que las personas de IA provocaran ira y burla generalizadas entre los usuarios en las redes sociales.

Los perfiles generados por IA, denominados “AI Powered by Meta”, se lanzaron en que se está implementando junto con los populares chatbots de IA de la compañía (). Meta no parece haber actualizado ninguno de estos perfiles durante meses, y las páginas parecen haber pasado desapercibidas hasta esta semana, después de una entrevista que publiqué. Tiempos financieros Con el vicepresidente de IA generativa de Meta, Connor Hayes.

En la entrevista, Hayes habló sobre el objetivo de la compañía de eventualmente poblar sus servicios con perfiles generados por IA que puedan interactuar con personas y trabajar “de la misma manera que lo hacen las cuentas”. Estos comentarios llamaron la atención sobre los perfiles de IA existentes creados por fMeta y, bueno, los usuarios no quedaron exactamente impresionados con lo que encontraron.

Utilizando apodos como “hellograndpabrian”, un “emprendedor textil jubilado que siempre está aprendiendo” y “datingwithCarter”, un “entrenador de citas” impulsado por inteligencia artificial, los chatbots estaban destinados a mostrar “intereses y personalidades únicos” para que los usuarios conversaran. En Instagram, sus perfiles también incluían publicaciones generadas por IA, p. 404 medios Señaló que se parecía mucho Esto se ha vuelto frecuente en muchos rincones de Facebook.

Ejemplo de contenido generado por IA publicado por Ejemplo de contenido generado por IA publicado por

muerto

Un personaje de IA llamado Lev ha provocado indignación. El perfil de Instagram identificó a “Liv” como una “orgullosa madre negra de dos hijos y fuerte por su verdad”. El Correo de Washington La columnista Karen Attia publicó una serie de capturas de pantalla en las que le preguntó a Liv sobre su y Liv comparte que fue creado por un “equipo blanco dominado”. Publicado por la periodista independiente Maddy Castigan Liv dijo que sus creadores se inspiraron en parte en el personaje de Sofía Vergara familia modernaun personaje que no es ni extraño ni negro.

“Hay confusión: este último Tiempos financieros “El artículo trataba sobre nuestra visión de los personajes de IA en nuestras plataformas a lo largo del tiempo y no anunciaremos ningún producto nuevo”, dijo un portavoz de la compañía a Engadget. “Los cálculos a los que se hace referencia provienen de una prueba que lanzamos en Connect en 2023. Fueron moderados por humanos y fueron parte de un experimento inicial que realizamos con personajes de IA”.

Lejos de ser ridiculizados por sus respuestas e intentos de apropiarse de identidades marginadas, a los usuarios les resultó imposible bloquear los perfiles de IA, por razones desconocidas. En lugar de solucionar el problema, la solución de Meta fue cerrar toda la experiencia. “Identificamos la falla que estaba afectando la capacidad de las personas para bloquear estos sistemas de inteligencia artificial y estamos eliminando esas cuentas para solucionar el problema”, dijo un portavoz de la compañía.

Y aunque esa prueba ha sido exitosa, la compañía no parece estar abandonando sus planes de incorporar más “personalidades” generadas por IA a sus aplicaciones. A principios de este año, la empresa planteó… Capaz de realizar videollamadas realistas. Las personas creativas pueden Sus chatbots para responder a los seguidores en su nombre. Meta también ha comenzado a experimentar con la inserción de imágenes generadas por IA en los feeds de Facebook de los usuarios.

En una entrevista el año pasado, Hayes me dijo que Meta probablemente se volvería más “proactivo” a la hora de mostrar contenido generado por IA con el tiempo, comparándolo con un cambio de mostrar contenido recomendado en lugar de publicaciones de personas a las que sigues.

“En los primeros días de las aplicaciones sociales, el conjunto de cosas que podías ver en un día determinado estaba algo restringido por las personas que seguías o con las que eras amigo. En los últimos cinco o seis años, muchas aplicaciones, incluyéndonos a nosotros, lo han hecho. se movió para aflojar esa restricción y comenzar a recomendar contenido de cuentas que no sigues.

“Creo que el próximo salto que probablemente se producirá es aflojar las restricciones sobre lo que los humanos pueden crear y, de hecho, llegar a fuentes de contenido que sean una combinación de cosas creadas por humanos, ya sabes, pero también completamente generadas por máquinas”.

Puede que pase algún tiempo antes de que Metta realice plenamente esta visión. Pero si la reacción a sus primeras pruebas sirve de indicación, la compañía todavía tiene mucho trabajo por hacer para convencer a la gente de que, en primer lugar, vale la pena interactuar con sus personajes de IA.

[ad_2]

Source Article Link

Categories
News

YouTube se asocia con Creative Artists Agency para ayudar a las celebridades a luchar contra los deepfakes generados por IA

[ad_1]

YouTube Creative Artists Agency (CAA) anunció el martes una asociación con CAA para proteger a las figuras públicas de los deepfakes. A través de esta asociación, el gigante de transmisión de video propiedad de Google brindará acceso temprano a su tecnología de detección de deepfake generada por inteligencia artificial, mientras que las celebridades brindarán comentarios para ayudar a YouTube a mejorar su herramienta. La compañía también anunció que la tecnología de gestión de similitudes que se está desarrollando entrará en la fase de prueba a principios del próximo año. Vale la pena señalar que esta herramienta puede detectar cuando un video imita el rostro y la voz de una persona real.

YouTube se asocia con CAA para luchar contra los deepfakes

En septiembre, la empresa de streaming de vídeo abierto Están desarrollando nueva tecnología que ayudará a los creadores de plataformas a mantener el control sobre sus imágenes, incluidos sus rostros y voces. La herramienta de gestión de similitudes puede detectar y bloquear vídeos sintéticos que imitan a otro creador.

Tres meses después de ese anuncio, ahora es YouTube. Anunciar Su asociación con CAA para probar la tecnología y recibir comentarios de los usuarios. La empresa proporcionará acceso temprano a su tecnología a “varias de las figuras más influyentes del mundo” para ayudarlas a identificar y gestionar los deepfakes generados por IA. Si bien la compañía no mencionó ningún nombre, destacó que la alineación de celebridades incluirá “actores galardonados” y atletas de la NBA y la NFL.

Con esta herramienta, estas celebridades también podrán enviar fácilmente solicitudes de eliminación de contenido a través del proceso de quejas de privacidad de YouTube. La compañía probablemente formó esta colaboración con CAA donde las figuras públicas sufren más. falsificaciones profundasEsto permitirá que la plataforma de transmisión de video pruebe la capacidad de la tecnología en una amplia gama de posibles videos generados por IA.

“La experiencia directa de los clientes de CAA con replicantes digitales en el cambiante panorama de la IA será fundamental para dar forma a una herramienta que empodere y proteja de manera responsable a los creadores y a la comunidad de YouTube en general”, dijo la compañía.

YouTube también destacó que esta colaboración es el primer paso para mejorar el producto. A finales del próximo año, la compañía también planea probar la tecnología con grupos de los mejores creadores de YouTube, profesionales creativos y sus socios.

En particular, CAA tiene muchos clientes de alto perfil, incluidos Ariana Grande, Peter Dinklage, Tom Hanks, Reese Witherspoon, Zendaya, Matthew Stafford, Raphael Varane, Son Heung-min, Cole Palmer, Carlo Ancelotti y otros.

[ad_2]

Source Article Link

Categories
News

Meta anuncia la herramienta de código abierto “Video Seal” para marcar con agua los videos generados por IA

[ad_1]

muerto Lanza una nueva herramienta que puede agregar una marca de agua invisible a los videos creados con inteligencia artificial (IA). La nueva herramienta, llamada Video Seal, se une a las herramientas de marca de agua existentes de la compañía, como Audio Seal y Watermark Anything. La empresa ha sugerido que la herramienta será de código abierto, pero aún no ha publicado el código. Curiosamente, la compañía afirma que la tecnología de marca de agua no afectará la calidad del video, pero será resistente a los métodos comunes para eliminarla de los videos.

Los deepfakes han inundado Internet desde la llegada de la inteligencia artificial generativa. Los deepfakes son contenidos artificiales, normalmente creados mediante inteligencia artificial, que muestran objetos, personas o escenarios falsos y engañosos. Este contenido se suele utilizar para difundir información engañosa sobre una figura pública, crear contenido sexual falso o realizar estafas.

Además, a medida que mejoren los sistemas de inteligencia artificial, el contenido deepfake será más difícil de reconocer, lo que hará más difícil distinguirlo del contenido real. Según McAfee reconocimientoel 70 por ciento de las personas ya sienten que no confían en su capacidad para distinguir entre voz real y voz generada por inteligencia artificial.

De acuerdo a Datos internos Por Sumsub El fraude profundo aumentó un 1.740 por ciento en América del Norte y un 1.530 por ciento en la región de Asia y el Pacífico en 2022. Resulta que el número se multiplicará por diez entre 2022 y 2023.

A medida que crece la preocupación por los deepfakes, muchas empresas que desarrollan modelos de IA han comenzado a lanzar herramientas de marcas de agua que pueden identificar contenido sintético a partir de contenido real. A principios de este año, Google Liberado SynthID para marcar con agua textos y vídeos generados por inteligencia artificial. Microsoft también ha lanzado herramientas similares. Además, la Alianza para la Autenticidad y el Origen del Contenido (C2PA) también está trabajando en nuevos estándares para identificar el contenido generado por IA.

Ahora Meta tiene Liberado Su herramienta Video Seal para marcar videos con IA. Los investigadores destacan que la herramienta puede marcar cada fotograma de vídeo con una etiqueta imperceptible que no puede ser manipulada. Se dice que es resistente a técnicas como el desenfoque, el recorte y la compresión del software. Sin embargo, a pesar de la adición de la marca de agua, los investigadores afirman que la calidad del vídeo no se verá comprometida.

Meta ha anunciado que Video Seal será de código abierto bajo una licencia permisiva; sin embargo, la herramienta y su código base aún no se han lanzado al dominio público.

[ad_2]

Source Article Link

Categories
Life Style

Amazon Prime Video lanza resúmenes de programas de televisión generados por IA

[ad_1]

Video Amazon Prime el tiene nuevo Amnistía InternacionalSe creó una herramienta que resumirá programas de televisión Para usted, se supone que está “libre de spoilers”.

Anunciado el lunes“X-Ray Recaps” del servicio de transmisión utiliza la plataforma de inteligencia artificial generativa de Amazon Bedrock para actualizarlo sobre los últimos programas, ya sea una temporada completa, un episodio o incluso partes de un solo episodio. La compañía dice que estos resúmenes resaltarán los momentos clave de la trama, los giros y el suspenso sin spoilers, y están “personalizados para el momento exacto en que los estás viendo”.

Di, si quieres seguir lo que pasó en él. El señor de los anillos: anillos de poder o rueda del tiempo (Porque un mucho Sucede en ambos), puedes abrir el feed y elegir episodios específicos, la temporada anterior o la última temporada hasta el momento. O lo tenemos cubierto.

Historias principales mezclables

Recaps, ahora en versión beta, es una extensión de Función “Rayos X” en Prime Videoque muestra información sobre el programa o la película que estás viendo cuando lo pausas, como detalles del reparto, datos de producción, canciones y estadísticas (si estás viendo deportes). Encontrarás los nuevos resúmenes dentro de la función X-Ray o cuando selecciones Detalles en el encabezado de Prime Video.

Los resúmenes están impulsados ​​por la plataforma de IA generativa Bedrock de Amazon, que se ejecuta tanto en Amazon Web Services (AWS) como en modelos de IA personalizados entrenados en la plataforma de aprendizaje automático basada en la nube de Amazon SageMaker.

Según Amazon, “X-Ray Recaps analiza varios clips de vídeo, junto con subtítulos o diálogos, para crear descripciones detalladas de eventos, lugares, momentos y conversaciones clave. También se aplican Handrails para garantizar que se creen resúmenes concisos y sin spoilers. “

Si bien esta herramienta es indudablemente fácil de usar, mientras miras tu último programa recuerda visitar a tus amigos humanos no creados por IA que trabajan en periodismo en línea para… Análisis crítico, inmersión profunda, Entrevistasy Reseñas. Hermosa por favor.



[ad_2]

Source Article Link

Categories
Life Style

Cómo reconocer vídeos generados por inteligencia artificial

[ad_1]

Lamentamos decepcionarte, pero si estás buscando una lista rápida de formas infalibles y fácilmente reconocibles de detectar videos generados por IA, no la encontrarás aquí. Se acabaron los días de la inteligencia artificial de Will Smith Comió espaguetis horriblemente. Ahora contamos con herramientas que pueden crear videos atractivos y realistas con solo unos pocos clics.

En este momento, los videos generados por IA son todavía un método relativamente incipiente en comparación con el texto, las imágenes y el audio generados por IA, porque obtener todos los detalles correctamente es un desafío que requiere una gran cantidad de datos de alta calidad. “Pero no existe ningún obstáculo fundamental para obtener datos de mayor calidad”, dijo Siwei Liu, profesor de informática e ingeniería de la Universidad de Buffalo en la Universidad Estatal de Nueva York.

Esto significa que puede esperar que los videos generados por IA mejoren muy pronto, eliminando los artefactos obvios (imperfecciones o imprecisiones), como las caras cambiantes y los objetos que cambian de forma que caracterizan las creaciones actuales de IA. La clave para identificar vídeos generados por IA (o cualquier método de IA) es la alfabetización en IA. “Entiende que [AI technologies] “La IA está creciendo, y tener esta idea básica de 'algo que veo puede ser creado por IA' es más importante que las señales individuales, por ejemplo”, dijo Liu, director del Laboratorio Forense de Medios de la UB.

Navegar por la web repleta de inteligencia artificial requiere utilizar su buen juicio en línea para reconocer cuándo algo podría estar roto. Es su mejor defensa contra ser estafado por deepfakes de IA, desinformación o simplemente spam de baja calidad. Es una habilidad difícil de desarrollar, porque todos los aspectos del mundo en línea luchan contra ella tratando de llamar tu atención. pero La buena noticia es que es posible afinar los instintos de detección de la IA.

“Al estudiar [AI-generated images]”Creemos que la gente puede mejorar su conocimiento de la IA”, dijo Nigar Kamali, científico investigador de inteligencia artificial de la Kellogg School of Management de la Universidad Northwestern, coautor del artículo. guía Seleccionar imágenes generadas por inteligencia artificial. “Incluso si no veo ningún artefacto [indicating AI-generation]”Mi cerebro piensa inmediatamente: 'Oh, algo anda mal'”, añadió Kamali, que ha estudiado miles de imágenes generadas por IA. “Incluso si no encuentro el artefacto, no puedo decir con seguridad que sea real, y eso es lo que queremos”.

Qué buscar: vídeos fraudulentos frente a vídeos de texto a imagen

Antes de que podamos identificar videos generados por IA, debemos distinguir entre los diferentes tipos. Los videos generados por IA generalmente se dividen en dos categorías diferentes: videos fraudulentos y videos generados por el modelo de publicación de texto a imagen.

Vídeos del anticristo

Se trata de vídeos editados por IA que consisten en intercambio de rostros (en los que el rostro completo de una persona se intercambia con el de otra persona (normalmente una celebridad o un político) y se le hace decir algo falso) y sincronización de labios (en los que se manipula y sutilmente la boca de una persona). reemplazado por una voz diferente..

Los vídeos de bromas suelen ser muy convincentes, porque la tecnología existe desde hace más tiempo y se basa en imágenes existentes en lugar de crear algo desde cero. ¿Recuerdas esos vídeos profundos de Tom Cruise de hace unos años que se volvieron virales por ser tan convincentes? Funcionaron porque el creador, Chris Omi, se parecía mucho a Tom Cruise, trabajó con un imitador profesional de Tom Cruise y realizó una edición muy cuidadosa, según un informe. entrevista Con Omi desde el borde. Hoy en día, hay una gran cantidad de aplicaciones que logran lo mismo y también pueden… Espantosamente – Incrustar audio de un clip de audio corto que el creador encuentre en línea.

Sin embargo, hay algunas cosas que debe buscar si sospecha de un video falso de IA. Primero, mira el formato del video. Los videos deepfake de IA generalmente se “filman” en un formato de cabeza parlante, donde solo se pueden ver las cabezas y los hombros de los oradores, con los brazos fuera de la vista (más sobre esto en un minuto).

Para reconocer las alteraciones faciales, busque imperfecciones o imperfecciones alrededor de los contornos del rostro. “Por lo general, se ven artefactos cuando la cabeza se mueve oblicuamente hacia la cámara”, dijo Hani Farid, experto en forense digital y profesor de informática en UC Berkeley. En cuanto a los brazos y las manos: “Si la mano se mueve, o algo cubre la cara, [the image] “Va a ser un poco complicado”, continuó Fred. Observe los brazos y el cuerpo para detectar movimientos naturales. “Si todo lo que ves es esto”, en nuestra llamada de Zoom, Fred mantiene los brazos rígidos y a los costados, “y la persona no se mueve en absoluto, es falso”.

Velocidad de la luz triturable

Si tienes dudas sobre la sincronización de labios, centra tu atención en la boca del sujeto, especialmente en los dientes. En el caso de las falsificaciones, “hemos visto personas con dientes de forma irregular” o el número de dientes cambia a lo largo del vídeo, dijo Liu. Liu dijo que otra señal extraña a la que hay que prestar atención es el “movimiento de la mitad inferior” de la cara. “Existe un procedimiento técnico en el que hay que coincidir exactamente con el rostro de esa persona”, dijo. “Mientras hablo, muevo mucho la cara y esa alineación, si hay un poco de inexactitud, los ojos humanos pueden notarlo”. Esto le da a la mitad inferior del rostro un efecto más fluido y gomoso.

Cuando se trata de deepfakes de IA, Aruna Sankaranarayanan, asistente de investigación en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, dice que su mayor interés no son los deepfakes de los políticos más famosos del mundo como Donald Trump o Joe Biden, sino figuras importantes que pueden no ser tan bien conocido. “La invención que proviene de ellos, que distorsiona algunos de los hechos, cuando no se sabe cómo se ven o suenan la mayor parte del tiempo, es algo realmente difícil de refutar”, dijo Sankaranarayanan, quien dijo. Enfoques de trabajo Sobre los deepfakes políticos. Una vez más, aquí es cuando entra en juego la alfabetización en IA; Vídeos como estos requieren un poco de investigación para verificarlos o refutarlos.

Convertir texto a vídeos de imagen

Luego están los recién llegados: modelos de publicación de texto a imagen que generan videos a partir de mensajes de texto o imágenes. OpenAI causó un gran revuelo cuando hizo esto Sora anunciósu propio generador de vídeo con IA. Aunque aún no está disponible, los videos de demostración han sido suficientes para sorprender a la gente con sus finos detalles, su vívido fotorrealismo y su seguimiento fluido, todo con simples indicaciones de texto.

Desde entonces, han aparecido muchas otras aplicaciones que pueden convertir tus memes favoritos en GIF y escenas de fantasía que parecen haber llevado a todo un equipo CGI con un presupuesto de Disney. creadores de hollywood Tienen razón al estar enojados por el auge de los modelos de texto a imagen, que… Probablemente estarán capacitados para su trabajo. Ahora amenaza con reemplazarlo.

Pero la tecnología aún no está ahí, porque incluso los videos de Sora probablemente requerirían una edición sofisticada y que consumiría mucho tiempo. Los vídeos de demostración de Sora consisten en una serie de ediciones rápidas, porque la tecnología aún no es lo suficientemente buena para crear vídeos más largos e impecables. Así que puedes estar especialmente atento a los clips cortos: “Si el vídeo dura 10 segundos, sé escéptico. Hay una razón por la que es corto”, dijo Fred. “Básicamente, la conversión de texto a vídeo no puede reproducir un solo clip de un minuto”, continuó, añadiendo que es probable que esto mejore en los próximos seis meses.

Farid también dijo que hay que buscar “inconsistencias temporales”, como “un edificio añadió una historia, o un coche cambió de color, cosas que no son físicamente posibles”. “Y a menudo el lugar donde sucede está lejos del centro de atención”. Entonces, concéntrate en los detalles de fondo. “Es posible que veas objetos que son anormalmente lisos o retorcidos, o que el tamaño de una persona cambia mientras camina por el edificio”, dice Liu.

Kamali dice que hay que buscar “inverosímiles sociales y culturales” o pistas contextuales donde la realidad de la situación no parece plausible. “No ves inmediatamente las anécdotas, pero sientes que algo anda mal, como la foto de Biden y Obama con trajes rosas”, o El Papa viste un plumífero de Balenciaga.

Independientemente de las pistas contextuales, la existencia de los artefactos probablemente disminuirá muy pronto. Wall Street está dispuesto a apostar Miles de millones de dólares ático. (Esto significa capitalismo de riesgo realmente no lo sabe Obtener valoraciones asequibles de nuevas empresas tecnológicas basadas en pruebas sólidas de rentabilidad).

Los fabricantes pueden cambiar, pero el buen juicio permanece.

Como Fred le dijo a Mashable: “Ven a hablar conmigo en seis meses y la historia habrá cambiado”. Por lo tanto, confiar en ciertas señales para verificar si un video está generado por IA podría causarle problemas.

La investigación de Lyu de 2018 sobre cómo detectar videos generados por IA porque las personas no parpadeaban correctamente se publicó ampliamente en la comunidad de IA. Como resultado, la gente empezó a buscar defectos en las pestañas, pero a medida que avanzó la tecnología, aumentó la cantidad de pestañas naturales. “La gente está empezando a pensar que si hay un buen parpadeo, no debe ser un gran engaño, y ese es el peligro”, dijo Liu. “En realidad queremos crear conciencia, pero no apegarnos a objetos específicos, porque estos artefactos serán modificados”.

Crear conciencia de ese algo puede Liu dijo que la creación de inteligencia artificial “desencadenará toda una serie de acciones”. “Verifique, ¿quién comparte esto? ¿Es esta persona confiable? ¿Hay otras fuentes vinculadas a la misma historia? ¿Se ha verificado por otros medios? Creo que estas son las contramedidas más efectivas contra los deepfakes”.

Para Farid, identificar vídeos generados por IA y deepfakes engañosos comienza con la fuente de su información. Llevar Imágenes generadas por inteligencia artificial que circuló en las redes sociales a raíz del huracán Helen y el huracán Milton. La mayoría de ellos eran obviamente falsos, pero tenían un impacto emocional en las personas. “Incluso cuando estas cosas no son muy buenas, eso no significa que no penetren, no significa que no tengan un impacto en la forma en que las personas absorben la información”, dijo.

Tenga cuidado al recibir noticias de las redes sociales. “Si una foto parece un clickbait, es un clickbait”, dijo Farid antes de agregar que todo se reduce a la alfabetización mediática. Piensa en quién publicó el vídeo y por qué lo creó. “No puedes simplemente mirar algo en Twitter y decir: 'Oh, esto debe ser cierto, déjame compartirlo'”.

Si tiene dudas sobre el contenido generado por IA, consulte otras fuentes para ver si también lo comparten y si todo parece igual. Como dice Liu, “los deepfake sólo parecen reales desde un ángulo”. Encuentra otros ángulos de la instancia en cuestión. Fred recomienda sitios como Snopes y Politifact, que exponen información errónea y desinformación. A medida que todos continuamos navegando por el panorama de la IA que cambia rápidamente, será esencial esforzarse y confiar en su instinto.



[ad_2]

Source Article Link

Categories
Entertainment

Una nueva extensión de Chrome puede detectar de forma fiable sonidos generados por IA

[ad_1]

Justo a tiempo para las elecciones estadounidenses de 2024, la empresa de detección de fraudes y análisis de llamadas Hiya lanzó una extensión gratuita de Chrome para detectar votos falsos. Apropiadamente nombrado Hola detector de audio deepfake “Escucha” los sonidos reproducidos en transmisiones de video o audio y asigna una puntuación de autenticidad, indicándole si es probable que sean reales o falsos.

Hiya le dice a Engadget que los evaluadores externos han verificado la extensión en más del 99 por ciento. La compañía dice que también cubre sonidos generados por IA para los que el modelo de detección no ha sido entrenado, y afirma que puede detectar sonidos generados por nuevos modelos sintéticos una vez que se lancen.

Probamos la extensión antes del lanzamiento y parece funcionar bien. Saqué un video de YouTube sobre el pionero del blues Howlin' Wolf que cuestioné en su uso de la narración de IA y le di una puntuación de 1/100 en autenticidad, declarando que probablemente era un deepfake. Las sospechas fueron confirmadas.

Imagen promocional de la extensión de detección de graves de Hiya para Chrome.Imagen promocional de la extensión de detección de graves de Hiya para Chrome.

Bienvenido

Hiya ha asestado un duro golpe a las empresas de redes sociales por hacer de esta herramienta una necesidad. “Está claro que los sitios de redes sociales tienen la importante responsabilidad de alertar a los usuarios cuando el contenido que consumen sea probablemente una falsificación de IA”, escribió el presidente de Hiya, Kush Parikh, en un comunicado de prensa. “Ahora es responsabilidad del individuo ser consciente de los riesgos y utilizar herramientas como Deepfake Voice Detector para comprobar si el contenido en cuestión ha sido modificado. Este es un gran requisito, por lo que estamos felices de poder ayudarlos. una solución que les ayude a devolver algo de poder a sus manos”.

La extensión sólo necesita escuchar unos segundos de audio para generar el resultado. Se ejecuta en un sistema de crédito para evitar que los servidores de Hiya se vean afectados por solicitudes excesivas. Recibirá 20 créditos por día, que pueden cubrir o no inundaciones. Contenido manipulativo de IA Lo encontrarás en las redes sociales en las próximas semanas.

[ad_2]

Source Article Link

Categories
News

Liquid AI anuncia modelos de base líquida generados por IA con una huella de memoria más pequeña

[ad_1]

IA líquida, con sede en Massachusetts inteligencia artificial (IA), los primeros modelos de inteligencia artificial generativa que no se basan en la arquitectura de transformadores existente. Apodado Modelo de Fundación Fluida (LFM), la nueva arquitectura se aleja de los Transformadores Generativos Preentrenados (GPT) que son la base de modelos de IA populares como gpto Series de OpenAI, Gemini, Copilot y más. La startup afirma que sus nuevos modelos de IA se basan en los primeros principios y que superan a los modelos de lenguajes grandes (LLM) en un segmento de tamaño similar.

Nuevos modelos de base Liquid AI

La startup fue cofundada por investigadores del Laboratorio de Inteligencia Artificial y Ciencias de la Computación (CSAIL) del MIT en 2023, y su objetivo era construir una arquitectura de última generación para modelos de IA que pudiera funcionar a un nivel similar o superior. GPT. .

Estos nuevos LFM son disponible En tres tamaños de parámetros 1.3B, 3.1B y 40.3B. El último es un modelo de Mezcla de Expertos (MoE), lo que significa que consta de diferentes modelos de lenguaje más pequeños y tiene como objetivo abordar tareas más complejas. El hardware LFM ahora está disponible en Liquid Playground de la compañía, Lambda para Chat UI y API, Perplexity Labs y pronto se agregará a Cerebras Inference. Además, los modelos de IA están optimizados para Nvidia, AMD, Qualcomm, Cerebras, manzana dispositivos, dijo la compañía.

Los LFM también se diferencian significativamente de la tecnología GPT. La empresa confirmó que estos modelos se construyeron según los primeros principios. Los primeros principios son esencialmente un enfoque de resolución de problemas en el que la tecnología compleja se descompone en sus fundamentos y luego se construye a partir de ahí.

Según la startup, estos nuevos modelos de IA se basan en los llamados módulos computacionales. En pocas palabras, se trata de un rediseño del sistema de tokens; en cambio, la empresa utiliza el término sistema líquido. Estos contienen información extensa con énfasis en maximizar la capacidad cognitiva y el pensamiento. La startup afirma que este nuevo diseño ayuda a reducir los costos de memoria durante la inferencia y aumenta el rendimiento en video, audio, texto, series temporales y señales.

La compañía también afirma que la ventaja de los modelos de IA basados ​​en Liquid es que su arquitectura se puede optimizar automáticamente para una plataforma particular en función de sus requisitos y el tamaño de la caché de inferencia.

Aunque las ostras de la startup son altas, su rendimiento y eficiencia sólo se pueden medir cuando los desarrolladores y las organizaciones comiencen a utilizarlas en sus flujos de trabajo de IA. La startup no reveló la fuente de sus conjuntos de datos ni ninguna medida de seguridad agregada a los modelos de IA.

[ad_2]

Source Article Link

Categories
Life Style

Etsy dice que permitirá la venta de obras de arte generadas por IA, pero no de reclamos generados por IA

[ad_1]

Mercado en línea de Etsy Compartir una actualización sobre la venta de productos generados por IA y sus planes de continuar “apoyando a los artistas a través de la evolución del arte”.

La plataforma permitirá la venta de obras de arte derivadas de afirmaciones originales del vendedor o herramientas de inteligencia artificial siempre que el artista revele su uso. inteligencia artificial En la descripción del listado del artículo.

El informe reconoce el inevitable progreso y la integración de las herramientas de inteligencia artificial en el proceso creativo, incluido el software de edición. Sin embargo, el informe señala: “Cuando los artistas utilizan estas herramientas de IA, aún toman decisiones creativas y ayudan a guiar la IA y seleccionan cuidadosamente los resultados para producir obras finales únicas para la venta”.

Velocidad de la luz medible

Etsy no permitirá la venta de paquetes rápidos que utilicen inteligencia artificial, lo que considera que cruza la línea creativa. “Creemos que los mensajes utilizados para crear obras de arte impulsadas por IA son una parte integral del proceso creativo y no deben venderse por separado de la obra de arte final”, dijo la compañía. Dijo en una publicación de blog..

Etsy señala que estas pautas están sujetas a cambios y son consistentes con las consideraciones cambiantes sobre la ética y los impactos ambientales de la inteligencia artificial.

La relación entre los artistas y la IA ha sido tensa ya que la tecnología permanece prácticamente sin regular. Muchas nuevas empresas de IA utilizan la práctica generalizada de entrenar sus modelos en obras de arte existentes. Sin compensación a los artistas originales., que amenaza los medios de vida de todas las personas creativas. En abril, murieron más de 200 artistas musicales, incluidos Billie Eilish y el patrimonio de Frank Sinatra. firmé una carta Describió la inteligencia artificial como un “ataque a la creatividad humana” que “plantea enormes amenazas” para el futuro de la industria.



[ad_2]

Source Article Link

Categories
Life Style

Google está trabajando en bandas sonoras y diálogos para vídeos generados por IA

[ad_1]

Todo el mundo sabe que el sonido es un elemento crucial en la mayoría de las películas y vídeos. Después de todo, incluso cuando las películas eran mudas, todavía había acompañamiento musical que permitía al público saber lo que sentía.

Esta ley natural sigue siendo la misma para el nuevo lote de videos generados por IA, que Ella parece inquietantemente silenciosa. Esa es parte de la razón por la que Google está trabajando en una tecnología de vídeo a audio (V2A) que “hace posible la creación simultánea de audio y vídeo”. El lunes, el laboratorio de inteligencia artificial de Google, DeepMind, Progreso conjunto sobre la creación de dicho audio, incluida la banda sonora y el diálogo, que coincidan automáticamente con los videoclips generados por IA.

Google ha puesto mucho esfuerzo en desarrollar tecnología de IA generativa multimodal para competir con sus competidores. OpenAI tiene un generador de vídeo impulsado por IA sora (aún no hecho público) y GPT-4o, generando respuestas de voz de IA. Empresas como muerto Y sol Hemos estado explorando el audio y la música generados por IA, pero vincular el audio al vídeo es relativamente nuevo. Once laboratorios DeepMind tiene una herramienta similar para hacer coincidir mensajes de voz con mensajes de texto, pero DeepMind dice que V2A es diferente porque no requiere mensajes de texto.

Velocidad de la luz triturable

El V2A se puede combinar con herramientas de vídeo de IA como Google Veo o con material de archivo y películas mudas existentes. Esto se puede utilizar para bandas sonoras, efectos de sonido e incluso diálogos. Funciona utilizando un modelo de difusión entrenado con entradas visuales, indicaciones en lenguaje natural y comentarios de video para refinar gradualmente el ruido aleatorio en audio que coincida con el tono y el contexto de los videos.

Google DeepMind dice que V2A puede “comprender píxeles sin procesar”, por lo que en realidad no necesita un mensaje de texto para generar el audio, pero ayuda con la precisión. También se le puede pedir al modelo que haga que el tono sea positivo o negativo. Junto con el anuncio, DeepMind lanzó algunos videos de demostración, incluido un video de un pasillo oscuro y espeluznante acompañado de música de terror, un vaquero solitario al atardecer grabando una relajante melodía de armónica y un personaje animado hablando sobre su cena.

V2A incluirá la marca de agua SynthID de Google como protección contra el uso indebido, y una publicación del blog de Deepmind dice que la función se encuentra actualmente en prueba antes de ser lanzada al público.



[ad_2]

Source Article Link