Categories
Life Style

Revisión de Sora de OpenAI: Marques Brownlee analiza el modelo de video de IA

[ad_1]

Acaba de llegar uno de los productos relacionados con la IA más esperados: el generador de vídeo Sora AI de OpenAI Despedido Lunes como parte de la empresa. 12 días de OpenAI Sucedió.

OpenAI ha proporcionado un adelanto de la producción de Sora en el pasado. Pero, ¿qué tan diferente será en el lanzamiento? OpenAI ciertamente ha puesto mucho esfuerzo en actualizar y mejorar su generador de video impulsado por IA en preparación para su lanzamiento público.

El YouTuber Marques Brownlee tuvo un Primer vistazo a Soralanzando su reseña en video de los últimos productos de OpenAI horas antes de que OpenAI anunciara oficialmente el lanzamiento. ¿Qué pensó Brownlee?

¿En qué es bueno Sora?

Según Brownlee, sus pruebas de Sora descubrieron que el generador de vídeo con IA destaca en la creación de paisajes. Las tomas de la naturaleza o paisajes famosos generadas por IA parecen imágenes de archivo de la vida real. Por supuesto, como señala Brownlee, si conoce bien cómo se ven los alrededores del monumento, es posible que pueda detectar diferencias. Sin embargo, no hay mucho que parezca claramente generado por IA en este tipo de clips generados por Sora.

Quizás el tipo de vídeo que Sora puede crear mejor, según Brownlee, son los vídeos abstractos. Sora puede crear bien arte abstracto de fondo o protector de pantalla incluso con instrucciones específicas.

Velocidad de la luz triturable

Brownlee también descubrió que ciertos tipos de contenido animado creado por Sora, como la animación stop-motion o la animación tipo Claymation, a veces parecían aceptables, ya que los movimientos a veces entrecortados que todavía plagan el video de IA parecían opciones estilísticas.

Aún más sorprendente, Brownlee descubrió que Sora era capaz de manejar imágenes de texto animadas muy específicas. Las palabras suelen aparecer como texto distorsionado en otros modelos de generación de imágenes y vídeos impulsados ​​por IA. Con Sora, Brownlee descubrió que siempre que el texto fuera específico, como algunas palabras en una tarjeta de título, Sora podía crear la imagen con la ortografía correcta.

Donde Sora sale mal

Sin embargo, Sora todavía presenta muchos de los mismos problemas que afectaron a todos los generadores de video de IA anteriores.

Lo primero que menciona Brownlee es la permanencia del objeto. Sora tiene problemas para mostrar un objeto específico en la mano de alguien, por ejemplo, durante todo el vídeo. A veces el objeto se mueve o desaparece repentinamente. Al igual que con el texto de IA, el vídeo de IA de Sora sufre alucinaciones.

Lo que lleva a Brownlee al mayor problema de Sora: la física en general. El vídeo realista parece ser todo un desafío para Sora porque parece que no puede animar la acción correctamente. Una persona que simplemente camina comenzará a disminuir o acelerar de manera antinatural. A veces, las partes del cuerpo u objetos también se distorsionan repentinamente y se convierten en algo completamente diferente.

Y aunque Brownlee mencionó estas mejoras con el texto, a menos que seas muy específico, Sora todavía distorsiona la ortografía de cualquier tipo de texto de fondo, como el que puedes ver en edificios o señales de tráfico.

Sora es en gran medida un trabajo en progreso y OpenAI también participó durante el lanzamiento. Aunque puede ser un paso adelante en comparación con otros generadores de video con IA, está claro que hay solo unas pocas áreas en las que todos los modelos de video con IA encontrarán desafíos.



[ad_2]

Source Article Link

Categories
Life Style

Se informa que Sora se enviará como parte del maratón de transmisión en vivo “12 días de OpenAI”.

[ad_1]

¿Pensaste que la temporada navideña sería un momento para la paz en la Tierra, o al menos la paz en Internet? OpenAI tiene otras ideas.

El miércoles, el creador de ChatGPT anunció los “12 días de OpenAI”. A partir del jueves 5 de diciembre, OpenAI transmitirá en vivo el lanzamiento de un nuevo producto todos los días. Durante 12 días.

Según The Verge, uno de los anuncios será el tan esperado generador de vídeo Sora, impulsado por IA. Este será uno de los lanzamientos más importantes en mucho tiempo para OpenAI. Pero no habrá una explosión al nivel de Sora todos los días. “No todos los días habrá un gran lanzamiento; los 12 días incluirán algunos regalos y obsequios más grandes”, dijo la portavoz de OpenAI, Leah Anise. Las versiones secundarias pueden incluir audio con temas navideños para el modo de audio avanzado, según el usuario. manchado Nuevo ícono de sonido y copo de nieve en el código ChatGPT.

Velocidad de la luz triturable

Desde OpenAI Anunciar Sora, que actualmente se encuentra en fase preliminar de investigación cerrada, es un generador de vídeo con IA que ha generado controversia. Basado en las demostraciones, el modelo de texto a video puede proporcionar presentaciones realistas y detalladas, a través de indicaciones de texto simples. Pero al igual que con otros modelos de IA, OpenAI no ha compartido ningún detalle sobre los datos de entrenamiento de Sora. Esto no impidió que los creadores Especulación Ha sido entrenado en trabajos creados por humanos en YouTube y otras partes de la web.

Recientemente, los probadores de Sora han echado más leña al fuego proverbial filtración Llega a la API como una forma de protesta contra los “señores corporativos de la IA” que dicen que están “siendo atraídos al 'artwashing' para decirle al mundo que Sora es una herramienta útil para los artistas”. Si Sora se envía en los próximos 12 días, sin duda reavivará el discurso de la IA, y en un momento en el que en Mashable todos queríamos pensar en asar castañas a fuego abierto.



[ad_2]

Source Article Link

Categories
Life Style

Fuga de OpenAI Sora: qué era y qué no era.

[ad_1]

Un grupo de artistas que realizó las primeras pruebas de Sora de OpenAI filtró el acceso al generador de vídeo de IA el martes. Pero aclaremos los hechos para que la historia no se simplifique demasiado.

Desde entonces, OpenAI ha cerrado el acceso a Sora a todos los primeros evaluadores. Pero durante unas tres horas, el público puede experimentar a Sora por sí mismo. Según A. declaración Compartido con una demostración alojada en Hugging Face, los artistas liberaron el acceso a Sora en protesta por el “lavado de arte”, en el que creen que OpenAI los ha “engañado”.

Pero hay más matices en la historia que “artistas descontentos anti-IA filtran el modelo”. Profundicemos en lo que fue y lo que no fue.

el – ella el era credenciales filtradas; el – ella no fue Código filtrado.

La filtración de Sora puede haber parecido el momento de la verdad que muchos estaban esperando.


Ofertas del Black Friday que puedes comprar ahora

Los productos disponibles para comprar aquí a través de enlaces de afiliados son seleccionados por nuestro equipo de comercialización. Si compra algo a través de los enlaces de nuestro sitio, Mashable puede ganar una comisión de afiliado.


Cuando se anunció OpenAI sora En febrero, hubo una especulación generalizada sobre lo que sería un generador de vídeo basado en IA. Práctica. Muchos artistas creen que los datos de entrenamiento de Sora han sido extraídos de vídeos de YouTube y de otros lugares de la web sin permiso explícito. OpenAI se negó a revelar ningún detalle, pero basándose en eso Reclamaciones por infracción de derechos de autor En relación con sus otros modelos de la empresa. mantiene Los datos disponibles públicamente constituyen un uso legítimo según las leyes de derechos de autor.

Velocidad de la luz triturable

Pero esto todavía es demasiado. Para discusión OpenAI y otras empresas enfrentan demandas en curso sobre si el contenido generado por IA es lo suficientemente original y si compite comercialmente con obras humanas.

cuando TechCrunch La filtración se informó por primera vez y todos estaban ansiosos por mirar debajo del capó y ver de qué material estaba hecho Sora. Pero la filtración de Sora no proporciona ninguna información sobre el modelo o sus datos de entrenamiento. Básicamente era una demostración disponible públicamente en la web, probablemente posible al compartir el acceso a una interfaz de programación de aplicaciones (API). Parece que acaba de otorgar acceso público por puerta trasera a las funciones de Sora en los servidores de OpenAI. Pero aunque todo el mundo ha podido hacer vídeos de Sora desde hace un tiempo, este tipo de filtración no nos proporciona ninguna información nueva sobre el modelo de Sora en sí.

el – ella el era En protesta contra el programa de pruebas tempranas de OpenAI; el – ella no fue Una declaración integral contra la IA.

Los artistas que pusieron a Sora a disposición del público lo hicieron porque sentían que OpenAI “explotaba a los artistas para I+D y relaciones públicas no remuneradas” al aprovechar el trabajo no remunerado en forma de pruebas de errores y comentarios. La declaración continúa: “Además, cada entregable debe ser aprobada por el equipo de OpenAI antes de participar. Parece que este programa de acceso temprano tiene menos que ver con la expresión creativa y la crítica y más con las relaciones públicas y la publicidad”.

El grupo no se anduvo con rodeos cuando llamó a OpenAI los “maestros de la IA corporativa”, con todo y los símbolos del dedo medio. Sin embargo, el grupo señaló que “no están en contra del uso de la tecnología de inteligencia artificial como herramienta para las artes”, ya que de otro modo no habrían sido invitados a participar como evaluadores iniciales. Lo que cuestionan es “cómo se implementó este software para artistas y cómo se está configurando la herramienta antes de un posible lanzamiento público”.

Este es el tipo de matiz que a menudo se pierde en el discurso sobre la IA. Muchos artistas no se oponen al uso de la IA como herramienta de expresión creativa. Pero la oposición a la explotación del trabajo creativo y la sustitución de empleos por la automatización a menudo se confunde con la antiinnovación. No sabemos exactamente qué provocó la revolución sobre cómo se “modeló” a Sora antes del lanzamiento, pero es seguro decir que OpenAI quiere una crítica positiva de los artistas probadores, y de ahí viene la disonancia.



[ad_2]

Source Article Link

Categories
Featured

La protesta de OpenAI Sora es solo un vistazo de lo que vendrá en 2025: esto es lo que debe cambiar

[ad_1]

el La reciente protesta contra OpenAI Con nuestros probadores beta gratuitos, demuestro una vez más que los objetivos de las empresas de IA bien financiadas a menudo están en desacuerdo con los objetivos de los artistas cuyo tiempo se utiliza para realizar pruebas o cuyo trabajo se utiliza para entrenar la IA en primer lugar. .

En la última protesta, los “miembros del equipo rojo” (probadores beta con acceso privilegiado) que… Abierto AI Invitado a probar sorael tan esperado software de generación de video con IA, decidió filtrar la totalidad de Sora a todos durante su lanzamiento. Carta abierta En la cara abrazándose por sus motivos.

[ad_2]

Source Article Link

Categories
Featured

La nueva herramienta de creación de vídeos con IA de Alibaba se ha unido a un grupo cada vez mayor de competidores de Sora

[ad_1]

Es un día que termina con la letra Y, por lo que el nuevo generador de vídeos con IA se suma a la masa cada vez mayor de herramientas similares. Alibaba es el último en unirse al espacio con su nuevo modelo de texto a video, parte del Grupo Tongyi Wanxiang. Anunciada en la conferencia Cloud Apsara de Alibaba, la herramienta de video de IA fue solo parte de un torrente de nuevas opciones de IA del gigante tecnológico chino, incluidos más de 100 nuevos modelos de lenguajes grandes (LLM).

Tongyi Wanxiang es el grupo de modelos de generación de medios artificiales de Alibaba, que comenzó con un generador de imágenes de IA el año pasado. La nueva herramienta producirá vídeos de alta calidad a partir de mensajes de texto e imágenes fijas en chino e inglés. Los ejecutivos de Alibaba se jactaron de que la compañía tiene algunas de las arquitecturas de conversión de difusión más avanzadas, lo que le permite crear videos que mantienen su calidad sin importar el estilo que solicite el usuario, incluida la acción en vivo realista y varios estilos de animación.

[ad_2]

Source Article Link

Categories
News

Odyssey crea un modelo de inteligencia artificial para convertir texto en videos de 'nivel Hollywood' para competir con Sora y Gen-3 Alpha

[ad_1]

Odisea, inteligencia artificial OpenAI, una startup fundada el año pasado, anunció el lunes los detalles de su primer producto de IA. La compañía reveló que está construyendo un modelo de video de IA que puede crear efectos visuales al nivel de Hollywood, al igual que la herramienta Sora de OpenAI que la compañía aún no ha lanzado. El cofundador de Odyssey dice que el modelo de IA permitirá a los usuarios editar y controlar la salida a un nivel granular, y agrega que la compañía está trabajando con múltiples modelos de lenguaje grandes (LLM) para crear diferentes capas del video resultante, que pueden controlarse por separado.

Cómo funciona el modelo visual de IA de Odyssey

En una serie de publicaciones en It, se entregarán videos de alta calidad que los usuarios pueden personalizar y editar.

Cameron también compartió detalles sobre la tecnología de inteligencia artificial de Odyssey y afirmó que fue diseñada para generar videos con “calidad de Hollywood”. El CEO también dijo que la startup estaba entrenando cuatro modelos generativos para que los usuarios tomaran “el control total de las capas subyacentes de la narrativa visual”.

Cameron destacó un problema con los modelos actuales de IA para convertir texto en video, que es la falta de herramientas u opciones para controlar o editar la salida. “Como narrador, tienes poca capacidad para dirigir tu entorno o tus personajes, o repetir los detalles minuciosos de una toma hasta que sea perfecta. Se necesitan modelos más sólidos”, añadió.

Para solucionar este problema, la empresa utiliza múltiples modelos de IA que generan una única capa de vídeo compuesto. Según Cameron, cuatro modelos generan de forma independiente geometría, materiales, iluminación y movimiento. Estas cuatro capas se generarán simultáneamente en función de un único mensaje de texto y luego se combinarán para ofrecer el vídeo final.

La compañía afirma que los usuarios tendrán la opción de configurar cada capa individualmente para tener un mayor control sobre la salida. Odyssey también integrará su producción de vídeo en las herramientas y sistemas existentes de Hollywood utilizados para generar efectos visuales.

Actualmente, el modelo de vídeo impulsado por IA aún se encuentra en una etapa inicial de desarrollo. No hay fecha de lanzamiento para el modelo de inteligencia artificial. Sin embargo, la compañía ha confirmado que seguirá compartiendo actualizaciones periódicas sobre su progreso. En particular, Cameron trabajó anteriormente en Cruise y Voyage, dos nuevas empresas que trabajan en el campo de los vehículos autónomos.

Jeff Hawk, el otro cofundador y director de tecnología de la empresa, trabajó anteriormente como vicepresidente de tecnología en Wayve, una empresa de inteligencia artificial que desarrolla sistemas de conducción autónoma.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.



[ad_2]

Source Article Link

Categories
Life Style

Sora ha producido cortometrajes que se proyectarán en el Festival de Cine de Tribeca

[ad_1]

El Festival de Cine de Tribeca se está preparando para una adquisición de IA este año, dedicando una sección completa a películas creadas por Sora de OpenAI.

El festival de Tribeca anunció el viernes que albergará Sora Shorts, una serie de películas creadas utilizando un modelo de conversión de texto a video con IA. Para lograr este objetivo, el festival ha contado con la ayuda de cinco cineastas para producir películas originales utilizando la aplicación basada en inteligencia artificial que se anunció el pasado mes de febrero y que aún no se ha estrenado.

Hasta ahora, solo se ha concedido acceso a un puñado de miembros del Equipo Rojo y artistas visuales, por lo que este grupo de cineastas se une a un pequeño grupo de expertos. Esto incluye al último grupo de cineastas. Niñera Director Nikiato Gusso Y la actriz Bonnie DeCepolo (país del fuego, ¡Shazam! La ira de los dioses). Otros cineastas incluidos en la lista son Elie Fombi (Nuestro padre, satanás), Reza Sixo Safaei (La historia de Mario Valdez.) y Michaela Ternasky-Holland.

Aunque la inteligencia artificial generativa se ha utilizado en películas importantes -y No está exento de controversia -Este será el primer uso conocido de Sora en películas proyectadas en un festival. En declaraciones a la prensa, Jane Rosenthal, cofundadora y directora ejecutiva de Tribeca Enterprises, afirmó que “los humanos necesitamos historias” para comprender el mundo que nos rodea.

Velocidad de la luz triturable

“A veces, estas historias nos llegan como un largometraje, una experiencia inmersiva, una obra de arte o incluso un cortometraje generado por IA”, dijo Rosenthal. En su declaración. “No puedo esperar a ver qué se le ocurre a este grupo de exalumnos tremendamente creativos de Tribeca”.

Una cosa que distingue a Sora de los modelos de IA actualmente disponibles es la capacidad de producir vídeos de hasta 60 segundos de duración, superando a otros modelos que están limitados a clips de 6 a 8 segundos, aunque… google ya veo, que también es inédito, tiene como objetivo crear vídeos de esta duración también. Además, los vídeos creados con Sora pueden contener múltiples tomas, aunque no incluyen audio de ningún tipo, incluidos diálogos. Según se informa, Sora tiene controles que le impiden representar ningún acto sexual o violencia.

Si quieres ver lo que un modelo de IA puede hacer en este momento, mira el vídeo musical de “La parte más dificil“Para el artista Ghastal. es muy frustranteal menos.

El Festival de Cine de Tribeca se llevará a cabo del 5 al 16 de junio en la ciudad de Nueva York, por lo que será interesante ver cómo estos cineastas utilizan a Sora en sus proyectos cinematográficos reales.



[ad_2]

Source Article Link

Categories
News

Google I/O 2024: Google presenta AI Video Generator Veo, compitiendo con Sora de OpenAI

[ad_1]

E/S de Google La sesión magistral de 2024 fue una sesión de 112 minutos en la que la empresa realizó varios anuncios clave centrados en inteligencia artificial (Amnistía Internacional). Los anuncios abarcaron desde nuevos modelos de IA hasta la integración de la IA en los productos de Google, pero quizás una de las presentaciones más interesantes fue Veo, un modelo de generación de vídeo impulsado por IA que puede crear vídeos de 1080p. El gigante tecnológico dijo que la herramienta de inteligencia artificial puede crear videos de más de un minuto de duración. En particular, OpenAI también quitar el velo Llamó a su modelo de vídeo AI Sora en febrero.

Durante el evento, Demis Hassabis, cofundador y director ejecutivo de Google DeepMind, dijo: quitar el velo Vista. Al anunciar el modelo de IA, dijo: “Hoy, me complace anunciar nuestro modelo de video generativo más nuevo y más capaz llamado Veo. Veo crea videos de alta calidad de 1080p con mensajes de texto, imágenes y video. Puede capturar el Detalles de tus instrucciones de forma visual.” Y diferentes cinemáticas.

El gigante tecnológico afirma que Veo puede seguir de cerca las afirmaciones para comprender los matices y el tono de una frase y luego crear un vídeo que se parezca a ella. El modelo de IA puede crear videos en diferentes estilos, como tomas a intervalos, primeros planos, tomas de seguimiento rápido, tomas aéreas, iluminación variada y tomas de profundidad de campo. Además de crear el video, el modelo de IA también puede editar videos cuando el usuario le proporciona un video inicial y un mensaje para agregar o eliminar algo. Además, también puede crear vídeos más allá de la marca de un minuto, ya sea mediante un único mensaje o mediante varios mensajes secuenciales.

Para resolver el problema de coherencia en los modelos de generación de vídeo, Veo utiliza transformadores de difusión latente. Esto ayuda a reducir los casos en que los personajes, objetos o toda la escena parpadean, saltan o cambian inesperadamente entre fotogramas. Google Destacó que los videos creados por Veo tendrán una marca de agua utilizando SynthID, la herramienta interna de identificación y marca de agua de la compañía para contenido generado por IA. El modelo pronto estará disponible para creadores seleccionados a través de la herramienta VideoFX de Google Labs.

Similitudes entre Veo y Sora de OpenAI

Aunque ninguno de los modelos de IA está disponible todavía para el público, ambos comparten muchas similitudes. Veo puede crear vídeos de 1080p de hasta un minuto de duración Abierto AI Sora puede crear videos de hasta 60 segundos de duración. Ambos modelos pueden crear videos a partir de mensajes de texto, imágenes y videos. Basados ​​en modelos de difusión, ambos son capaces de crear videos a partir de múltiples planos, estilos y técnicas cinematográficas. Tanto Sora como Veo también vienen con etiquetas de contenido generadas por IA. Sora usa el estándar Coalition for Content Provenance and Authenticity (C2PA), mientras que Veo usa su propio SynthID nativo.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Featured

Turns out the viral ‘Air Head’ Sora video wasn’t purely the work of AI we were led to believe

[ad_1]

A new interview with the director behind the viral Sora clip Air Head has revealed that AI played a smaller part in its production than was originally claimed. 

Revealed by Patrick Cederberg (who did the post-production for the viral video) in an interview with Fxguide, it has now been confirmed that OpenAI‘s text-to-video program was far from the only force involved in its production. The 1-minute and 21-second clip was made with a combination of traditional filmmaking techniques and post-production editing to achieve the look of the final picture.

[ad_2]

Source Article Link

Categories
Featured

OpenAI’s Sora just made its first music video and it’s like a psychedelic trip

[ad_1]

OpenAI recently published a music video for the song Worldweight by August Kamp made entirely by their text-to-video engine, Sora. You can check out the whole thing on the company’s official YouTube channel and it’s pretty trippy, to say the least. Worldweight consists of a series of short clips in a wide 8:3 aspect ratio featuring fuzzy shots of various environments. 

You see a cloudy day at the beach, a shrine in the middle of a forest, and what looks like pieces of alien technology. The ambient track coupled with the footage results in a uniquely ethereal experience. It’s half pleasant and half unsettling. 

[ad_2]

Source Article Link