Categories
News

Runway ofrece control avanzado de cámara en el generador de video AI Alpha Turbo Gen-3

[ad_1]

Pistala empresa de inteligencia artificial (IA) centrada en vídeo lanzó una nueva función el viernes. Esta función, llamada Control avanzado de cámara, permitirá a los usuarios controlar con precisión el movimiento de la cámara en un video generado por IA. Esta capacidad se está agregando al modelo Gen-3 Alpha Turbo de la compañía, que se lanzó en junio. Esta función admite entradas de texto, imágenes y video y permite a los usuarios especificar la dirección y la intensidad del movimiento de la cámara. Esta función está disponible para suscriptores gratuitos y pagos de la plataforma.

El Gen-3 Alpha Turbo de Runway obtiene control avanzado de cámara

mientras tengo un vídeo El modelaje ha recorrido un largo camino desde que llegaron a la corriente principal, y un área en la que todavía tienen dificultades es el control preciso de los movimientos de la cámara. Los usuarios pueden controlar el estilo, los objetos y el enfoque, así como los detalles finos, pero pedirle a la IA que mueva la cámara o amplíe la toma da como resultado resultados aleatorios.

En una publicación en X (anteriormente conocida como Twitter), la compañía de inteligencia artificial detalló una función avanzada de control de cámara que tiene como objetivo abordar este desafío. La compañía ha compartido varios ejemplos en vídeo de cómo esta herramienta permite a los usuarios controlar manualmente cómo se mueve la cámara en la toma.

Esta función permitirá a los usuarios acercar y alejar el sujeto u objeto en el marco. La cámara también se puede mover horizontal, vertical o diagonalmente según indicaciones específicas. Además, también se pueden crear vídeos con tomas panorámicas para revelar más contexto de la escena.

Otro aspecto interesante de la función de control avanzado de la cámara es que los usuarios también pueden controlar la intensidad del movimiento. Esto significa que los usuarios pueden elegir un movimiento lento o rápido para obtener el efecto deseado. Además, se pueden combinar múltiples movimientos para generar un efecto de fluidez.

Estas funciones solo están disponibles en el modelo Gen-3 Alpha Turbo AI. La plantilla está disponible tanto para usuarios gratuitos como para suscriptores de pago. Sin embargo, aquellos en el nivel gratuito obtendrán una cantidad limitada de tokens para probar el modelo de creación de videos. La suscripción paga de Runway comienza en $12 (alrededor de Rs 1,000) por mes por usuario.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.



[ad_2]

Source Article Link

Categories
News

Odyssey crea un modelo de inteligencia artificial para convertir texto en videos de 'nivel Hollywood' para competir con Sora y Gen-3 Alpha

[ad_1]

Odisea, inteligencia artificial OpenAI, una startup fundada el año pasado, anunció el lunes los detalles de su primer producto de IA. La compañía reveló que está construyendo un modelo de video de IA que puede crear efectos visuales al nivel de Hollywood, al igual que la herramienta Sora de OpenAI que la compañía aún no ha lanzado. El cofundador de Odyssey dice que el modelo de IA permitirá a los usuarios editar y controlar la salida a un nivel granular, y agrega que la compañía está trabajando con múltiples modelos de lenguaje grandes (LLM) para crear diferentes capas del video resultante, que pueden controlarse por separado.

Cómo funciona el modelo visual de IA de Odyssey

En una serie de publicaciones en It, se entregarán videos de alta calidad que los usuarios pueden personalizar y editar.

Cameron también compartió detalles sobre la tecnología de inteligencia artificial de Odyssey y afirmó que fue diseñada para generar videos con “calidad de Hollywood”. El CEO también dijo que la startup estaba entrenando cuatro modelos generativos para que los usuarios tomaran “el control total de las capas subyacentes de la narrativa visual”.

Cameron destacó un problema con los modelos actuales de IA para convertir texto en video, que es la falta de herramientas u opciones para controlar o editar la salida. “Como narrador, tienes poca capacidad para dirigir tu entorno o tus personajes, o repetir los detalles minuciosos de una toma hasta que sea perfecta. Se necesitan modelos más sólidos”, añadió.

Para solucionar este problema, la empresa utiliza múltiples modelos de IA que generan una única capa de vídeo compuesto. Según Cameron, cuatro modelos generan de forma independiente geometría, materiales, iluminación y movimiento. Estas cuatro capas se generarán simultáneamente en función de un único mensaje de texto y luego se combinarán para ofrecer el vídeo final.

La compañía afirma que los usuarios tendrán la opción de configurar cada capa individualmente para tener un mayor control sobre la salida. Odyssey también integrará su producción de vídeo en las herramientas y sistemas existentes de Hollywood utilizados para generar efectos visuales.

Actualmente, el modelo de vídeo impulsado por IA aún se encuentra en una etapa inicial de desarrollo. No hay fecha de lanzamiento para el modelo de inteligencia artificial. Sin embargo, la compañía ha confirmado que seguirá compartiendo actualizaciones periódicas sobre su progreso. En particular, Cameron trabajó anteriormente en Cruise y Voyage, dos nuevas empresas que trabajan en el campo de los vehículos autónomos.

Jeff Hawk, el otro cofundador y director de tecnología de la empresa, trabajó anteriormente como vicepresidente de tecnología en Wayve, una empresa de inteligencia artificial que desarrolla sistemas de conducción autónoma.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.



[ad_2]

Source Article Link