Categories
Entertainment

El nuevo modelo de vídeo con IA de Google está menos absorto en la física

[ad_1]

Es posible que Google haya comenzado recientemente a implementar su aplicación Espectáculo Inteligencia artificial generativa para Clientes empresarialespero la compañía no pierde el tiempo lanzando una nueva versión de la herramienta de video para los primeros evaluadores. Google anunció el lunes Vista previa 2. Según la empresa, Veo 2 “entiende el lenguaje cinematográfico”. En la práctica, esto significa que puedes indicar un tipo específico de película, efecto cinematográfico o lente al solicitar el formulario.

Además, Google dice que el nuevo modelo tiene una mejor comprensión de la física y el movimiento humano del mundo real. Modelar correctamente a los humanos en movimiento es algo que todos los modelos generativos luchan por lograr. Así que la afirmación de la compañía de que el Veo 2 es mejor en ambos puntos es digna de mención. Por supuesto, las muestras proporcionadas por la empresa no son suficientes para saberlo con seguridad; La verdadera prueba de las capacidades del Veo 2 llegará cuando alguien lo pida Crea un vídeo de la rutina de una gimnasta. Hablando de las cosas que sufren los modelos de vídeo, Google dice que Veo producirá artefactos como dedos adicionales “con menos frecuencia”.

Muestra de imagen de ardilla creada con Google Imagen 3.  Muestra de imagen de ardilla creada con Google Imagen 3.

Google

Por otra parte, Google está implementando mejoras en Imagen 3. En cuanto al modelo de texto a imagen, la compañía dice que la última versión genera imágenes más brillantes y mejor compuestas. Además, puede representar estilos artísticos más diversos con mayor precisión. Al mismo tiempo, también es mejor seguir más fielmente las instrucciones. El compromiso inmediato fue un tema que destacó cuando la compañía puso Imagen 3 a disposición de los clientes de Google Cloud a principios de este mes, por lo que, al menos, Google es consciente de las áreas donde sus modelos de IA deben funcionar.

Veo 2 se implementará gradualmente para… laboratorios de google Usuarios en Estados Unidos. Por ahora, Google limitará la capacidad de los evaluadores para producir hasta ocho segundos de metraje con una resolución de 720p. Para el contexto, sora Puede crear hasta 20 segundos de metraje a 1080p, aunque hacerlo requiere 200 dólares al mes. Suscripción ChatGPT Pro. En cuanto a las últimas mejoras de Imagen 3, están disponibles para los usuarios de Google Labs en más de 100 países a través… imagenfx.

[ad_2]

Source Article Link

Categories
News

El modelo Motivo AI de Meta puede ofrecer avatares digitales más realistas: así es como funciona

[ad_1]

Meta investiga y desarrolla nuevos modelos de inteligencia artificial, que podrían tener usos potenciales en aplicaciones Web3. La empresa matriz de Facebook ha lanzado un modelo de inteligencia artificial llamado Meta Motivo, que puede controlar los movimientos físicos de los avatares digitales. Se espera que mejore aún más la experiencia general del metaverso. Se espera que el modelo recientemente presentado ofrezca un movimiento corporal mejorado y una interacción de avatar en ecosistemas metaversos.

La compañía afirma que Motivo es un “modelo de base conductual único en su tipo”. El modelo de IA puede permitir que los avatares humanos virtuales completen una variedad de tareas complejas de cuerpo completo, al tiempo que hace que la física virtual sea más fluida. metaverso.

A través del aprendizaje por refuerzo no supervisado, Meta ha facilitado que Motivo realice una variedad de tareas en entornos complejos. Se ha implementado un nuevo algoritmo para entrenar este modelo de IA que utiliza un conjunto de datos de movimientos sin etiquetar para ayudarlo a capturar comportamientos similares a los humanos mientras conserva capacidades de razonamiento de suma cero, dijo la compañía. el dijo En una publicación de blog.

Anunciando el lanzamiento de Motivo el El clip mostraba a un avatar humano realizando movimientos de baile y patadas utilizando tareas de cuerpo completo. Meta dijo que está incorporando “aprendizaje por refuerzo no supervisado” para estimular el “comportamiento humano” en avatares virtuales, como parte de sus intentos de hacerlos parecer más realistas.

La compañía dice que Motivo puede resolver una variedad de tareas de control de todo el cuerpo. Esto incluye rastrear el movimiento, alcanzar la posición objetivo y optimizar la recompensa sin ningún entrenamiento adicional.

Reality Labs es la unidad interna de Meta que trabaja en sus iniciativas relacionadas con el metaverso. Desde su lanzamiento en 2022, Reality Labs ha registrado pérdidas consecutivas. A pesar de este patrón, Zuckerberg ha apostado por la transformación, probando tecnologías más nuevas para mejorar la experiencia general.

A principios de este año, Meta mostró una demostración de Hyperscape, que convierte la cámara de un teléfono inteligente en un portal a entornos metaversos fotorrealistas. A través de esto, la herramienta permite a los teléfonos inteligentes escanear espacios 2D y convertirlos en fondos de pantalla de metaverso altamente realistas.

En junio, muerto ahorquillado Su equipo de Reality Labs está dividido en dos partes, un equipo encargado de trabajar en los auriculares Quest centrados en el metaverso, mientras que el otro está a cargo de trabajar en dispositivos portátiles que el meta podría lanzar en el futuro. La medida tenía como objetivo mejorar el tiempo que el equipo de Reality Labs dedica al desarrollo de las últimas tecnologías de IA y Web3.



[ad_2]

Source Article Link

Categories
News

Presentamos el modelo de microlenguaje de código abierto Phi-4 de Microsoft; Se afirma que supera al Gemini 1.5 Pro

[ad_1]

microsoft El viernes lanzó el modelo de inteligencia artificial (IA) Phi-4. El último modelo de lenguaje pequeño (SLM) de la compañía se une a la familia de modelos centrales de código abierto Phi. El modelo de IA llega ocho meses después del lanzamiento del Phi-3 y cuatro meses después de la introducción de la serie de modelos de IA Phi-3.5. El gigante tecnológico afirma que SLM es más capaz de resolver consultas complejas basadas en heurísticas en campos como las matemáticas. Además, también se dice que destaca en el procesamiento del lenguaje tradicional.

El modelo Phi-4 AI de Microsoft estará disponible a través de Hugging Face

Hasta la fecha, todas las series Phi se han lanzado con una variante mini; sin embargo, ninguna variante mini ha acompañado al Phi-4. microsoft, en Publicación de blogdestacó que Phi-4 está actualmente disponible en Azure AI Foundry bajo un Acuerdo de licencia de investigación de Microsoft (MSRLA). La compañía también planea ponerlo a disposición en Hugging Face la próxima semana.

La compañía también compartió los resultados comparativos de sus pruebas internas. En consecuencia, el nuevo modelo de IA mejora significativamente las capacidades del modelo de la generación anterior. El gigante tecnológico afirmó que el Phi-4 supera al Gemini Pro 1.5, un modelo mucho más grande, en su punto de referencia de problemas de competición deportiva. También publicó un rendimiento comparativo detallado en un documento técnico. publicado En la revista en línea arXiv.

En cuanto a la seguridad, Microsoft dijo que Azure AI Foundry viene con un conjunto de capacidades para ayudar a las organizaciones a medir, mitigar y gestionar los riesgos de la IA a lo largo del ciclo de vida de desarrollo del aprendizaje automático tradicional y las aplicaciones de IA generativa. Además, los usuarios empresariales pueden utilizar funciones de seguridad de contenido de Azure AI, como protección de velocidad, detección de conexión a tierra y otras, como filtro de contenido.

Los desarrolladores también pueden agregar estas capacidades de seguridad a sus aplicaciones a través de una única interfaz de programación de aplicaciones (API). La plataforma puede monitorear la calidad, la integridad, los ataques rápidos de los adversarios y la integridad de los datos de las aplicaciones y brindar a los desarrolladores alertas en tiempo real. Estará disponible para los usuarios de Phi que accedan a través de Azure.

Vale la pena señalar que los modelos de lenguaje más pequeños a menudo se entrenan después de implementarlos en datos sintéticos, lo que les permite adquirir más conocimientos de manera más rápida y eficiente. Sin embargo, los resultados posteriores a la capacitación no siempre son consistentes en los casos de uso del mundo real.

[ad_2]

Source Article Link

Categories
News

El modelo Claude 3.5 Haiku AI de Anthropic lanzado para todos los usuarios en aplicaciones web y móviles

[ad_1]

antrópico Ha lanzado silenciosamente el modelo de Inteligencia Artificial (IA) Cloud 3.5 Haiku a los usuarios. El jueves, muchos internautas comenzaron a publicar sobre la disponibilidad del modelo en la interfaz web y las aplicaciones móviles de Claude. Anthropic informó que la nueva generación de Haiku es el modelo de lenguaje principal más rápido desarrollado en la empresa. Además, en muchos criterios, el modelo base también supera al Claude 3 Opus, el modelo más capaz de la generación anterior. En particular, todos los usuarios de Claude tendrán acceso a Claude 3.5 Haiku independientemente de su suscripción.

Anthropy Cloud 3.5 Ediciones Haiku

Si bien la compañía de IA no ha hecho ningún anuncio sobre el lanzamiento del nuevo modelo Haiku, muchos usuarios de X (anteriormente conocido como Twitter) publicar Sobre su disponibilidad tanto en el sitio web como en las aplicaciones móviles. El personal de Gadgets 360 también pudo verificar de forma independiente que Claude 3.5 Haiku es ahora el modelo de idioma predeterminado en el chatbot. Además, es el único modelo disponible para aquellos en el nivel gratuito de Claude.

antrópico primero Anunciar el Nube 3.5 Familia de modelos de IA en octubre, cuando se lanzó la primera versión de Sonnet 3.5. En su momento, la compañía destacó el 3.5 Haiku como su modelo más rápido. Algunas de las actualizaciones de las generaciones más nuevas incluyen una latencia más baja (tiempo de respuesta optimizado), un seguimiento de instrucciones mejorado y un uso preciso de las herramientas.

Para las empresas, la compañía de inteligencia artificial destacó que Claude 3.5 Haiku se destaca en productos orientados al usuario, tareas especializadas de subagente y generación de experiencias personalizadas a partir de grandes cantidades de datos.

En términos de rendimiento, el nuevo modelo Haiku obtuvo una puntuación del 40,6 por ciento en el Software Engineering Benchmark (SWE), superando la primera versión de OpenAI 3.5 Sonnet y GPT-4o. También supera al GPT-4o mini en los puntos de referencia HumanEval y Graduate-Level-Google-Proof Q&A (GPQA).

En particular, a principios de este mes, Anthropy óptimo Claude 3.5 Haiku para el chipset de IA AWS Trainium2 y soporte adicional para heurísticas de latencia mejoradas en Amazon Bedrock. La compañía aún no ha agregado soporte para Vertex AI de Google Cloud. El nuevo modelo de IA sólo puede generar texto pero acepta texto e imágenes como entrada.

[ad_2]

Source Article Link

Categories
Life Style

Revisión de Sora de OpenAI: Marques Brownlee analiza el modelo de video de IA

[ad_1]

Acaba de llegar uno de los productos relacionados con la IA más esperados: el generador de vídeo Sora AI de OpenAI Despedido Lunes como parte de la empresa. 12 días de OpenAI Sucedió.

OpenAI ha proporcionado un adelanto de la producción de Sora en el pasado. Pero, ¿qué tan diferente será en el lanzamiento? OpenAI ciertamente ha puesto mucho esfuerzo en actualizar y mejorar su generador de video impulsado por IA en preparación para su lanzamiento público.

El YouTuber Marques Brownlee tuvo un Primer vistazo a Soralanzando su reseña en video de los últimos productos de OpenAI horas antes de que OpenAI anunciara oficialmente el lanzamiento. ¿Qué pensó Brownlee?

¿En qué es bueno Sora?

Según Brownlee, sus pruebas de Sora descubrieron que el generador de vídeo con IA destaca en la creación de paisajes. Las tomas de la naturaleza o paisajes famosos generadas por IA parecen imágenes de archivo de la vida real. Por supuesto, como señala Brownlee, si conoce bien cómo se ven los alrededores del monumento, es posible que pueda detectar diferencias. Sin embargo, no hay mucho que parezca claramente generado por IA en este tipo de clips generados por Sora.

Quizás el tipo de vídeo que Sora puede crear mejor, según Brownlee, son los vídeos abstractos. Sora puede crear bien arte abstracto de fondo o protector de pantalla incluso con instrucciones específicas.

Velocidad de la luz triturable

Brownlee también descubrió que ciertos tipos de contenido animado creado por Sora, como la animación stop-motion o la animación tipo Claymation, a veces parecían aceptables, ya que los movimientos a veces entrecortados que todavía plagan el video de IA parecían opciones estilísticas.

Aún más sorprendente, Brownlee descubrió que Sora era capaz de manejar imágenes de texto animadas muy específicas. Las palabras suelen aparecer como texto distorsionado en otros modelos de generación de imágenes y vídeos impulsados ​​por IA. Con Sora, Brownlee descubrió que siempre que el texto fuera específico, como algunas palabras en una tarjeta de título, Sora podía crear la imagen con la ortografía correcta.

Donde Sora sale mal

Sin embargo, Sora todavía presenta muchos de los mismos problemas que afectaron a todos los generadores de video de IA anteriores.

Lo primero que menciona Brownlee es la permanencia del objeto. Sora tiene problemas para mostrar un objeto específico en la mano de alguien, por ejemplo, durante todo el vídeo. A veces el objeto se mueve o desaparece repentinamente. Al igual que con el texto de IA, el vídeo de IA de Sora sufre alucinaciones.

Lo que lleva a Brownlee al mayor problema de Sora: la física en general. El vídeo realista parece ser todo un desafío para Sora porque parece que no puede animar la acción correctamente. Una persona que simplemente camina comenzará a disminuir o acelerar de manera antinatural. A veces, las partes del cuerpo u objetos también se distorsionan repentinamente y se convierten en algo completamente diferente.

Y aunque Brownlee mencionó estas mejoras con el texto, a menos que seas muy específico, Sora todavía distorsiona la ortografía de cualquier tipo de texto de fondo, como el que puedes ver en edificios o señales de tráfico.

Sora es en gran medida un trabajo en progreso y OpenAI también participó durante el lanzamiento. Aunque puede ser un paso adelante en comparación con otros generadores de video con IA, está claro que hay solo unas pocas áreas en las que todos los modelos de video con IA encontrarán desafíos.



[ad_2]

Source Article Link

Categories
News

OpenAI lanza la versión completa de su modelo de IA o1 centrado en la inferencia y ofrece una suscripción ChatGPT Pro

[ad_1]

Abierto AI El jueves sacó de la versión preliminar su modelo de inteligencia artificial (IA) o1 y lanzó la versión completa. La compañía de inteligencia artificial afirma que el nuevo modelo ahora puede realizar tareas que la vista previa de o1 no podía. También se dice que es más rápido en tiempos de respuesta y más conciso en su pensamiento. El modelo OpenAI o1 AI estará disponible para todos los suscriptores pagos de ChatGPT. Aparte de esto, la compañía también introdujo una nueva suscripción llamada ChatGPT Pro que brindará un amplio acceso a los mejores modelos y herramientas de OpenAI.

Modelo de IA OpenAI o1, nueva suscripción Pro

Los nuevos anuncios son parte de la campaña '12 días de OpenAI' de la compañía, donde planea realizar 12 transmisiones en vivo en 12 días y brindar nuevas actualizaciones todos los días. El primer día la empresa publicar En

Al destacar las capacidades mejoradas en la versión completa, la compañía afirmó que el o1 genera respuestas más rápido y ofrece un mejor rendimiento en programación, matemáticas y mecanografía. Además, el modelo de IA también puede procesar imágenes cargadas y generar respuestas basadas en ellas. Por ejemplo, los usuarios pueden mostrarle a un chatbot una imagen de una pajarera y pedirle que proporcione una guía paso a paso para crearla.

Durante las pruebas internas, OpenAI descubrió que el modelo o1 reducía errores significativos en preguntas difíciles del mundo real en un 34 por ciento en comparación con la vista previa de o1. El modelo AI reemplaza la vista previa o1 y está disponible para los usuarios de ChatGPT Plus y Team a través de la opción de selección de modelo en el chatbot. Los usuarios empresariales y educativos podrán acceder al modelo dentro de una semana.

De cara a la hoja de ruta futura, la compañía de inteligencia artificial dijo que está trabajando para agregar soporte para navegación web y herramientas de carga de archivos al modelo o1 de ChatGPT. Además, OpenAI también planea hacer que el modelo de lenguaje grande (LLM) esté disponible en la API y agregar soporte para llamadas a funciones, mensajes para desarrolladores, resultados estructurados y visibilidad.

en un Publicación de blogOpenAI también anunció la introducción de la suscripción ChatGPT Pro. La suscripción brindará a los usuarios acceso ilimitado a los modelos más capaces de la compañía, como o1, o1-mini, GPT-4o y Advanced Audio Tool. Además, los usuarios obtendrán un nuevo modo o1 pro, que se describe como una versión mejorada de o1 diseñada para “ofrecer mejores respuestas” a problemas complejos utilizando potencia de procesamiento adicional.

ChatGPT La suscripción Pro tiene un precio de 200 dólares (alrededor de 16.900 rupias) al mes, lo que la hace casi diez veces más cara que la suscripción Plus, que cuesta Rs. 1950 en la India. Al explicar el precio, la compañía dijo que esta suscripción está dirigida a investigadores, ingenieros e individuos que utilizan inteligencia de investigación.

[ad_2]

Source Article Link

Categories
News

La inteligencia de Apple en China estará impulsada por el modelo de IA Ernie 4.0 de Baidu

[ad_1]

inteligencia de manzanaSegún se informa, el conjunto de funciones internas de inteligencia artificial (IA) de la compañía para sus dispositivos será proporcionado por los propios modelos de IA de Baidu en China. El gigante tecnológico con sede en Cupertino aún no ha lanzado las nuevas funciones de inteligencia artificial en los países de la UE y China debido a obstáculos regulatorios. Mientras que en la UE la cuestión gira en gran medida en torno a la privacidad del usuario y la interoperabilidad, en China sólo se permite operar los modelos de IA aprobados por el gobierno. Por esta razón, según se informa, Apple se ha asociado con Baidu para ofrecer funciones de inteligencia artificial en el país.

Se dice que Apple está colaborando con Baidu

Información mencioné Apple y el gigante chino de las búsquedas se han asociado para las funciones de Apple Intelligence en el país. Mientras Apple lucha por obtener la aprobación para grandes modelos de idioma nativo (LLM), el fabricante de iPhone ha recurrido a asociarse con empresas locales de inteligencia artificial para proporcionar procesamiento de back-end para sus funciones de inteligencia artificial.

Según el informe, las herramientas de inteligencia artificial de Apple estarán impulsadas por el modelo de inteligencia artificial multimedia Ernie 4.0 de Baidu, que se lanzó en octubre de 2023. Esta asociación es diferente de la que hizo el fabricante del iPhone con OpenAI. En este último caso, ChatGPT sólo se utiliza para determinadas funciones y se notificará al usuario al respecto. pero, Baidu Según se informa, se encargará de todas las tareas de IA generativa de la empresa.

Según se informa, Apple también pagará a Baidu para que utilice el modelo de IA Ernie 4.0, mientras que el acuerdo con OpenAI no implica ninguna transacción financiera. Apple Intelligence tampoco incluirá soporte para ChatGPT en China.

Sin embargo, el dúo enfrenta algunos desafíos para optimizar sus capacidades de IA. manzana Dispositivos. Según el informe, los ingenieros de ambas compañías están trabajando arduamente para mejorar el software LLM de Baidu; sin embargo, el modelo de IA Ernie 4.0 tiene dificultades para comprender las indicaciones y proporcionar respuestas precisas a escenarios en los que un usuario de iPhone podría necesitar IA.

Se dice que otro desafío está en el frente de la privacidad. Según se informa, Baidu quiere recopilar datos de los usuarios de Apple que utilizan su función de búsqueda impulsada por IA. Sin embargo, esto violaría la política de privacidad del gigante tecnológico con sede en Cupertino, ya que requeriría un enfoque separado del diseño en el dispositivo de Apple Intelligence y del modelo de computación en nube privada. En particular, la compañía destacó que los datos de los usuarios a los que se accedía mientras se procesaban funciones de IA no saldrían del dispositivo en la WWDC a principios de este año.

Citando a personas familiarizadas con el asunto, el informe afirma que Apple y Baidu tendrán que resolver estos problemas antes de que Apple Intelligence se lance en China.

[ad_2]

Source Article Link

Categories
News

Google DeepMind presenta el modelo de IA Genie 2, que puede crear mundos 3D jugables para entrenar agentes de IA

[ad_1]

Google DeepMind Genie presentó el miércoles el sucesor de su modelo de inteligencia artificial (IA) Genie, que puede generar infinitos mundos de juegos en 2D. El nuevo modelo de IA, llamado Genie 2, es capaz de crear entornos 3D únicos que pueden controlarse y operarse en base a un único vector de imagen. La compañía describió a Genie 2 como un “modelo universal” de inteligencia artificial y afirmó que puede crear entornos de hasta un minuto de duración utilizando objetos consistentes. La compañía dijo que estos mundos generados pueden ser jugados por humanos o usarse para entrenar agentes de inteligencia artificial.

Google DeepMind presenta el modelo de inteligencia artificial Genie 2

en un Publicación de blogLa empresa detalló el nuevo modelo de IA y sus capacidades. mientras predecesor El modelo de IA Genie 2 solo puede crear mundos de juego para plataformas 2D y puede crear mundos 3D completos con modelos consistentes con los que interactuar. Esto significa que los humanos o agentes de IA pueden caminar, correr, nadar, trepar y realizar más acciones en estos entornos.

Las capacidades generativas permiten a Genie 2 crear caminos, edificios y objetos que no se pueden ver en la imagen de entrada. Estos elementos son diseñados y presentados por el modelo desde cero. Además, el modelo básico también puede mantener la coherencia en estos entornos. Esto significa que incluso cuando el jugador se aleja de un área y regresa, los entornos siguen siendo los mismos.

Aparte de esto, Genie 2 es capaz de generar diferentes puntos de vista como puntos de vista en primera persona, puntos de vista isométricos o puntos de vista en tercera persona. Además, los usuarios también pueden interactuar con objetos en los mundos generados y realizar acciones como abrir una puerta, inflar un globo o subir una escalera. También se le puede pedir al modelo que cree efectos relacionados con la física, como ondas de agua, humo, gravedad, iluminación direccional, reflejos y más.

En términos de detalles técnicos, DeepMind explicó que Genie 2 es un modelo de difusión latente autorregresivo y fue entrenado en un gran conjunto de datos de video. La arquitectura Transformers también incluye un codificador automático que permite generar estos mundos cuadro por cuadro.

En particular, DeepMind también Liberado Un modelo de IA denominado Scalable Instructable Multiworld Agent, o SIMA, a principios de este año, es esencialmente capaz de realizar funciones de agente de IA en mundos 3D. La compañía dice que Genie 2 es capaz de proporcionar entornos únicos para agentes de IA similares y entrenarlos en diferentes escenarios de la vida real.

Dado que el modelo global puede crear entornos únicos, Google dice que esto eliminará el riesgo de contaminación de datos y permitirá a los desarrolladores evaluar adecuadamente las capacidades del agente de IA.

[ad_2]

Source Article Link

Categories
News

El modelo de pronóstico del tiempo GenCast AI de Google supera a los mejores sistemas de pronóstico, según un estudio

[ad_1]

Google GenCast presentó el miércoles su modelo de predicción meteorológica utilizando inteligencia artificial (IA). El modelo de IA fue desarrollado por la división de investigación de IA del gigante tecnológico de Mountain View, Google DeepMind. Los investigadores de la compañía también publicaron un artículo sobre la tecnología destacando sus capacidades en el pronóstico del tiempo a mediano plazo. La compañía afirma que el sistema pudo superar a los modelos de pronóstico existentes en términos de precisión y exactitud. En particular, GenCast puede predecir el tiempo para los próximos 15 días con una precisión de 0,25°C.

Características de Google GenCast

en un Publicación de blogGoogle DeepMind ha detallado su nuevo modelo de conjunto de IA de alta resolución. Destacando la capacidad de GenCast para proporcionar pronósticos meteorológicos diarios y eventos extremos, afirmó que era capaz de funcionar mejor que el sistema de conjunto (ENS) del Centro Europeo de Predicción Meteorológica a Medio Plazo (ECMWF). Rendimiento del modelo ahora publicado En la revista Naturaleza.

En particular, en lugar de utilizar el enfoque determinista tradicional para el pronóstico del tiempo, GenCast utiliza un enfoque probabilístico. Los modelos de pronóstico del tiempo basados ​​en el enfoque determinista producen un pronóstico único y específico para un conjunto dado de condiciones iniciales y se basan en ecuaciones precisas de la física y la química de la atmósfera.

Por otro lado, los modelos basados ​​en el enfoque probabilístico generan múltiples resultados posibles al simular un conjunto de condiciones iniciales y parámetros del modelo. Esto también se llama pronóstico por conjuntos.

Google DeepMind Destacó que GenCast es un modelo de propagación que se adapta a la geometría esférica de la Tierra, generando la compleja distribución de probabilidad de escenarios climáticos futuros. Para entrenar el modelo de IA, los investigadores proporcionaron cuatro décadas de datos meteorológicos históricos del archivo ERA5 del ECMWF. Así, al modelo se le enseñaron los patrones climáticos globales con una precisión de 0,25 grados Celsius.

En el artículo publicado, Google evaluó el rendimiento de GenCast entrenándolo con datos históricos hasta 2018 y luego le pidió que hiciera predicciones para 2019. Se utilizaron un total de 1320 combinaciones de diferentes variables en diferentes períodos de tiempo y los investigadores descubrieron que GenCast era más preciso que ENS en el 97,2 por ciento de estos objetivos, y el 99,8 por ciento en períodos de tiempo de más de 36 horas.

En particular, Google DeepMind anunció que publicará el código, los pesos y los pronósticos del modelo GenCast AI para apoyar a la comunidad de pronóstico del tiempo.

[ad_2]

Source Article Link

Categories
News

Google lanza el modelo de generación de imágenes mediante IA Imagen 3 y el modelo de vídeo Veo

[ad_1]

Google Finalmente lanzó el miércoles sus últimos modelos para generación de imágenes y videos con IA. Ambos modelos de inteligencia artificial eran así quitar el velo en Google I/O como el último avance del gigante tecnológico en IA generativa. Ahora, más de seis meses después, la empresa con sede en Mountain View ha presentado este sistema en Vertex AI a sus clientes empresariales. Vale la pena señalar que, aunque Imagen 3 aún no está disponible como plataforma independiente, se ha utilizado en varias plataformas y herramientas como Google Docs, Gemini y una herramienta experimental llamada GenChess.

Imagen de Google 3, veo modelos de IA

en un Publicación de blogEl gigante tecnológico ha anunciado la introducción de dos nuevos modelos de IA en Vertex AI. La plataforma Vertex AI de Google es una plataforma administrada de aprendizaje automático (ML). Nube de Google Permite a los desarrolladores y organizaciones crear, implementar y gestionar modelos de IA. Es similar a Amazon Bedrock y Microsoft Azure y ofrece herramientas y soluciones de flujo de trabajo de IA integradas.

El gigante tecnológico dijo que el modelo de creación de videos Veo ahora está disponible en Vertex AI en vista previa privada y las empresas pueden crear videos usando mensajes de texto o imágenes. Por otro lado, Imagen 3 estará disponible a partir de la próxima semana. Se necesitan indicaciones de texto y las organizaciones pueden utilizarlas para crear imágenes que reflejen el estilo y los logotipos de su marca.

En cuanto a las capacidades de Veo, Google dice que puede crear videos de alta calidad basados ​​en mensajes de texto o imágenes. Los vídeos se pueden crear en una amplia gama de estilos visuales y cinematográficos. Desarrollado por mente profundaSe dice que el modelo de IA tiene un compromiso extremadamente rápido y puede crear tomas consistentes de objetos, personas e incluso capturar movimientos de manera realista.

Imagen 3, que estará disponible en Vertex AI a partir de la próxima semana, puede crear imágenes fotorrealistas en una amplia gama de estilos. Al describirlo como “nuestro modelo de generación de imágenes más capaz hasta el momento”, Google afirmó que el modelo de generación de imágenes puede comprender indicaciones en lenguaje natural y los usuarios no tienen que describir elementos técnicos para obtener el resultado deseado.

El modelo Imagen 3 AI también estará disponible con herramientas de edición para dibujo interior y dibujo exterior. Las empresas también pueden incorporar los colores, patrones, logotipos y otros elementos de su marca en las imágenes creadas.

Para la privacidad y la seguridad, el gigante tecnológico ha agregado varias herramientas. SynthID, tecnología de marca de agua sofisticado DeepMind lo integrará en cada imagen y cuadro de video producido por estos modelos de IA para combatir los deepfakes y la desinformación. Google también afirmó que los modelos de IA no se entrenarán con los datos de los clientes y que las herramientas funcionarán bajo los controles de privacidad y gobernanza de datos de Google Cloud.

[ad_2]

Source Article Link