Categories
Entertainment

El nuevo modelo de vídeo con IA de Google está menos absorto en la física

[ad_1]

Es posible que Google haya comenzado recientemente a implementar su aplicación Espectáculo Inteligencia artificial generativa para Clientes empresarialespero la compañía no pierde el tiempo lanzando una nueva versión de la herramienta de video para los primeros evaluadores. Google anunció el lunes Vista previa 2. Según la empresa, Veo 2 “entiende el lenguaje cinematográfico”. En la práctica, esto significa que puedes indicar un tipo específico de película, efecto cinematográfico o lente al solicitar el formulario.

Además, Google dice que el nuevo modelo tiene una mejor comprensión de la física y el movimiento humano del mundo real. Modelar correctamente a los humanos en movimiento es algo que todos los modelos generativos luchan por lograr. Así que la afirmación de la compañía de que el Veo 2 es mejor en ambos puntos es digna de mención. Por supuesto, las muestras proporcionadas por la empresa no son suficientes para saberlo con seguridad; La verdadera prueba de las capacidades del Veo 2 llegará cuando alguien lo pida Crea un vídeo de la rutina de una gimnasta. Hablando de las cosas que sufren los modelos de vídeo, Google dice que Veo producirá artefactos como dedos adicionales “con menos frecuencia”.

Muestra de imagen de ardilla creada con Google Imagen 3.  Muestra de imagen de ardilla creada con Google Imagen 3.

Google

Por otra parte, Google está implementando mejoras en Imagen 3. En cuanto al modelo de texto a imagen, la compañía dice que la última versión genera imágenes más brillantes y mejor compuestas. Además, puede representar estilos artísticos más diversos con mayor precisión. Al mismo tiempo, también es mejor seguir más fielmente las instrucciones. El compromiso inmediato fue un tema que destacó cuando la compañía puso Imagen 3 a disposición de los clientes de Google Cloud a principios de este mes, por lo que, al menos, Google es consciente de las áreas donde sus modelos de IA deben funcionar.

Veo 2 se implementará gradualmente para… laboratorios de google Usuarios en Estados Unidos. Por ahora, Google limitará la capacidad de los evaluadores para producir hasta ocho segundos de metraje con una resolución de 720p. Para el contexto, sora Puede crear hasta 20 segundos de metraje a 1080p, aunque hacerlo requiere 200 dólares al mes. Suscripción ChatGPT Pro. En cuanto a las últimas mejoras de Imagen 3, están disponibles para los usuarios de Google Labs en más de 100 países a través… imagenfx.

[ad_2]

Source Article Link

Categories
News

Escáner de documentos de Google Drive actualizado con función de optimización automática en Android

[ad_1]

Google Drive El escáner de documentos portátil se ha actualizado con una nueva función llamada Mejoras automáticas. Puede optimizar automáticamente la resolución y la calidad de imagen de un documento digital para mejorar su legibilidad. La nueva función de optimización automática de Google Drive puede solucionar una serie de problemas con un documento escaneado, incluidos el balance de blancos, las sombras, la iluminación y el contraste. Si bien se anunció para los usuarios de Google Workspace, la función también estará disponible para los titulares de cuentas personales de Google.

La función de optimización automática de Google Drive es el balance de blancos, las sombras y las luces.

El gigante tecnológico con sede en Mountain View actualiza periódicamente su herramienta de escáner de documentos móvil dentro de Google Drive para Android. empresa el año pasado Añadió Sugerencia de títulos basada en aprendizaje automático (ML), captura automática, visor, importación desde el carrete de la cámara y nuevo botón de acción flotante (FAB) para el escáner.

Este año, la empresa también promoción Escáner de documentos con función que permite a los usuarios guardar archivos escaneados como archivos PDF o JPEG. Además, también se ha añadido un nuevo filtro en blanco y negro. Ahora, Google está agregando otra función para mejorar la calidad del escaneo llamada “Mejoras automáticas”, según las últimas noticias de la compañía. Publicación de blog.

Mejoras del escáner de Google Drive Mejoras automáticas de Google Drive

Función de mejora automática en el escáner de documentos de Google Drive
Crédito de la imagen: Google

Con esta nueva función, el escáner de documentos de Google Drive podrá mejorar automáticamente los escaneos después de convertir el documento físico en una copia digital. Esta función analizará el escaneo en busca de defectos y sugerirá automáticamente acciones como corrección del balance de blancos, eliminación de sombras, enriquecimiento de contraste, nitidez automática, optimización de la iluminación y más.

Google Dice que esto convertirá los documentos escaneados en imágenes de mayor calidad. En particular, la función funcionará incluso cuando los usuarios guarden un archivo escaneado en formato PDF o JPEG.

La compañía dice que los usuarios de dominios de lanzamiento rápido obtendrán esta función antes del 2 de enero de 2025, mientras que los usuarios de dominios de lanzamiento programado la obtendrán antes del 6 de enero de 2025. Esta función se proporciona a las cuentas empresariales de Google Workspace, así como a los suscriptores individuales de Workspace. como usuarios que tienen… Cuentas personales de Google. Una vez que esté disponible, la función funcionará por sí sola una vez que se tome la foto, según la compañía.

[ad_2]

Source Article Link

Categories
Featured

Google Agentspace quiere utilizar la IA para ayudarle a encontrar toda la información comercial que necesita

[ad_1]


  • Google Cloud presenta la plataforma Agentspace para agentes comerciales
  • Combinando Gemini AI, búsqueda de Google y datos de la empresa en un solo lugar
  • Las empresas también pueden compartir el acceso a agentes de IA dedicados

Realizar un seguimiento de la información específica que necesita en el trabajo pronto será mucho más fácil gracias al nuevo lanzamiento de Google nubes.

La compañía ha lanzado Agentspace, un nuevo agente de búsqueda multimedia que, según afirma, hará que sea mucho más fácil encontrar las respuestas que necesita, incluso para preguntas complejas.

[ad_2]

Source Article Link

Categories
Featured

Las credenciales de AWS, Azure y Google Cloud de cuentas heredadas ponen en riesgo a las empresas

[ad_1]

  • El informe advierte que las credenciales a largo plazo todavía representan un riesgo de seguridad importante
  • Las claves de acceso heredadas aumentan las vulnerabilidades en las plataformas en la nube
  • La gestión automatizada de credenciales es fundamental para la seguridad en la nube

como Computación en la nube La adopción continúa aumentando y las organizaciones dependen cada vez más de plataformas como Amazonas servicios web (AWS), microsoft azur, y Google Sin embargo, esto significa que sus riesgos de seguridad también son cada vez más complejos.

El último estado de seguridad en la nube de Datadog para 2024 El informe revela un problema particularmente preocupante: el uso de credenciales de larga duración, que plantean importantes amenazas a la seguridad en todos los principales proveedores de nube.

[ad_2]

Source Article Link

Categories
Life Style

Ahora puedes hablar con los presentadores de podcasts de IA de Google

[ad_1]

Ahora puedes hablar con GoogleDe hecho, la IA del hosting convertirá las notas de su reunión en un podcast.

NotebookLM, la herramienta de enseñanza impulsada por IA de Google, La herramienta Audio Overview debutó En octubre. En resumen, toma materiales de origen (por ejemplo, notas de reuniones, anotaciones en diarios y resúmenes legales) y los condensa en un producto similar a un podcast en el que dos presentadores con tecnología de inteligencia artificial discuten información relevante. La idea es brindar una forma diferente de recibir información, tal vez para alguien que está demasiado ocupado para leer o que aprende mejor a través del audio.

Ahora, en teoría, puedes hacer preguntas a los anfitriones de la IA en caso de que te confundas o necesites más información.

Velocidad de la luz triturable

libros Google en la entrada del blog Acerca de la actualización a NotebookLM:

“Durante los últimos tres meses, la gente ha producido más de 350 años de conocimiento. Resúmenes de audio. Hoy, estamos implementando la capacidad de “unirse” a la conversación. Usando tu voz, puedes pedirles a los presentadores más detalles o explicar un concepto de manera diferente. “Es como tener un maestro o mentor personal que escucha atentamente y luego responde directamente, aprovechando el conocimiento de sus fuentes”.

Google advirtió que es una característica nueva y que los hosts de IA pueden “pausarse de manera incómoda antes de responder y, en ocasiones, pueden proporcionar información inexacta”. Esto es lo esperado, Teniendo en cuenta la inteligencia artificial Introducir información inexacta No es exactamente un problema nuevo o novedoso.

Puede encontrar la nueva herramienta haciendo clic en el botón “Modo interactivo (BETA)” en la nueva entrevista de audio.



[ad_2]

Source Article Link

Categories
Entertainment

La función NotebookLM Audio Overviews de Google ahora le permitirá llamar con una pregunta

[ad_1]

Google Creó un gran revuelo con su función de podcast generado por IA. y antes de fin de año, la solicitud . Como parte de un rediseño más amplio de la herramienta portátil impulsada por IA de Google, Voice Overviews ahora es interactivo.

Después de crear una descripción general de audio basada en las fuentes que has subido, Google dice que podrás reproducir la grabación en un nuevo “modo interactivo (BETA)”. Al hacer clic en “Unirse” en cualquier momento en esta nueva pantalla de inicio, los anfitriones de IA se comunicarán con usted con una pregunta, que responderán en vivo mientras lo escuchan. Google advierte que la función aún es experimental y que los anfitriones pueden hacer pausas incómodas o proporcionar nuevas imprecisiones al responder preguntas, pero pareció funcionar bien en una prueba breve. Pude crear un proyecto NotebookLM que se basó en artículos sobre NotebookLM y, aunque hacer una pregunta pareció ralentizar toda la descripción general, los anfitriones de IA pudieron integrar perfectamente una respuesta en el resto de la presentación.

Junto con estas nuevas funciones ampliadas, NotebookLM está recibiendo una pequeña revisión visual. La interfaz ahora está dividida en tres secciones, un panel de “Estudio” donde se muestra contenido generado por IA, como resúmenes de audio, guías de estudio y preguntas frecuentes, un panel de “Chat” central para hacer preguntas sobre sus fuentes en la IA de Google, y un panel de “Chat” central para hacer preguntas sobre sus fuentes en la IA de Google. Panel “Fuentes” botón a la izquierda para administrar las fuentes de las que extrae NotebookLM. Es una configuración muy limpia y poder plegar el tablero cuando no lo estás usando evita que las cosas se ensucien.

Google también está utilizando estas actualizaciones como una forma de ofrecer su primer intento de monetizar NotebookLM. nuevo La suscripción Premium está disponible para los clientes de Google Workspace y Cloud como un complemento para Gemini y les brindará la posibilidad de crear hasta 20 resúmenes de audio por día, crear hasta 500 cuadernos con tecnología de inteligencia artificial y agregar hasta 300 fuentes. por cuaderno. Esto se traduce en $20 adicionales por usuario al mes para los suscriptores de Workspace. A partir del próximo año, las funciones de NotebookLM Plus también se incluirán en la suscripción Premium de Google One AI.

Lista de beneficios de la suscripción a Google NotebookLM Plus además de lo que obtienes gratis.Lista de beneficios de la suscripción a Google NotebookLM Plus además de lo que obtienes gratis.

Google

NotebookLM comenzó como un experimento interno de Google llamado Proyecto Tailwind, pero rápidamente se convirtió en una de las aplicaciones más lógicas del modelo Gemini AI de Google gracias a su base en las fuentes que usted carga, en lugar de la web y cualquier material en el que Gemini se haya entrenado originalmente. Es capaz de trabajar con cualquier cosa, desde artículos web hasta pero Audio Overviews ha demostrado ser una de sus funciones más populares.

[ad_2]

Source Article Link

Categories
Life Style

El año de la búsqueda de Google 2024: mírelo todo en un práctico vídeo

[ad_1]

Es como si de lo único que se hablara este año fuera de las elecciones estadounidenses y del calor extremo. Y según Revisión de Google 2024eso era todo lo que todos buscaban también.

La revisión anual de Google de términos populares para 2024 revela que las principales búsquedas globales se basaron principalmente en eventos deportivos como la Copa América, el Campeonato Europeo de Fútbol y la Copa Mundial de la FIFA. Juegos Olímpicos. Aparte de eso, la gente buscaba a Liam Payne, el ex cantante de One Direction que murió en octubre, así como al presidente electo de Estados Unidos. Donald Trump.

Como era de esperar, muchas búsquedas este año estuvieron relacionadas con las elecciones presidenciales de EE. UU., y la gente también buscó al presidente actual. joe biden Vicepresidente y candidato presidencial demócrata Kamala Harris.

Algunos de los términos que se destacan este año incluyen “calor extremo”, que obviamente está relacionado con el calor extremo. Altas temperaturas En muchos lugares del mundo este verano, el “iPhone 16” muestra un interés continuo en él. Teléfono insignia de AppleY Iman Khalif, el boxeador argelino falsamente acusado Por ser biológicamente masculino durante los Juegos Olímpicos de Verano de 2024.

Velocidad de la luz triturable

Google reveló hace unos días su año de búsqueda como 2024, y lo tenemos Resumen detallado aquí.

Ahora, sin embargo, Google también ha compartido un video útil, con una descripción emocional de algunas de las personas y eventos que ocuparon un lugar destacado en las tendencias este año. Compruébalo a continuación.



[ad_2]

Source Article Link

Categories
News

Google anuncia el sistema operativo Android XR para cascos de realidad mixta y gafas inteligentes

[ad_1]

Google El jueves se anunció Androide Como un nuevo sistema operativo diseñado para dispositivos de Realidad Extendida (XR), junto con soporte para su asistente Gemini AI. Se espera que llegue con los próximos auriculares de realidad mixta además de las gafas inteligentes, y Google dice que brindará soporte para funciones que se basan en inteligencia artificial (IA), realidad aumentada (AR) y realidad virtual (VR). Apple lanzó VisionOS como su propio sistema operativo personalizado diseñado para Apple Vision Pro en 2023, que ofrece soporte para ejecutar aplicaciones diseñadas para auriculares y aplicaciones para iPad.

Se lanzó la vista previa para desarrolladores de Android XR para fomentar el soporte de los desarrolladores

Compañía el dice La primera vista previa para desarrolladores de Android Ya incluye soporte para herramientas utilizadas por desarrolladores que trabajan en aplicaciones de Android, como Android Studio, Jetpack Compose, ARCore, OpenXR y Unity.

El nuevo sistema operativo Android XR permitirá a los usuarios acceder al sistema operativo de Google Inteligencia artificial Géminis Assistant, que ofrecerá funciones diseñadas para experiencias XR. Esto significa que los usuarios podrán hablar con el Asistente y hacerle preguntas sobre objetos y ubicaciones dentro de su campo de visión, o incluso utilizar círculo de investigación Característica disponible en la selección Androide Teléfonos, para realizar búsqueda visual con un gesto.

Además de estas funciones de IA, Google dice que sus aplicaciones internas como… YouTube, imágenes de googley Google TV Serán rediseñados para funcionar en una pantalla virtual, lo que suena similar a cómo Apple agregó soporte para ver contenido en una pantalla inmersiva más grande que se puede ver mientras se usan los auriculares Apple Vision Pro.

android xr google tv android xr

Google TV en Android XR
Crédito de la imagen: Google

Mientras tanto, mapas de google Ofrecerá soporte para la función de vista panorámica renovada, mientras que los usuarios también podrán navegar por la web usando Google Chrome En una pantalla virtual mucho más grande, usando gestos para navegar.

Google también anunció que el primer dispositivo que funcionará con Android XR tendrá un nombre en código Proyecto Mohán. Samsung Estos auriculares XR se lanzarán en 2025. Se espera que compitan Apple Visión Proque se lanzó a principios de este año, en mercados selectos, a $ 3499 (aproximadamente Rs. 2,96 lakh).

Google comienza a probar Android XR en gafas inteligentes

Se dice que las gafas inteligentes (o gafas AR) son el futuro de la tecnología XR y pueden proporcionar la mayoría de las funciones disponibles hoy en día sin componentes voluminosos. Google dice que ya se está preparando para estas tecnologías con Android XR y pronto comenzará a probar en el mundo real prototipos de gafas que ejecutan el nuevo sistema operativo.

android xr google mapas android xr

Google Maps en el prototipo de Android XR
Crédito de la imagen: Google

Vistas previas de Android Estas clases también pueden traducir textos automáticamente e impartir lecciones virtuales utilizando tecnología de realidad aumentada, según la empresa.

[ad_2]

Source Article Link

Categories
News

Los rivales critican los cambios en los resultados de búsqueda de Google y exigen obligaciones antimonopolio de la UE

[ad_1]

Más de 20 sitios web de comparación de precios en toda Europa criticaron el miércoles los cambios propuestos por Google en sus resultados de búsqueda, diciendo que aún no cumplían con las normas tecnológicas de la UE e instando a los reguladores a imponer tarifas a la unidad Alphabet.

Google Llevamos más de un año discutiendo con sitios de comparación, hoteles, aerolíneas, restaurantes y minoristas cómo cumplir con la Ley de Mercados Digitales (Acceso Directo Directo (DMA).), lo que le impide favorecer sus productos y servicios en su plataforma.

El mes pasado, anunció su última oferta, que incluye módulos ampliados y con formato uniforme para permitir a los usuarios elegir entre sitios de comparación y sitios de proveedores.

También podría recuperar el antiguo formato “Blue Ten Links” de hace años como alternativa si no puede llegar a un acuerdo con sus competidores. Este formato se está probando actualmente en Alemania, Bélgica y Estonia.

Los sitios de comparación de precios, que incluyen Idealo y billiger.de en Alemania, Le Guide en Francia, PriceRunner, Kelkoo, kieskeurig.nl y trovaprezzi.it, dijeron que Google no había escuchado sus comentarios.

“Google simplemente ignoró estos comentarios una y otra vez y, en cambio, continuó repitiendo la misma solución incompatible durante meses”, dijeron en una carta abierta.

“Si Google no tiene en cuenta los comentarios después de más de 100 eventos, sólo puede significar una cosa: Google no está cumpliendo intencionalmente con la DMA”.

Cuando se le pidió un comentario, Google señaló su publicación de blog del 26 de noviembre en la que señalaba varios cambios que había realizado durante el año pasado para cumplir con la DMA y encontrar una solución.

Los sitios pidieron a la Comisión Europea que tomara medidas contra Google.

“La Comisión ha abierto un procedimiento contra Google por incumplimiento. Debe proceder con dicho procedimiento, emitir conclusiones preliminares e imponer multas a Google, incluido el pago de multas periódicas, para obligar a Google a finalmente escuchar y cumplir”, dijeron.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
News

Google está lanzando una función de agente de investigación profunda en Gemini y puede producir informes sobre temas complejos

[ad_1]

Google Se agregó una nueva función de proxy a Gemini el miércoles. Esta característica, llamada Investigación profunda, se introdujo junto con la nueva familia de modelos de IA Gemini 2.0. Puede crear planes de investigación de varios pasos, realizar búsquedas en la web y preparar informes detallados sobre temas complejos. El gigante tecnológico con sede en Mountain View dice que esta función podría ser útil para investigadores y estudiantes que tienen que escribir artículos de investigación. La nueva función de inteligencia artificial (IA) está disponible para los suscriptores de Gemini Advanced en la versión web del chatbot.

Gemini obtiene una nueva función de búsqueda profunda

La inferencia avanzada se ha convertido en un tema de interés para las empresas de IA que intentan aumentar la inteligencia y el poder de procesamiento de sus modelos de IA. Si bien ampliar el poder analítico de los modelos de lenguajes grandes (LLM) requerirá reimaginar la arquitectura de red y los algoritmos de aprendizaje, los investigadores han desarrollado algunos atajos para que esto suceda hasta cierto punto.

Uno de los métodos comunes que utiliza. AbiertoAI Modelos o1 y modelos lanzados recientemente por Alibaba Aumenta el tiempo de computación, lo que permite que la IA dedique más tiempo a la misma pregunta. Esto permite a la IA verificar sus respuestas, considerar otras alternativas y, en última instancia, generar respuestas más detalladas. Otra forma de hacerlo es a través de agentes de IA, que es lo que hizo Google con el modelo de IA Gemini.

búsqueda profunda característica Es esencialmente una función de proxy. Una vez que un usuario agrega una consulta sobre un tema complejo, el agente de IA comienza a crear un plan de búsqueda de varios pasos. Un plan típico incluye pasos como dividir el tema en partes más pequeñas, encontrar trabajos de investigación y artículos relevantes sobre el tema y considerar tendencias e impactos futuros y campos relacionados.

Tiro de investigación profunda Géminis Investigación profunda

Función de proxy de búsqueda profunda en Gemini
Crédito de la imagen: Google

Una vez que el plan de investigación esté listo, los usuarios pueden intervenir y agregar, eliminar o cambiar pasos para abordar mejor el tema. Después de eso, la inteligencia artificial comienza a implementar el plan y comienza a buscar toda la información. La función de proxy también puede realizar muchas búsquedas web nuevas basadas en lo que ha aprendido para comprender temas adicionales.

Después de eso, analiza los datos recopilados, crea un informe detallado y muestra el resultado al usuario. Estas respuestas generalmente serán más profundas y detalladas que una respuesta típica. mellizo. Google dice que esto es ideal para investigadores de mercado, académicos, estudiantes de investigación e incluso empresarios.

Actualmente, Deep Research in Gemini Advanced está disponible en la versión web del chatbot en inglés. Google ha destacado que la función estará disponible en la aplicación móvil a principios de 2025. Deep Research se puede encontrar en el menú desplegable del selector de modelo y aparece como “Gemini 1.5 Pro con Deep Research”.

[ad_2]

Source Article Link