Categories
News

Gemini Chatbot para Android está configurado para obtener una función de edición de fotografías impulsada por IA

[ad_1]

mellizo Según se informa, Android AI obtendrá una nueva función que permitirá a los usuarios editar imágenes creadas por el chatbot. Un informe encontró evidencia de la función dentro de la aplicación beta de Google para Android. Curiosamente, se dice que la función permite a los usuarios editar imágenes utilizando mensajes de texto y resaltando una parte específica de la imagen. Si bien la función se encontró en la aplicación beta de Google, no se ha revelado y es posible que los probadores beta no puedan utilizarla.

Se dice que Gemini tendrá la posibilidad de editar fotos.

Editar imágenes generadas por un chatbot con inteligencia artificial (IA) es una propuesta difícil hoy en día. En la mayoría de los casos, los usuarios tienen la opción de recrear la imagen con indicaciones mejoradas. Sin embargo, no hay garantía de que las imágenes recién creadas sean las mismas que las imágenes generadas anteriormente por el chatbot. la semana pasada, Anunciar Capacidades de edición de imágenes de su chatbot.

Editar fotos en Gemini en Android Editar fotos en Gemini

Función de edición de imágenes en Gemini
Crédito de la imagen: Autoridad de Android

Ahora, según un informe Según un informe de Android Authority, Google puede agregar una función similar a su chatbot. Las publicaciones han encontrado evidencia de la función dentro de la aplicación beta de Google para Androide Versión 15.29.34.29. Según se informa, los usuarios de Gemini AI en Android tendrán dos formas de editar la imagen generada.

Se dice que el primer método utiliza indicaciones de texto. Una vez creada una imagen, los usuarios pueden escribir mensajes para cambiar elementos específicos de la imagen. La publicación afirma que la IA ahora puede diferenciar entre cuándo los usuarios quieren una imagen completamente nueva y cuándo solo quieren que la imagen generada sea ligeramente diferente.

Se dice que el segundo método permite a los usuarios resaltar parte de una imagen delineándola en un círculo. Según la publicación, esto también se puede hacer usando un lápiz óptico en los teléfonos inteligentes que admiten este método. Una vez que seleccionan un segmento en un círculo, los usuarios pueden escribir un mensaje sobre lo que quieren cambiar en él y, según se informa, Gemini AI hará precisamente eso.

Vale la pena señalar que la función no está visible actualmente y se encontró al desmontar la aplicación. El informe especula Google Es posible que WhatsApp deba realizar algunos cambios en el lado del servidor antes de poder activarse. Sin embargo, el gigante tecnológico no ha hecho ningún anuncio sobre la función de edición de fotografías.

[ad_2]

Source Article Link

Categories
News

El asistente Gemini AI ahora puede responder preguntas y realizar tareas incluso cuando su dispositivo Android está bloqueado

[ad_1]

mellizo El asistente de IA en Android recibió una nueva actualización y los usuarios ahora podrán acceder a él y obligarlo a realizar ciertas tareas incluso cuando el dispositivo esté bloqueado. Mientras que el asistente virtual impulsado por IA pudo responder en la pantalla de bloqueo antes y completar cualquier tarea requerida llamando al Asistente de Google. Con esta actualización, los usuarios no sólo pueden realizar tareas como configurar, detener y posponer alarmas, sino que también pueden hacer preguntas generales y encontrar respuestas sin desbloquear el dispositivo.

Gemini AI Assistant ahora puede funcionar en la pantalla de bloqueo

La nueva actualización de funciones se anunció en Pagina de soporte Para Gemini, la actualización decía que “Puedes obtener ayuda de Gemini tocando o diciendo 'Hola Google' (si está habilitado) cuando tu dispositivo está bloqueado, dependiendo de la configuración de la pantalla de bloqueo”.

Curiosamente es “hola”. Google“Esta función funciona incluso si la pantalla está apagada. Esta función activa automáticamente la pantalla y muestra la interfaz inferior de Gemini AI donde el usuario puede continuar emitiendo comandos verbales al asistente virtual o escribir la consulta. ventana de pantalla para mostrar la respuesta, tal como lo haría cuando el dispositivo está desbloqueado. Una vez que se cierra la ventana de Gemini, aparece la pantalla de bloqueo.

Además de hacer preguntas generales a la IA, los usuarios también pueden usarla para configurar, detener y posponer alarmas, configurar y detener temporizadores, pausar y reproducir canciones, así como encender la linterna o controlar el volumen. Si bien estas tareas todavía se realizan utilizando Asistente de GoogleLa interfaz ahora es más fluida y el usuario ya no necesita esperar a que se ejecute el comando.

Sin embargo, para que la IA de Gemini responda preguntas generales en la pantalla de bloqueo, el usuario debe permitir que Gemini opere en la pantalla de bloqueo. Para hacer esto, los usuarios pueden abrir Gemini > tocar su foto de perfil > tocar Géminis en la pantalla de bloqueo > Activado Respuestas en la pantalla de bloqueo.

Del mismo modo, para permitir que Gemini realice tareas en la pantalla de bloqueo, los usuarios deberán permitir que el asistente de inteligencia artificial utilice las capacidades del Asistente de Google. Para hacer esto, abra Gemini en su dispositivo Android. Haz clic en tu foto de perfil o tus iniciales. Abierto Ajustes. toque en Funciones del Asistente de Google > Asistente de Google en la pantalla de bloqueo > Reproducir respuestas en la pantalla de bloqueo.

[ad_2]

Source Article Link

Categories
Business Industry

Gemini ahora puede hacer más en la pantalla de bloqueo de tu teléfono Galaxy

[ad_1]

Última actualización: 17 de julio de 2024 a las 16:02 UTC+02:00

Incluso ahora, cuando me llaman mellizo En su teléfono inteligente o tableta Galaxy, cuando está bloqueado, el asistente digital solo puede realizar ciertos comandos básicos, incluidos comandos para controlar alarmas y temporizadores y reproducir y pausar música.Resumen con un clic con Galaxy AI

Si le pides a Gemini que haga algo más, te pedirá que desbloquees tu dispositivo. Por ejemplo, si le preguntas a tu asistente digital sobre el clima o intentas tener una conversación general con él, el chatbot te pedirá que desbloquees tu teléfono. Bueno, ese ya no es el caso.

La aplicación de Google para Android tiene la opción 'Gemini en la pantalla de bloqueo'

Google Empecé a introducir una nueva opción llamada “Géminis en la pantalla de bloqueo“En Configuración de Gemini en la aplicación de Google, una vez que ingrese y habilite la función, Gemini podrá responder preguntas generales incluso cuando su teléfono inteligente o tableta Samsung esté bloqueado.

Gracias a esta función, cuando tu teléfono inteligente o tableta Galaxy esté bloqueado y llames a Gemini y le preguntes cualquier cosa, el asistente digital desbloqueará toda la pantalla y te dará una respuesta a tu pregunta. Si toca cualquier lugar de la pantalla, como un cuadro de entrada de texto, un ícono de micrófono o un ícono de cámara, Gemini le pedirá que desbloquee el dispositivo.

La historia continúa después del vídeo…

Notamos la nueva función en la versión 15.27.37.28.arm64 de la aplicación Google. Galaxia S23Sin embargo, no pudimos encontrar 'Géminis en la pantalla de bloqueo“Opción en la misma versión de la aplicación en nuestro sitio web” Galaxia S24Entonces, parece que Google está implementando esta función en fases. Gracias a esta nueva característica, Gemini está un paso más cerca de reemplazar al Asistente.

[ad_2]

Source Article Link

Categories
News

Google ha comenzado a probar Google Vids, la herramienta de presentación y vídeo impulsada por IA de Gemini

[ad_1]

Google Los vídeos estuvieron disponibles en la versión beta de Espacio de trabajo de Google La compañía anunció por primera vez su última herramienta de creación de presentaciones y videos de IA en abril durante su evento anual Google Cloud Next. Se ha promocionado que Vids es diferente a los generadores de vídeo estándar impulsados ​​por IA y puede crear guiones gráficos que se pueden editar utilizando diferentes formatos de entrada. Actualmente, la plataforma solo está disponible para quienes se hayan registrado en Workspace Labs. El gigante tecnológico no ha revelado su fecha de lanzamiento global.

Google Vids llega a Workspace Labs

Así lo anunció Karan S, Community Manager de Google Docs en correo quien dijo: “¡Estamos entusiasmados de traer Google Vids a Workspace Labs! Vids es una aplicación de creación de videos con tecnología de inteligencia artificial, diseñada para empresas y profundamente integrada con la suite Workspace que usa todos los días”. La plataforma es accesible. aquí.

Gracias a la IA de Gemini, Google Vids puede crear presentaciones de vídeo profesionales, pero requiere la intervención del usuario en varios pasos para crear el contenido deseado. Para comenzar, los usuarios pueden simplemente enviar un mensaje de texto explicando lo que están buscando. Por ejemplo, un mensaje que dice “presentación de lanzamiento de producto” le pedirá a Gemini que cree un guión gráfico con un resumen en video. También creará títulos para cada sección del video.

Si esto no parece confiable, los usuarios también pueden elegir entre las muchas plantillas disponibles en la plataforma e ir directamente a la etapa del guión gráfico. Uno de los aspectos únicos de Google Vids es que también acepta Google Docs, presentaciones, videos, grabaciones de audio y más. Agregar estos elementos le da a la IA más contexto para la transmisión de video final.

En el guión gráfico, el usuario puede realizar modificaciones como cambiar títulos, cambiar el orden de las secciones, agregar o eliminar cuadros y más. A continuación, el usuario debe elegir un estilo, en función del cual Gemini diseñará el vídeo completo con vídeos de archivo, imágenes, texto, música de fondo e incluso texto generado. Sin embargo, el usuario aún tendrá la opción de realizar otras ediciones, como agregar una voz en off o cambiar cualquier elemento del video.

Para obtener lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de GooglePara ver los últimos vídeos sobre herramientas y técnicas, suscríbete a nuestro canal. Canal de YoutubeSi quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es 360? en Instagram Y YouTube.


Samsung Galaxy M35 5G con cámara trasera de 50MP y batería de 6000mAh lanzado en India: precio y ofertas



Canon EOS R1 con sensor CMOS de 24,2 MP lanzada en India junto con EOS R5 Mark II: precio y características



[ad_2]

Source Article Link

Categories
News

Según se informa, Google Pixel 9 Pro puede ofrecer una suscripción gratuita de un año a Gemini Advanced en el lanzamiento

[ad_1]

Google Píxel 9 Pro Según se informa, puede lanzarse con una suscripción gratuita de un año a Gemini Advanced. Se espera que la serie Pixel 9, que consta del modelo base, Pixel 9 Pro, Pixel 9 Pro XL y Pixel 9 Pro Fold, llegue el 13 de agosto, cuando el gigante tecnológico organice su evento anual Made by Google. Si bien no se sabe mucho sobre el hardware, un nuevo informe afirma que los modelos Pro pueden ofrecer los beneficios de una suscripción Gemini Advanced, incluidos 2 TB de almacenamiento en la nube.

Pixel 9 Pro obtendrá una suscripción gratuita a Gemini Advanced

de acuerdo a un informe Los detalles de esta oferta fueron monitoreados por 9to5Google dentro de la última versión beta de la aplicación de Google (versión 15.28). Una cadena de código en la aplicación contenía el siguiente mensaje: “Tu Pixel Pro te brinda acceso a una suscripción de un año a Gemini Advanced, nuestro modelo de IA más eficiente con acceso prioritario a nuevas funciones, sin costo para ti”.

El texto no se hace visible, por lo que es posible que los usuarios de la versión beta no puedan verlo. La publicación pudo acceder a ella descompilando el paquete de aplicaciones de Android (APK).

Es probable que el gigante tecnológico haya incluido esta pantalla en el próximo teléfono inteligente Pixel 9 Pro y solo se lanza cuando… Google Se accede a la aplicación utilizando el teléfono designado. El informe también afirma que 'Pro' podría referirse a los tres modelos, incluidos Pixel 9 Pro, Pixel 9 Pro XL y Pixel 9 Pro Fold, que se espera que debuten en el evento de la compañía.

Registrado en Gemini Avanzado fue lanzado Por Google en febrero, junto con la introducción de… mellizo Modelo de IA profesional. Desde entonces, ha sido reemplazado por el modelo Gemini 1.5 Pro AI con una ventana contextual que contiene 1 millón de íconos. Es parte del plan Google One AI Premium. Los suscriptores podrán utilizar las funciones de Gemini en aplicaciones de Google como Gmail, Docs, Sheets y más.

La empresa también brindará a los suscriptores la oportunidad de utilizar funciones nuevas y experimentales antes que otros. Además de esto, los usuarios también obtendrán 2 TB de almacenamiento en la nube y todos los demás beneficios de Google One. Actualmente, la suscripción Gemini Advanced está disponible en India por 1.950 rupias al mes.

[ad_2]

Source Article Link

Categories
Life Style

¿Google Gemini ha resumido el documento privado de alguien?

[ad_1]

Google Géminis Es un servicio multimedia de inteligencia artificial integrado en Google Los productos, como Gmail, Docs y Sheets, hacen de todo, desde resumir información hasta crear materiales de presentación y crear imágenes sobre la marcha.

En teoría, debes dar permiso a Gemini y Google para que puedan leer el contenido de tu Google Workspace. De acuerdo con la política de privacidad de datos de Google“Su contenido de Google Workspace (correos electrónicos, documentos, etc.) no se compartirá con otros usuarios sin permiso. Este compromiso cubre todos nuestros productos de Google Workspace para uso personal y comercial, incluidos Gmail, Google Docs, Sheets, Slides, Drive. Calendario, reuniones y chat “.

Pero la semana pasada, un usuario… X Google Gemini dijo que ha resumido algunos de sus propios documentos.

“Acabo de consultar mis declaraciones de impuestos en Google Docs y, sin preguntar, Gemini las resumió. Entonces… ¿Gemini consume automáticamente incluso los documentos privados que abro en Google Docs? Dios mío, muchachos. No pregunté por eso “Y ahora tengo que encontrar nuevas configuraciones. Nunca me han dicho que apague esta basura”.


Ofertas de Prime Day que puedes comprar ahora

Nuestro equipo de marketing selecciona los productos disponibles para comprar aquí a través de enlaces de afiliados. Si compra algo a través de los enlaces de nuestro sitio, Mashable puede ganar una comisión de afiliado.


Velocidad de la luz medible

El usuario Kevin Bankster dijo que probablemente esto fue solo un problema técnico que encontró. Debe habilitar Gemini de forma proactiva en Google Workspace y, una vez que lo haga, Google tendrá acceso a esta información, dijo un portavoz de Google a Mashable por correo electrónico.

“Nuestras funciones de IA generativa están diseñadas para brindar a los usuarios opciones y mantenerlos en control de sus datos”, dijo un portavoz de la compañía. “El uso de Gemini en Google Workspace requiere que el usuario lo habilite de manera proactiva y, cuando lo haga, su contenido se utilizará”. una forma de preservar la privacidad para generar respuestas útiles a sus afirmaciones, pero no se almacena sin permiso”.

No está del todo claro qué está pasando aquí. Hardware de Tom Algunos afirman que puede haber dos razones detrás de este hallazgo: la IA puede ser “alucinante (falso)”, los sistemas internos de Google pueden estar funcionando mal o puede haber una tercera razón, más esquiva.

“Para Bankston, el problema parece estar limitado a Google Drive y solo ocurre después de presionar el botón Gemini en al menos un documento. El tipo de documento coincidente (en este caso, PDF) iniciará automáticamente Google Gemini para todos los archivos futuros. del mismo tipo que se abre en Google Drive. Además, se supone que el problema puede deberse a que se habilitó para Google Workspace Labs en 2023, lo que puede anular la configuración prevista de Gemini AI”, sugiere Tom's Hardware.

Cualquiera que sea el motivo de este deslizamiento, no es una buena señal para la IA en general, donde ya existe. Algunos problemas de privacidad Se relaciona con cómo los sistemas generativos recopilan, almacenan y utilizan los datos.



[ad_2]

Source Article Link

Categories
News

Google DeepMind integra Gemini 1.5 Pro en robots capaces de navegar en entornos del mundo real

[ad_1]

Google Mente profunda Nvidia compartió el jueves los últimos avances en robótica y modelos de lenguaje de visión (VLM). El departamento de investigación de IA del gigante tecnológico está trabajando con modelos de visión avanzados para desarrollar nuevas capacidades en robótica. En un nuevo estudio, DeepMind destaca que el uso de Gemini 1.5 Pro y su larga ventana de contexto ahora ha permitido al departamento lograr avances en la navegación en el mundo real y la comprensión de sus robots. A principios de este año, NVIDIA también anunció el lanzamiento de Gemini 1.5 Pro. ha sido detectado Nueva tecnología de inteligencia artificial que mejora las capacidades avanzadas de robots con apariencia humana.

Google DeepMind utiliza Gemini AI para mejorar los robots

en correo En X (anteriormente conocido como Twitter), Google DeepMind reveló que estaba entrenando a sus bots usando mellizo 1.5 Ventana contextual con 2 millones de tokens. Las ventanas de contexto pueden entenderse como la ventana de conocimiento visual de un modelo de IA, que utiliza para procesar información indirecta sobre el tema a consultar.

Por ejemplo, si un usuario le pregunta a un modelo de IA “sabores de helado más populares”, el modelo de IA comprobará la palabra clave “helado” y “sabores” para encontrar información sobre esa pregunta. Si esta ventana de información es demasiado pequeña, la IA sólo podrá responder con los nombres de diferentes sabores de helado. Sin embargo, si fuera más grande, la IA también podría ver la cantidad de artículos sobre cada sabor de helado para encontrar los más mencionados e inferir el “factor de popularidad”.

DeepMind aprovecha esta larga ventana contextual para entrenar a sus robots en entornos del mundo real. La sección tiene como objetivo descubrir si el robot es capaz de recordar detalles del entorno y ayudar a los usuarios cuando se les pregunta sobre el entorno utilizando términos contextuales o ambiguos. En un vídeo compartido en InstagramEl departamento de IA demostró que el robot era capaz de dirigir a un usuario a una pizarra cuando le preguntaba dónde podía dibujar.

“Con el contexto de 1 millón de caracteres en 1.5 Pro, nuestros robots pueden usar instrucciones humanas, recorridos en video y sentido común para encontrar con éxito su camino a algún lugar”, dijo Google DeepMind en una publicación de blog.

en Estancia Un artículo publicado en arXiv (una revista en línea no revisada por pares) en el que DeepMind explica la tecnología detrás de este truco. Además de Géminis, ella también es Usar Su Transformador Automático Modelo 2 (RT-2). Es un modelo de visión, lenguaje y acción (VLA) que aprende de datos web y bots. Utiliza visión por computadora para procesar entornos del mundo real y utilizar esta información para crear conjuntos de datos. Este conjunto de datos puede ser procesado posteriormente por IA generativa para analizar comandos contextuales y producir los resultados deseados.

Hoy en día, Google DeepMind utiliza esta arquitectura para entrenar robots en una categoría amplia conocida como navegación instructiva multimodal (MIN), que incluye exploración del entorno y navegación guiada por instrucciones. Si la demostración de la empresa es legítima, la tecnología podría ayudar a que la robótica avance aún más.

[ad_2]

Source Article Link

Categories
News

Según se informa, la extensión Gemini Clock Tool en Android permitirá que el chatbot de IA configure alarmas y temporizadores

[ad_1]

mellizo Es posible que los robots Android pronto puedan realizar más tareas, según un informe. El chatbot de inteligencia artificial (IA) agregado a los teléfonos inteligentes Android puede realizar muchas tareas, como responder consultas, buscar consultas en Internet, escribir artículos y mensajes. Sin embargo, el chatbot cambia la funcionalidad al Asistente de Google cuando se trata de tareas integradas como consultar recordatorios, configurar una alarma o enviar un mensaje. Puede que este no sea el caso por mucho tiempo, ya que el informe afirma que Gemini pronto podrá configurar alarmas y temporizadores de forma independiente.

de acuerdo a un informe Según un informe de Android Authority, la aplicación Gemini en Android puede obtener una nueva extensión de herramienta de reloj que le permitirá configurar alarmas y temporizadores cuando el usuario lo solicite. La publicación detectó la nueva característica durante el proceso de desmontaje de la aplicación. La característica se vio en la última versión beta de Google Aplicación (versión 15.27.33).

Herramienta de reloj Gemini para Android Herramienta de reloj Gemini para Android

Accesorio widget de reloj Géminis
Crédito de la imagen: Autoridad de Android

En una captura de pantalla compartida por la publicación, la extensión Clock Tool se puede ver en la lista de extensiones de Gemini. Se puede invocar nombrándolo verbalmente o escribiendo “@Clock Tool”, seguido de la solicitud. En la captura de pantalla, esta acción hace que el chatbot de IA muestre un mensaje que dice: “Gemini se hace cargo del Asistente de Google”. para manejar algunas acciones a través de accesorios “. Luego, la herramienta Reloj realiza la tarea.

La nueva extensión se unirá a las extensiones Gemini existentes en Androide Como Google Flights, Google Hotels, Google Maps, Workspace, YouTube y YouTube Music. Además, el informe también encontró una nueva configuración que permitirá a los usuarios acceder al chatbot de IA mientras el dispositivo está bloqueado. Esta característica existía antes. Ha sido reportadopero ahora también ha aparecido una captura de pantalla de la configuración.

Configurar la pantalla de bloqueo de Gemini AI para Android

Configurar la pantalla de bloqueo de Gemini AI
Crédito de la imagen: Autoridad de Android

Con la capacidad de bloquear la pantalla, los usuarios podrán usar Gemini mientras viajan y tener una conversación o hacer una pregunta rápida. También se puede acceder a todas las funciones de la extensión en la pantalla de bloqueo. El informe afirma que es posible que Gemini no pueda realizar tareas que requieran agregar credenciales o acceder a datos privados. No hay información sobre cuándo estará disponible la función para el público.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
News

Se ha detectado en desarrollo una función de Gemini Live que puede funcionar en teléfonos Android bloqueados.

[ad_1]

Google mellizoSegún se informa, es posible que el chatbot inteligente de la empresa se actualice con una nueva función. Si los detalles filtrados sobre la nueva función son precisos, los usuarios con teléfonos inteligentes Android pronto podrán acceder al asistente inteligente impulsado por IA de Gemini mientras mantienen abiertas otras aplicaciones. Curiosamente, la función funcionará incluso cuando la pantalla del teléfono inteligente esté apagada. La función, denominada Gemini Live, se demostró por primera vez en Google I/O 2024, como parte del Proyecto Astra de la compañía, y se espera que llegue a finales de este año.

Google desarrolla una nueva función para “Gemini Live”

9to5Google observador Cadenas de código que hacen referencia a la función mientras se descompila la última versión beta de Google Aplicación (versión 15.27) para smartphones Android. El texto se refiere al “modo en segundo plano” y describe la funcionalidad como la capacidad de “continuar conversaciones en vivo mientras usa otras aplicaciones o mientras la pantalla está bloqueada”.

La revista cree que la serie se refiere a Gemini Live, una característica que se mencionó por primera vez en Google I/O 2024. En el evento, Google anunció Descrito Es una función de conversación bidireccional donde los usuarios pueden tener un diálogo manos libres con inteligencia artificial.

Esta función, que está siendo desarrollada por Google DeepMind bajo el nombre del Proyecto Astra, parece ser similar a la función de voz en tiempo real de GPT-4o. Abierto AI Se ha confirmado que la función Hablar se retrasará y se espera que la función de Google llegue a finales de este año. Esta función solo estará disponible para los suscriptores de Gemini Advanced.

Durante la demostración, se demostró que la interfaz de la función se parecía a una pantalla de marcado, con un botón de pausa y un botón de finalizar en la parte inferior. Los usuarios obtendrán 10 voces diferentes para que Gemini elija. Los usuarios también pueden interrumpir la IA en mitad de una conversación y esta se adaptará en función de lo que se diga a continuación.

Para utilizar la función Gemini Live mientras la pantalla está bloqueada, los usuarios deberán habilitar la configuración primero. Durante una llamada, los usuarios pueden decir “Detener” para finalizar la conversación. Por separado, también se muestra una notificación persistente, que también se puede utilizar para finalizar la llamada, según la publicación.

Esta función se está desarrollando actualmente para teléfonos inteligentes con Android. No se sabe si la función estará disponible en computadoras de escritorio o dispositivos móviles. IOS Aplicación en el futuro.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Featured

La ubicación del fondo de pantalla y los extras de la aplicación de Gemini Live pueden ser más astutos que Apple

[ad_1]

durante Conferencia de desarrolladores de Google 2024el gigante tecnológico ha adelantado Géminis en vivo, una versión única de IA móvil capaz de tener “conversaciones naturales”. Puedes considerarlo como Siri, donde podrás entablar un diálogo bidireccional con mellizo Haga que la IA responda de manera concisa.

Desde el anuncio inicial, no hemos oído mucho sobre la tecnología hasta hace poco, cuando se encontraron cadenas de código que apuntaban a Gemini Live en Google Versión de prueba de la aplicación. El código menciona un “modo en segundo plano” que permite a los usuarios continuar conversaciones “mientras usan otras aplicaciones o mientras… [their] “La pantalla está bloqueada”. como 9To5Google Esto sugiere que esto realmente convierte la experiencia Gemini Live en una especie de llamada telefónica.

[ad_2]

Source Article Link