Categories
News

El diseño de Google Pixel 9a ha sido visto en imágenes en vivo filtradas con el módulo de cámara trasera de forma ovalada

[ad_1]

Google Píxel 9a Se espera que se lance el próximo año como sucesor de Píxel 8a El modelo y las especificaciones del teléfono se filtraron previamente en línea. Un usuario de X (anteriormente Twitter) ha filtrado dos imágenes en vivo del supuesto modelo Pixel 9a, lo que nos da una buena visión del diseño del teléfono inteligente. Podría tener un módulo de cámaras traseras con forma ovalada, sin el 'protector' metálico que se ve en pantalla Píxel 9 Y los modelos Pixel 9 Pro lanzados por el gigante de las búsquedas en agosto.

Diseño de Google Pixel 9a (filtrado)

Primera foto publicar Por el usuario de X fenibook (@feni_book) mostrando el panel trasero del supuesto modelo Pixel 9a. En lugar del logo 'G', el teléfono aparece en la imagen filtrada con un logo completamente diferente. Esto no es inusual en los teléfonos inteligentes de Google, ya que las imágenes de prototipos filtradas anteriormente también incluían diferentes logotipos que fueron reemplazados antes de que se produjeran los teléfonos.

Pixel 91 FineBook x Pixel 9a

Un informante filtró imágenes en vivo del supuesto Pixel 9a
Fuente de la imagen: X/ @feni_book

Mientras tanto, la imagen en vivo del modelo Pixel 9a respalda filtraciones anteriores que afirmaban que el teléfono inteligente contará con un módulo de cámara trasera sin un borde metálico prominente, como en Pixel 9 y Pixel 9. Píxel 9 Pro. En cambio, el Pixel 9a parece presentar una configuración de cámara trasera dual horizontal alineada a la izquierda, con un flash LED a la derecha.

Según la segunda imagen compartida por el usuario, el frente del Pixel 9a será similar al de su predecesor, el Pixel 8a. La pantalla del prototipo filtrado parece tener un orificio alineado en el centro para albergar la cámara selfie. La imagen en vivo del Pixel 9a también sugiere que tendrá biseles gruesos, como el modelo Pixel 8a.

Informes anteriores indican que el Pixel 9a estará equipado con el chip Tensor G4 de Google, el mismo procesador utilizado en Pixel 9 y Pixel 9 Pro. También se dice que tendrá 8 GB de RAM y hasta 256 GB de almacenamiento. Se dice que el Pixel 9a tiene una cámara trasera dual de 48 megapíxeles.

Según se informa, el teléfono contará con una pantalla de 6,3 pulgadas, con una frecuencia de actualización de entre 60 Hz y 120 Hz. También se espera que tenga una batería más grande de 5.000 mAh en comparación con su predecesor, que tenía una pantalla de 6,1 pulgadas y una batería de 4.500 mAh. Es probable que surjan más detalles sobre el teléfono en los próximos meses, antes de su debut en 2025.

[ad_2]

Source Article Link

Categories
Featured

Norman y el nerd: un experto de Google arroja luz sobre cómo la búsqueda de energía nuclear limpia convirtió a una de las empresas tecnológicas más grandes del mundo en una con un extraño desvío a través de la fusión fría.

[ad_1]


  • El resurgimiento de la fusión fría despertó la curiosidad de Google, pero no proporcionó evidencia concluyente.
  • Los audaces proyectos nucleares de Google han destacado la innovación que va más allá de la tecnología tradicional
  • NERD de Google explora la energía nuclear con ideas audaces e innovadoras

Google Ha estado en el centro de muchos desarrollos innovadores, pero su incursión en el desarrollo de la energía nuclear (con la ayuda de giros inesperados hacia la fusión fría y el aprendizaje automático) es un capítulo menos conocido de su viaje de innovación.

Para lograr sus objetivos, Google se asoció con TAE para mejorar Norman, un dispositivo diseñado para realizar experimentos avanzados con plasma, y ​​NERD (Nuclear Energy R&D), el audaz programa de Google para explorar la energía nuclear limpia.

[ad_2]

Source Article Link

Categories
News

Google confirma que Pixel Fold, Pixel 6 y otros modelos seleccionados recibirán 5 años de actualizaciones del sistema operativo

[ad_1]

Google Anunció silenciosamente que está ampliando el soporte de software para Pixel Fold. Píxel 6 serie y seleccione otros modelos en la línea. Los teléfonos inteligentes antes mencionados ahora admitirán un total de cinco años de sistema operativo (SO) y actualizaciones de seguridad a partir de su primera disponibilidad en Google Store en los EE. UU., un aumento con respecto al límite anterior de tres años. Vale la pena señalar que los últimos teléfonos de Google, como Píxel 9 La serie recibirá siete años de actualizaciones de software del sistema operativo.

5 años de actualizaciones de Pixel

Google actualizó recientemente su sitio Página de soporte Para obtener actualizaciones de software en teléfonos Pixel. Ahora se dice que los dispositivos de la serie Pixel 6 son… píxel 7 Series y otros modelos selectos obtendrán 5 años de actualizaciones de seguridad y sistema operativo. Además, también pueden beneficiarse de las funciones nuevas y actualizadas que ofrece el gigante tecnológico con sede en Mountain View a través de Pixel Drops.

Los siguientes dispositivos recibirán soporte ampliado:

  1. Doblar el píxel
  2. Píxel 7a
  3. Píxel 7 Pro
  4. píxel 7
  5. Píxel 6 Pro
  6. Píxel 6
  7. Píxel 6a

Esto significa que Google Pixel 6, que debutó en 2021, recibirá la actualización de Android 17. Mientras tanto, la serie Pixel 7 podría recibir la actualización de Android 18 que se espera que se implemente en 2027. La compañía ya introdujo Android 15 en su. Los teléfonos inteligentes y su gama actual también están listos para obtener Androide 16 En el segundo trimestre de 2025. Se espera que se publique otra actualización menor en el cuarto trimestre de 2025, que puede incluir características y cambios menores de API.

Vale la pena señalar que Google ofreció cinco años de actualizaciones de software para sus teléfonos inteligentes, pero eso cambió con la serie Pixel 8, que vino con siete años de actualizaciones de sistema operativo y seguridad. La última serie Pixel 9 de Google también será compatible durante el mismo período de tiempo.

[ad_2]

Source Article Link

Categories
News

Google Chrome duplica los resultados del velocímetro estándar en dispositivos Android

[ad_1]

Google Chrome Es uno de los mejores navegadores disponibles para dispositivos Android, gracias a su estrecha integración con el sistema operativo móvil de Google. El gigante de las búsquedas anunció que Chrome ahora funcionará más rápido Androide Smartphones: recientemente duplicaron sus puntuaciones en una popular prueba de medición de velocidad. Google dice que la mejora significativa en el rendimiento de Chrome se debe a diseños de software mejorados, motores de visualización actualizados y su asociación con fabricantes de chips, como Qualcomm, para optimizar el navegador para que funcione en dispositivos de alta gama.

Las mejoras más importantes de Google Chrome que duplican el rendimiento en dispositivos Android

en un correo En el blog de Chromium, Google explica cómo pudo duplicar la puntuación de referencia de su navegador en el velocímetro. La compañía dice que comenzó a optimizar las versiones de Chrome para dispositivos premium a partir de la versión 113 que se envió en abril de 2023, en lugar de centrarse en una única versión diseñada para funcionar en teléfonos inteligentes económicos.

de acuerdo a GoogleEste “diseño discreto y de alto rendimiento dirigido a dispositivos Android premium” ayudó a la empresa a lograr más de la mitad de las mejoras de rendimiento observadas en las pruebas comparativas. Si un navegador obtiene una puntuación más alta en el punto de referencia, significa que podrá cargar sitios web más rápido y, al mismo tiempo, brindará una experiencia más fluida.

Google Chrome Snapdragon Google Chrome

Google Chrome en Snapdragon 8 Gen 3 (izquierda) versus Snapdragon 8 Elite
Crédito de la imagen: Google

La versión optimizada de Google Chrome solo se ejecuta en dispositivos ARM64 y está mejor optimizada para ejecutarse en dispositivos con más RAM y almacenamiento. Como resultado, incluye código C++ que puede ejecutarse más rápido en lugar de código diseñado para ocupar menos espacio en un teléfono inteligente.

La empresa dice que A. Documentos de Google Un documento cargado en Chrome versión 112 ejecutándose en una tableta Pixel en 2023 tardó “más del 50 por ciento más que en la actualidad”.

Para mejorar aún más el rendimiento de los dispositivos de alta gama, Google trabajó directamente con los fabricantes de dispositivos, incluidos… Qualcomm. Como resultado, también se mejoran la programación de subprocesos y el consumo de energía, y se equipa un dispositivo con puerto habilitado. Snapdragon 8 Élite El chip Chrome que ejecuta Chrome OS tuvo un aumento del 60 al 80 por ciento en las puntuaciones del Velocímetro 3.0 en comparación con un dispositivo equipado con el chip Snapdragon 8 Gen 3 con Chrome.

La optimización orientada a perfiles (PGO), el proceso de optimización del diseño y optimización del código de Chrome, se introdujo con la versión 120 de Chrome en diciembre de 2023, según la empresa. Mientras tanto, los motores de renderizado Google V8 JavaScript y Blink que impulsan Chrome también se han optimizado para ofrecer un rendimiento más rápido, según la compañía.

[ad_2]

Source Article Link

Categories
Life Style

Google Pixel recupera funciones populares de la cámara en la nueva actualización

[ad_1]

Buenas noticias para Google Usuarios de Pixel: están recuperando una característica antigua y querida.

La nueva actualización incluirá controles manuales para la pantalla de inicio en la versión 9.7 de la aplicación Pixel Camera, lo que facilitará el control del balance de blancos, el brillo y las sombras, como antes, según Verge. la guía de tom.

en La versión actual del Pixel 9 ProAún puedes controlar el balance de blancos, el brillo y las sombras, pero debes ir al menú de configuración de la cámara para hacerlo. Ahora, puede bloquear estas configuraciones para no tener que cambiarlas con tanta frecuencia.

Velocidad de la luz triturable

La actualización aún se está implementando, por lo que es posible que aún no puedas acceder a ella. Pese a ello, parece que los fans están preparados para el nuevo cambio. Casi todos los comentarios al respecto. Subreddit de Google Pixel Reddit Hay alguna versión de “gracias a Dios, el antiguo control manual es mucho más fácil de usar que el nuevo” y “ganadora tras victoria, este año ha sido un buen año para el Pixel”.

como El robot policía señalaEsta tampoco es la única característica nueva relacionada con las fotografías en la actualización. Las cámaras de Pixel 9 Pro Fold y Pixel Fold ahora tendrán un modo retrato de pantalla dual en Pixel 9 Pro Fold y Pixel Fold.



[ad_2]

Source Article Link

Categories
Entertainment

Google Fotos ahora tiene una función Resumir 2024

[ad_1]

Google Photos acaba de presentar el Resumen anual, que es una función experimental Cosas como Spotify Wrapped Y resumen de PlayStation. Se trata de una colección especial de imágenes icónicas seleccionadas de todo el año, junto con “gráficos divertidos y efectos cinematográficos”. No puedo esperar a ver las adorables fotos de mi gato.

Además de gráficos y efectos aleatorios, el sistema también generará subtítulos para ayudar a señalar dos eventos importantes del año para cada usuario. Estos subtítulos serán generados por Gemini, aunque los usuarios deben suscribirse. Google nos dio ejemplos de cómo asistir a una boda y hacer un viaje a Seúl.

Herramienta de resumen anual.Herramienta de resumen anual.

Google

La función Resumen también proporcionará “ideas” en forma de anécdotas sobre los hábitos de toma de fotografías de un usuario en particular. Esto puede incluir detalles de cualquier cosa, desde el color favorito hasta con quién sonríe más el usuario. Google también promete que Recap proporcionará detalles sobre los “sentimientos de 2024” del usuario. ¿La atmósfera de 2024? DE ACUERDO.

Al igual que las herramientas de resumen anual de la competencia, las personas pueden compartir todo fácilmente en las plataformas de redes sociales. También hay un elemento competitivo aquí, ya que cada enlace incluirá datos sobre la serie de fotografías más larga de un usuario determinado. Nada genera más derechos de fanfarronear que decir: “Tú sólo tomaste 560 fotografías este año y yo tomé 570”.

Imagen del año analizadoImagen del año analizado

Google

Esta función ahora se está implementando para todos los usuarios. Simplemente busque una notificación de Google Photos que indique que está listo para ver. La aplicación también agregó recientemente un widget a Detectar imágenes manipuladas Por inteligencia artificial y otras herramientas. Manipulación de imágenes mediante inteligencia artificial.

[ad_2]

Source Article Link

Categories
News

Los subtítulos en vivo de Google se han actualizado con subtítulos emoji con tecnología de inteligencia artificial en Android

[ad_1]

Google El jueves presentó una nueva función de actualización de inteligencia artificial (IA) llamada “Subtítulos de Emoji”. Esta función se está implementando en la función Subtítulos en vivo en Android. A través de esto, los usuarios podrán ver subtítulos en vivo de los videos reproducidos en el dispositivo en un nuevo formato para transmitir mejor el contexto detrás de los sonidos. La función de IA transmitirá emoción, gritos y volumen mientras muestra texto en letras grandes. Los subtítulos expresivos están actualmente disponibles en inglés en dispositivos con Android 14 y Android 15 en los EE. UU.

La función Emoji Captions de Google se basa en inteligencia artificial

Gigante de búsqueda Detalles compartidos Acerca de la nueva función de IA agregada a Live Captions para Android, dijo que aunque los subtítulos se hicieron populares por primera vez en la década de 1970 como una herramienta de accesibilidad para la comunidad de personas sordas y con problemas de audición, la forma en que se presentan no ha cambiado en los últimos 50 años.

Hoy en día, muchas personas utilizan subtítulos mientras transmiten contenido en línea en espacios públicos ruidosos, para comprender mejor lo que se dice, o mientras consumen contenido en un idioma extranjero. En un guiño a la popularidad de los subtítulos entre los usuarios de Android, Google dijo que ahora está utilizando inteligencia artificial para innovar la información transmitida por los subtítulos.

Con Expressive Captions, los subtítulos en vivo podrán comunicar aspectos como el tono, el volumen, las señales ambientales y el ruido humano. “Estas pequeñas cosas marcan una gran diferencia a la hora de transmitir más allá de las palabras, especialmente para contenido social y en vivo que no tiene subtítulos precargados o de alta calidad”, dijo Google.

Una forma en que Expressive Captions innovará sus subtítulos es mostrar todas las letras mayúsculas para indicar la intensidad del habla, ya sea emoción, volumen o enojo. Estos subtítulos también identificarán sonidos como suspiros, ronquidos y jadeos, lo que ayudará a los usuarios a comprender mejor los matices del habla. Además, también captará los sonidos ambientales que se reproduzcan en primer plano y en segundo plano, como aplausos y vítores.

Google dice que Expressive Captions es parte de Live Captions y que la función está integrada en el sistema operativo y estará disponible a través de Androide dispositivo, independientemente de la aplicación o interfaz que utilice el usuario. Como resultado, los usuarios pueden encontrar subtítulos de IA en tiempo real mientras miran transmisiones en vivo, publicaciones en redes sociales y recuerdos en Google Photos, así como videos compartidos en plataformas de mensajería.

Vale la pena señalar que el procesamiento de subtítulos expresivos por IA se realiza en el dispositivo, lo que significa que los usuarios los verán incluso cuando el dispositivo no esté conectado a Internet o en modo avión.

[ad_2]

Source Article Link

Categories
Life Style

Descripción general de la IA de la Búsqueda de Google en 6 meses: ¿mejora la función?

[ad_1]

Han pasado seis meses desde entonces. Google comencé a agregar Amnistía Internacional– El texto se genera en la parte superior de muchas consultas de búsqueda de Google de forma predeterminada, y esto una experiencia – Eso es lo que dice el descargo de responsabilidad al final de cada descripción general de la IA: no fue exactamente un gran éxito, como admitió Google en Mashable.

“Si bien las descripciones generales de la IA en general son conjuntos de cosas muy convincentes que ayudan a los usuarios, tenemos trabajo que hacer en el lado de la calidad, que es” Qué necesidad cada vez mayor “.

La descripción general de la IA se lanzó con una especie de eslogan: “Deja que Google haga la búsqueda por ti,” pero Después de cierta controversia al principio, particularmente durante las pocas semanas, las historias continuaron surgiendo. Una búsqueda en Google pide a la gente que coma piedras y le ponga pegamento a la pizza – Parece que la empresa ha retrocedido un poco. En el lanzamiento, AI Overviews apareció en aproximadamente el 15 por ciento de las páginas de resultados de búsqueda de Google, pero ese número se redujo a aproximadamente el 7 por ciento a finales de junio. Según Search Engine Land.

¿Ha mejorado la calidad en los últimos seis meses?

¿Están mejorando las descripciones generales de IA?

Sería difícil decir honestamente que ha habido un aumento significativo en la calidad. Las descripciones generales se implementan con menos frecuencia y los errores aún están generalizados, pero encontré evidencia muy limitada de mejoras: las descripciones generales de IA para consultas que destaqué para Google en este artículo mejoraron a medida que trabajé en ellas.

Por si sirve de algo, dice Budaraju, en todo tipo de consultas, desde las cotidianas hasta las extrañas, AI Overviews funciona, “especialmente cuando no hay una única respuesta y hay múltiples perspectivas”. O al menos eso es lo que piensa Google basándose en datos internos sobre la calidad, que provienen de las pruebas AB, pero no de grupos focales, dijo Buddaraju.

Según mi experiencia, las búsquedas diarias tienden a obtener una descripción general aceptable de la IA. “¿A qué saben las almendras?”, por ejemplo, podría dar una visión general razonable basada en IA como la que obtuve: “Las almendras pueden tener un sabor dulce, ligeramente amargo o amargo, dependiendo de su composición química”. bien.

Pero si eres un amante de la información y utilizas la búsqueda de Google más ampliamente, es muy probable que aún encuentres errores extraños. Este ejemplo de noviembre del usuario de BlueSkycoopercooperco es un buen resumen de la desafortunada tendencia de Google Gemini de poner la verdad en una licuadora de vez en cuando.

Mi amigo @craigbased.bsky.social hizo un comentario sobre Cole besando a Shelley, así que busqué en Google “en qué episodio Gordon Cole besa a Shelley” y esto es lo que me dio. Hoy da una respuesta ligeramente diferente y también errónea. Todos sabemos que el mortalmente peligroso Gordon Cole nunca haría nada como besar a una mujer.

[image or embed]

— F♯A♯∞, FKA ☕️ (@coopercooperco.bsky.social) 26 de noviembre de 2024 a las 8:59 am

Cuando se le preguntó sobre Picos gemelos En el episodio en el que Cole besa a Shelley, la descripción general de AI afirma con bastante confianza e incorrectamente que no existe tal escena. Sin saber con seguridad qué salió mal, sólo se puede suponer que los datos de entrenamiento del modelo incluyen al menos referencias pasajeras (si no el texto completo) del modelo. famoso Picos gemelos escena Acerca de (sonido de David Lynch gritando) “¡Dos adultos compartiendo un tierno momento!” en eso cole y shelley Bobby Briggs parece interrumpirlos, pero luego se besa clara e inequívocamente. El modelo probablemente no proviene de ningún blog falso o textos falsos que digan que Cole nunca besa a Shelley (¿con qué propósito alguien escribiría algo así?). Simplemente se lo están inventando y colocándolo en la parte superior de la página de resultados de búsqueda de Google.

Claramente, el usuario de Bluesky anterior está haciendo lo que está haciendo Google. llama a menudo “Consulta impopular”. Las alucinaciones “tienden a aparecer” cuando la pregunta no es popular, dijo Buddaraju. “Aunque los sistemas intentan ser útiles, existen algunos malentendidos y una falta inherente de información de alta calidad en la web”, explicó mientras hablaba con Mashable sobre una descripción general de la IA en general, no esta específicamente. muchas personas destacadas, Destaca la información de alta calidad en línea. Cole y Shelly se besan, por lo que la “mala interpretación” de la fallida interrupción de Bobby Briggs es más plausible como explicación.

Si realiza una búsqueda basándose en información incorrecta, las descripciones generales de IA pueden empeorar las cosas dramáticamente

Según Budaraju, mejorar la visión general de la IA implica “encuestas” que no son exactamente pruebas AB. “Simplemente estamos dando a las personas la opción de elegir entre uno u otro y obtener su expresión de satisfacción”, dijo.

Velocidad de la luz triturable

Pero el escenario de pesadilla para AI Overviews es aquel en el que el investigador comienza con información que no es ideal, y AI Overview la hace menos que ideal.

Si la base de la búsqueda es incorrecta o defectuosa y la descripción general de la IA no detecta el problema, es lógico que el usuario tampoco lo note. El resultado será un usuario satisfecho que ahora es incluso más ignorante que antes. Es cierto que el problema de utilizar la búsqueda de Google para encontrar información errónea es mucho más antiguo que AI Overviews, pero AI Overviews podría ser una fórmula para mejorar este proceso.

Para ver un ejemplo claro pero algo benigno de lo que quiero decir, aquí está el resultado de la consulta “cómo usar bicarbonato de sodio para espesar la sopa”. Alguien podría tener una vaga idea de que uno de los polvos del armario podría darle a la sopa una mejor sensación en la boca, pero su suposición podría estar equivocada. Según AI ​​Overview, “el bicarbonato de sodio se puede utilizar para espesar sopas haciéndolas más y más suaves”.

Un usuario de búsqueda de Google busca confirmación de que el bicarbonato de sodio puede espesar la sopa y la obtiene de una descripción general de la IA.


Crédito: captura de pantalla Mashable a través de Google

Esto no funcionará y podría hacer que la sopa tenga un sabor extraño.

Cuando le mostré este ejemplo a un representante de Google, me dijeron que Google lo usaría para mejorar su producto.

Pero separar la información buena y mala se vuelve borroso si estás investigando lo paranormal. Por ejemplo, intenté buscar “cómo enseñarle a su perro a comunicarse telepáticamente”, comencé una descripción general de la inteligencia artificial con el título “Aquí hay algunos consejos para comunicarse telepáticamente con su perro” y luego proporcioné una lista con viñetas improvisada a partir de la escritos de creyentes paranormales, como “The Communicating Animal” de B. Horsley.

Un usuario de Google busca información sobre cómo comunicarse telepáticamente con un perro y, para empezar, recibe una descripción general de la inteligencia artificial.


Crédito: captura de pantalla Mashable a través de Google

Si estás dispuesto a leerlo, una búsqueda en Google te dirigirá a él. Los escritos de personas como Horsley – De hecho, los recomiendo. Son entretenidos. Pero cuando la descripción general de la IA en la parte superior de la página de resultados de Google dice “Aquí hay algunos consejos para comunicarse telepáticamente con su perro”, les da a los usuarios la impresión de que esta información es confiable y digna de confianza, en lugar de “Sólo con fines de entretenimiento“.

Un representante de Google señaló que la descripción general de la IA es dinámica. Me mostraron una descripción general de la IA de la misma investigación, y no decía “Aquí hay algunos consejos para comunicarse telepáticamente con su perro”, sino que afirmaban que no había evidencia científica de que los perros puedan comunicarse telepáticamente, antes de pasar a otra Buzz Horsley. – Listado de instrucciones afectadas. Si intentara esta búsqueda hoy, obtendría un resultado mejorado similar.

Finalmente, ¿qué pasa si el usuario nota que la carne de res se llama “carne de res” y la carne de cerdo se llama “carne de cerdo” y se pregunta cómo se llama la carne de delfín? Han sucedido cosas extrañas. Cuando utilicé la búsqueda de Google para encontrar respuestas, la descripción general de la IA parecía haber revelado la oscura verdad sobre Mahi Mahi:

Búsqueda de usuarios en Google


Crédito: captura de pantalla Mashable a través de Google

La descripción general de la IA comienza con “El nombre de la carne de delfín depende de la región y la especie de delfín” y luego proporciona una lista con viñetas. El primer elemento del menú es Mahi Mahi.

Si el usuario continúa leyendo, verá que al dorado también se le conoce como “pez delfín” (porque, para que quede claro, el dorado no es un delfín, es un pez). Pero el resultado es, cuanto menos, confuso. Cuando se lo mostré a un representante de Google, me dijeron que era una explicación razonable para la búsqueda; en otras palabras, un usuario que buscara “nombre de la carne de delfín” podría en realidad estar buscando el pez conocido como “pez delfín”.

Es una buena idea hacer clic en la fuente.

Dado que, como mencioné anteriormente, cada una de las búsquedas que produjeron la problemática descripción general de la IA que he presentado aquí mejoraron de alguna manera, habría pensado que Google las estaba limpiando a medida que avanzaba, pero Buddaraju afirma lo contrario. “No solucionamos las consultas una por una. En realidad, no es así como lo consideramos. ¿Qué patrones de problemas vemos y cómo podemos resolverlos a escala?

Pero también me dijo que Google todavía se centra en dirigir a los usuarios hacia recursos de descripción general de IA: ya sabes, ¿los antiguos enlaces en la página de resultados de búsqueda de Google? “Hasta cierto punto, creo que también esperamos que nuestros usuarios tengan los enlaces correctos, enlaces que también puedan seguir”, dijo. Se pregunta si, en respuesta a una descripción general de la IA, un usuario “realmente seguirá ese camino y verá los enlaces que condujeron a la descripción general que creé”.

Si la función de descripciones generales de IA nunca va a desaparecer, para que nunca tengas alucinaciones, probablemente sea una buena idea aceptar esa sugerencia de Budaraju y adquirir el hábito de hacer clic en esos enlaces junto a tus descripciones generales de IA cuando verlos.



[ad_2]

Source Article Link

Categories
Entertainment

Genie 2 de Google DeepMind puede crear mundos interactivos en 3D

[ad_1]

Google acaba de revelar DeepMind genio 2que es una IA de modelado mundial capaz de crear mundos 3D y mantener esos entornos durante un período mucho más largo. Genie 2 no es un motor de juego. Es un modelo de publicación que crea imágenes a medida que el jugador (ya sea un humano u otro agente de IA) se mueve por el mundo simulado por el software. Todo lo que necesita para comenzar es una única foto generada por IA o a partir de una foto real.

Hay limitaciones: DeepMind dice que el modelo puede crear mundos “consistentes” durante hasta 60 segundos, y la mayoría de los ejemplos que la compañía compartió el miércoles duran mucho menos: la mayoría de los videos duran entre 10 y 20 segundos. La calidad de la imagen también se degrada y disminuye cuanto más tiempo le toma al Genie 2 mantener la ilusión de un mundo consistente.

– Matt Smith

Reciba esto diariamente directamente en su bandeja de entrada. ¡Suscríbete aquí!

Las historias tecnológicas más importantes que te perdiste

HechoHecho

Bethesda

Indiana Jones y el Gran Círculo aquí. Claro, este no es Harrison Ford, pero esta personificación de Troy Baker es una excelente película independiente, reforzada por una escritura, un sonido y una dirección que la hacen sentir como una película clásica de Spielberg y Lucas. El juego tiene algunas asperezas, pero todas son descaradamente Indiana Jones.

Continúe leyendo.

HechoHecho

ora

Oura está implementando la detección de enfermedades respiratorias para los usuarios de Ring Gen 3 y Ring 4. Los usuarios con una suscripción activa deberían obtener Symptom Radar antes del 11 de diciembre. La función analiza métricas, incluida la frecuencia cardíaca en reposo, la temperatura de la piel, los datos del sueño y la frecuencia respiratoria, para ver si hay alguna diferencia con las estadísticas de referencia. Si es así, Oura podrá indicarte que ha detectado posibles síntomas de resfriado o gripe. ¡Justo a tiempo para las vacaciones!

Continúe leyendo.

[ad_2]

Source Article Link

Categories
Featured

El modo IA puede convertir tu próxima búsqueda en Google en una conversación

[ad_1]

Google Las búsquedas serán más conversacionales en Android gracias a la inteligencia artificial, a juzgar por un código inédito descubrir Por 9to5 Google. Es posible que la aplicación de búsqueda pronto agregue un modo de IA que combine discusiones interactivas con otras funciones que hacen que el servicio principal de Google funcione un poco como el asistente de IA Gemini.

El modo de inteligencia artificial, al que se hace referencia como AIM en el código expuesto, combina las interacciones humanas de Gemini Live con la Búsqueda de Google y agrega la comprensión y el análisis visual que se obtiene de lente de google. Cuando estés en AIM, podrás responder a cualquier cosa que aparezca en la búsqueda de Google. En lugar de solo una lista de resultados, podrá hacer preguntas de seguimiento, interrumpir respuestas y manejar su búsqueda como si fuera Gemini Live.

[ad_2]

Source Article Link