Categories
Bisnis Industri

Los auriculares Android XR de Google y Samsung compiten con los Vision Pro

[ad_1]

En un movimiento estratégico que podría remodelar el panorama de la realidad mixta, Google y Samsung anunciaron una asociación el jueves para desarrollar un nuevo visor de realidad mixta que se ejecuta en el sistema operativo Android XR, según un nuevo informe. Claramente, los auriculares Android XR de Google y Samsung desafían directamente a los auriculares Vision Pro y Meta de Apple en el mercado premium.

La colaboración tiene como objetivo crear un ecosistema más accesible y diverso para dispositivos de realidad extendida (XR), que podría ofrecer a los compradores, incluidos los usuarios de Apple, opciones alternativas en el creciente espacio de la realidad mixta. Por supuesto, una mayor competencia puede afectar las características y los precios.

Los auriculares Android XR de Google y Samsung competirán con los Vision Pro

Samsung Los próximos auriculares tienen el nombre en código Proyecto Moohan (en coreano significa “infinito”), se ejecutará en una versión de Android diseñada específicamente para dispositivos XR. Bloomberg Mencioné. El nuevo sistema operativo representa el ambicioso intento de Google de repetir su éxito en el campo de los teléfonos inteligentes, ya que el sistema Android ejecuta la mayoría de los dispositivos móviles del mundo. Pero la gente se dio cuenta Muy similar a VisionOS.

Aunque Vision Pro de Apple ha establecido nuevos estándares en tecnología de realidad mixta, todavía plantea un gran desafío. Precio $3,499 y mencioné Problemas de peso Ha limitado su adopción generalizada. La asociación entre Google y Samsung parece estar estratégicamente posicionada para abordar estas limitaciones, aunque aún no hay información sobre el precio real de los auriculares. Pero probablemente ofrecerá opciones más accesibles para los consumidores interesados ​​en experiencias de realidad mixta.

Mercado en rápido crecimiento

El nuevo sistema operativo Android XR tendrá inteligencia artificial en su núcleo. Si ofrece aplicaciones prácticas que puedan atraer a los usuarios de Apple acostumbrados a una integración tecnológica perfecta, Bloomberg Dijo. Por ejemplo, el sistema podría utilizar cámaras externas para proporcionar instrucciones de montaje de muebles en tiempo real o permitir una planificación integral de vacaciones a través de Google Maps, demostrando casos de uso práctico que van más allá de las aplicaciones tradicionales de realidad virtual.

Este desarrollo representa un cambio importante en el mercado de la realidad mixta. Los grandes actores tecnológicos ya se han comprometido con la plataforma. Sony Group Corp y Xreal Inc. anunciados y Lynx Mixed Reality han anunciado planes para desarrollar dispositivos utilizando el nuevo sistema operativo Android XR, lo que sugiere que puede surgir un ecosistema robusto para competir con el enfoque más controlado de Apple.

Las soluciones se dirigen a diferentes dispositivos

Samir Samat, jefe del ecosistema Android de Google, destacó que la plataforma está diseñada para soportar un grupo de dispositivos que resuelven diferentes problemas, lo que contradice la estrategia de un solo dispositivo de Apple. Este enfoque podría conducir a auriculares especializados para juegos, entretenimiento, procedimientos médicos y deportes profesionales. Esto podría proporcionar a los usuarios de Apple soluciones más específicas para necesidades específicas.

El momento del anuncio es importante, ya que el mercado de la realidad mixta sigue evolucionando. Si bien Apple ha puesto el listón alto en lo que respecta a las capacidades de Vision Pro, la asociación entre Google y Samsung muestra que la competencia en el espacio de los auriculares premium se intensificará en 2025.

Auriculares Android XR de Google y Samsung: La competencia puede beneficiar a los consumidores

Los próximos auriculares Android XR de Google y Samsung podrían representar un punto de decisión interesante para los usuarios de Apple. Si bien Vision Pro ofrece una integración perfecta con el ecosistema de Apple, el próximo Android XR promete una gama más diversa de dispositivos y precios potencialmente más accesibles. Si esta nueva plataforma tiene éxito, podría impactar en la estrategia futura de Apple en el campo de la realidad mixta. Podría beneficiar a los consumidores a través de una mayor competencia e innovación, sin mencionar precios más bajos.

El lanzamiento de los auriculares Project Moohan de Samsung está previsto para el próximo año. Esto debería allanar el camino para una batalla de mercado convincente. A medida que estas tecnologías sigan madurando, los usuarios de Apple tendrán más opciones a considerar al elegir su punto de entrada al mundo de la realidad mixta.



[ad_2]

Source Article Link

Categories
Entertainment

Google está implementando su visión para el ecosistema Android XR

[ad_1]

El último impulso de Google hacia la realidad extendida está empezando a tomar forma. Aunque la empresa aún no está lista para exhibir ningún producto, ha Desarrolló una visión Para un ecosistema Android XR unificado que cubra una variedad de dispositivos, como cascos de realidad virtual y gafas de realidad mixta, En asociación con Samsung y Qualcomm.

Este es claramente el último intento de Alphabet de competir con empresas como Meta y Apple en el frente de la realidad extendida. La empresa ha incursionado en este espacio en el pasado con empresas como gafas de googlesoñar despierto y cartón de googleprogramas que han encontrado su camino hacia Cementerio de Google. Android XR parece más ambicioso, y la presencia de algunos socios de renombre sugiere que Alphabet se toma más en serio la realidad extendida esta vez.

Google se ha estado alejando de XR detrás de escena a pesar de cerrar algunos de sus proyectos de alto perfil en esta área. “Google no es ajeno a esta categoría”, dijo a los periodistas Samir Samat, jefe del ecosistema Android de Google, antes del anuncio. “Nosotros, como muchos otros, ya habíamos hecho algunos intentos aquí antes. Creo que la visión era correcta, pero la tecnología aún no estaba lista”.

Un área en la que Google cree que la tecnología ha avanzado hasta el punto de estar listo para volver a intentarlo con XR es la inteligencia artificial. mellizo Estará profundamente integrado en Android XR. Al aprovechar el poder de un chatbot y tener una interfaz de usuario basada en la voz y la conversación natural, Google y sus socios pretenden ofrecer experiencias que no son posibles con gestos y controladores.

“Vivimos en lo que llamamos la Era Géminis, y los avances en inteligencia artificial que utilizan modelos multimodales nos están brindando formas completamente nuevas de interactuar con las computadoras”, dijo Samat. “Creemos que un asistente digital integrado con su experiencia XR es la aplicación ideal para un factor de forma, como el correo electrónico o la mensajería de texto para un teléfono inteligente”.

Google cree que las gafas y auriculares inteligentes son un factor de forma más natural para explorar esta tecnología, en lugar de conectar su teléfono inteligente a algo en el mundo que desea que Gemini eche un vistazo. Con ese fin, la amplia gama de dispositivos XR que han surgido, como los cascos VR con paso (la capacidad de ver el mundo exterior mientras se lleva uno) es otro factor en el impulso de Google en este espacio.

El próximo año veremos por primera vez los productos Android XR, incluido este. Google está desarrollando en asociación con Samsung. El primer altavoz, actualmente denominado Proyecto Moohan (que significa “infinito” en coreano), tendrá “pantallas avanzadas” y entradas naturales y multimedia, según Samsung. Está diseñado para ser un auricular liviano y diseñado ergonómicamente para brindar la máxima comodidad.

Las imágenes del prototipo de Moohan (en la foto de arriba) sugieren que los auriculares se parecerán al Apple Vision Pro, tal vez con una visera de vidrio en el frente. Además de los auriculares, Samsung está trabajando en Google Glass XR, y pronto habrá más detalles.

Indicaciones para caminar paso a paso en realidad aumentadaIndicaciones para caminar paso a paso en realidad aumentada

Google

Pero instalar hardware no importará mucho si no puedes hacer nada interesante con él. Por ello, Google ahora busca Incorporar a los desarrolladores Para crear aplicaciones y productos para Android XR. La empresa ofrece a los desarrolladores interfaces de programación de aplicaciones (API), un emulador y herramientas de desarrollo de hardware para ayudarles a crear experiencias XR.

Por su parte, Google promete un “escritorio infinito” para quienes utilizan la plataforma con fines productivos. También se están reinventando sus aplicaciones fundamentales para la realidad extendida. Esto incluye Chrome, Fotos, Meet, Maps (con una vista inmersiva de puntos de referencia) y Google Play. Además, se dice que las aplicaciones para móviles y tabletas de Google Play funcionan de inmediato.

En YouTube, parece que podrás pasar fácilmente de una experiencia de realidad aumentada a una de realidad virtual. En Google TV, podrás cambiar de una vista de realidad aumentada a una sala de cine virtual en casa cuando comiences a reproducir una película.

Un vídeo de demostración mostró al usuario de los auriculares usando una combinación de su voz, un teclado físico y un mouse para navegar a través de una serie de ventanas de Chrome. El círculo de búsqueda será una de las muchas funciones. Después de usar la herramienta para buscar algo, puede usar el comando Gemini para refinar los resultados. Será posible extraer vistas de imágenes en 3D de los resultados de búsqueda de imágenes y manipularlas con gestos.

Varias pestañas flotantes del navegador Chrome se muestran en un espacio de realidad mixta en una oficina en casa.Varias pestañas del navegador Chrome aparecen flotando en un espacio de realidad mixta en una oficina en casa.

Google

En cuanto a las gafas de realidad aumentada, la próxima generación de Google Glass, parece que podrás usarlas para traducir señas y palabras, y luego hacerle preguntas a Gemini sobre los detalles del menú de un restaurante, por ejemplo. Otros casos de uso incluyen consejos sobre cómo colocar estantes en una pared (y tal vez pedirle a Gemini que lo ayude a encontrar un dispositivo para colocar en algún lugar), obtener direcciones para llegar a una tienda y resumir los chats grupales sobre la marcha.

Gracias a los avances en la tecnología, las gafas de realidad aumentada se parecen mucho a las gafas normales hoy en día, como hemos visto en empresas como muerto Y el chasquido. Esto debería ayudar a Google a evitar toda la retórica de los “agujeros de cristal” esta vez, ya que no tiene por qué haber una cámara obscenamente obvia adjunta al frente. Pero los acontecimientos pueden generar preocupaciones en lo que respecta a la privacidad y a permitir que quienes quedan atrapados en el cono de visión de la cámara sepan que pueden estar siendo fotografiados.

La privacidad es una consideración importante para Android XR. Google dice que está trabajando para crear nuevos controles de privacidad para Gemini en la plataforma. Se revelarán más detalles sobre ellos el próximo año.

Una persona está sentada en el sofá con gafas y mirando un libro.Una persona está sentada en el sofá con gafas y mirando un libro.

Google

Mientras tanto, los juegos podrían desempeñar un papel importante en el éxito de Android XR. Es el foco de los auriculares Meta's Quest, por supuesto. a su paso Varios errores con StadiaGoogle espera que a los desarrolladores les resulte lo más fácil posible trasladar sus juegos a su ecosistema.

No sólo eso, Unity es una de las empresas que soportan Android XR. Los desarrolladores podrán crear experiencias utilizando el motor. Unity dice que brindará soporte completo para Android XR, incluida documentación y mejoras para ayudar a los desarrolladores a comenzar. Pueden hacer esto ahora en las versiones beta públicas de Unity 6.

Juegos de decisión (Demeo) y Owlchemy Labs de Google (simulador de trabajo) se encuentra entre los estudios que planean llevar títulos creados en Unity a Android XR. Se dice que el proceso es sencillo. “Este puerto es tan simple como jamás hayas encontrado”, dijo Andrew Eich, director ejecutivo de Owlchemy Labs, en un comunicado.

Mientras tanto, Unity se ha asociado con Google y el estudio 30 Ninjas del cineasta Doug Liman para crear “una nueva e innovadora aplicación de películas inmersiva que combina IA y XR para redefinir la experiencia cinematográfica”.

Dado que los juegos desempeñarán un papel importante en Android XR, tiene sentido que los controladores físicos sigan siendo parte del ecosistema. No mucha gente querrá jugar usando su voz.

Pero aquí está la clave: Android XR se perfila como un amplio ecosistema de dispositivos, no solo uno. Esta estrategia ha dado buenos resultados para Google, dada la gama de teléfonos, tabletas, automóviles y televisores en los que están disponibles las diferentes versiones de Android. Esperamos repetir este éxito con Android XR.

[ad_2]

Source Article Link

Categories
News

Google presenta el agente de codificación Jules AI diseñado para manejar tareas complejas

[ad_1]

Google El miércoles hizo varios anuncios sobre inteligencia artificial (IA). Además de introducir nuevos mellizo Familia 2.0 de modelos de IA, función de búsqueda profunda y demostración de capacidades mejoradas En el Proyecto Astra, el gigante tecnológico con sede en Mountain View también dio a conocer varios clientes de IA. Entre ellos, un agente que podría resultar de especial interés para los desarrolladores es Jules. La compañía destacó que Jules es un agente de inteligencia artificial que puede crear y ejecutar planes de varios pasos para resolver tareas complejas relacionadas con la programación y corregir errores poco comunes.

El agente Jules AI Coding de Google se basa en Gemini 2.0

en un Publicación de blogel gigante tecnológico ha detallado un nuevo agente de inteligencia artificial que puede manejar tareas de programación en nombre del usuario. En particular, los agentes de IA son modelos de lenguaje más pequeños (SLM) especializados que tienen alta eficiencia y baja latencia en la ejecución de tareas. También pueden integrarse con software específico para realizar diferentes tareas.

Jules se basa en modelos de IA Gemini 2.0 y destaca en tareas relacionadas con la programación. Google dice que es un proxy de código experimental que puede integrarse directamente con los flujos de trabajo de GitHub. Puede crear un plan de varios pasos para implementar e implementar acciones. Durante todo el proceso, el agente sigue las instrucciones y supervisión del usuario.

Google dice que Jules puede realizar tareas de programación en Python y JavaScript. Se puede utilizar para corregir errores, depurar código, revisar código y otras tareas que requieren mucho tiempo. El nuevo agente de IA también puede enviar solicitudes de extracción y correcciones directamente a GitHub.

La empresa afirma que a Jules se le pueden asignar tareas y puede trabajar en ellas de forma asincrónica. El agente notificará al desarrollador mediante actualizaciones en tiempo real cuando se complete una tarea y el desarrollador también puede intervenir para cambiar la prioridad de las tareas. Los usuarios también pueden proporcionar comentarios o solicitar modificaciones en los planes del agente para mejorar sus procedimientos.

Actualmente, Jules está disponible para un grupo selecto de evaluadores y el gigante tecnológico planea implementar la herramienta para los desarrolladores a principios de 2025. Sin embargo, para obtener acceso, los desarrolladores deberán registrarse en el agente de inteligencia artificial de Google Labs.

[ad_2]

Source Article Link

Categories
News

Google DeepMind demuestra capacidades mejoradas en Project Astra con Gemini 2.0

[ad_1]

Google DeepMindel ala de investigación de inteligencia artificial de la compañía, primero quitar el velo Proyecto Astra en I/O este año y ahora, más de seis meses después, el gigante tecnológico ha anunciado nuevas capacidades y mejoras en su agente de inteligencia artificial (IA). Basado en los modelos de IA Gemini 2.0, ahora puede hablar varios idiomas, acceder a múltiples plataformas de Google y tiene una memoria mejorada. La herramienta aún se encuentra en la fase de prueba, pero el gigante tecnológico con sede en Mountain View dijo que está trabajando para llevar el Proyecto Astra a la aplicación Gemini, al asistente de IA Gemini e incluso a factores de forma como gafas.

Google añade nuevas capacidades en el Proyecto Astra

Project Astra es un agente de IA de propósito general similar en funcionalidad al agente OpenAI Modo de visión O Meta Ray Ban gafas inteligentes. Puede integrarse con el hardware de la cámara para ver el entorno del usuario y procesar datos visuales para responder preguntas sobre ellos. Además, el agente de IA viene con una memoria limitada que le permite recordar información visual incluso cuando no se ve activamente a través de la cámara.

Google DeepMind fue destacado en un Publicación de blog Desde la presentación en mayo, el equipo ha estado trabajando para mejorar el agente de IA. Ahora, con Gemini 2.0, el Proyecto Astra ha recibido varias actualizaciones. Ahora puede hablar varios idiomas y una mezcla de idiomas. La compañía dijo que ahora comprende mejor los acentos y las palabras poco comunes.

La empresa también ha introducido el uso de herramientas en el Proyecto Astra. Ahora se puede confiar en búsqueda de googleY la lente y los mapas y mellizo Para responder preguntas complejas. Por ejemplo, los usuarios pueden mostrar un punto de referencia y pedirle a un agente de IA que les muestre direcciones para llegar a su casa, y este puede reconocer el objeto y dirigir verbalmente al usuario a casa.

También se ha actualizado la función de memoria del agente de IA. En mayo pasado, el Proyecto Astra sólo podía retener información visual de los últimos 45 segundos y ahora se ha ampliado a 10 minutos de memoria durante una sesión. Además, también puede recordar más conversaciones anteriores para brindar respuestas más personalizadas. Finalmente, Google afirma que el agente ahora puede comprender el lenguaje en el tiempo de respuesta de una conversación humana, lo que hace que las interacciones con la herramienta sean más humanas.

[ad_2]

Source Article Link

Categories
Featured

Tienes más tiempo: la increíble clave de la línea de tiempo de Google Maps tiene una nueva fecha límite

[ad_1]


  • Se amplía el plazo para cambiar tu línea de tiempo de Google Maps
  • Mantiene los datos de programación exclusivamente en su teléfono inteligente
  • Google te da control sobre cuánto tiempo se guardan tus datos

A principios de este año Google anunció este mapas de google La función Línea de tiempo, que rastrea dónde vas a lo largo del tiempo, solo estará disponible en teléfonos en el futuro, y el portal web está programado para cerrar hacia fines de 2024. Y ahora parece que tendrás un poco más de tiempo para cambiar. si desea conservar sus datos.

Como lo vi 9to5Google, policía robóticaOtros, una gran cantidad de usuarios reciben correos electrónicos y alertas en pantalla que indican una fecha límite del 9 de junio de 2025. Si desea conservar los datos de la línea de tiempo que ha almacenado en la nube después de esta fecha, debe transferirlos a su Android o Teléfono iOS antes de la fecha límite.

[ad_2]

Source Article Link

Categories
Featured

Google dice que sus próximos centros de datos se construirán junto con parques eólicos y solares

[ad_1]


  • Google colabora con empresas de energía para operar futuros centros de datos
  • La próxima serie de centros de datos de Google utilizará parques solares y eólicos
  • La medida es parte de una inversión total de 20 mil millones de dólares.

nuevo asociación entre GoogleLa empresa de energía Intersect Power y la organización de soluciones climáticas TPG Rise Climate buscarán proporcionar energía limpia para los futuros centros de datos de la empresa.

A medida que la demanda de inteligencia artificial crece rápidamente, las empresas de tecnología están ampliando sus capacidades, pero Google está dando un paso positivo hacia un futuro sostenible con fuentes de energía renovables in situ para sus centros de datos.

[ad_2]

Source Article Link

Categories
News

Google dijo que le pidió a la FTC que rompiera el acuerdo de Microsoft Cloud con Openai

[ad_1]

Google ha pedido al gobierno de EE.UU. que rompa el acuerdo exclusivo de Microsoft para alojar la tecnología Openai en sus servidores en la nube, dijo The Information el martes.

La conversación se produjo tras una solicitud de la Comisión Federal de Comercio de EE.UU. Google en microsoft El informe dijo que las prácticas comerciales eran parte de una investigación más amplia, citando a una persona directamente involucrada en la discusión.

Las empresas de tecnología que compiten con Microsoft en el arrendamiento de servidores en la nube, como Google y Amazon, también quieren alojar modelos Openai para que sus clientes de la nube no necesiten acceder a los servidores de Microsoft para acceder a la tecnología de la startup, según el informe.

Según el informe, las empresas que compran chatearEs posible que Maker Openai a través de Microsoft tenga que afrontar tarifas adicionales si aún no utiliza servidores de Microsoft para ejecutar sus operaciones.

Google y otros competidores han destacado que estos nuevos costos perjudicarán a los clientes, según el informe.

Google se negó a comentar sobre el informe informativo, mientras que Microsoft, Openai y la FTC no respondieron a las solicitudes de comentarios de Reuters.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
Life Style

Google agrega Deep Research a Gemini para navegar por la web por usted

[ad_1]

nuevo Google mellizo La herramienta puede hacer el trabajo de buscar en la web por usted.

Miércoles Google Anunciar Búsqueda profunda, que es una característica de la versión paga Amnistía Internacional El modelo Gemini Advanced, que actúa como una especie de asistente de investigación de inteligencia artificial. Al utilizar el modo Investigación profunda en el menú desplegable, los usuarios pueden pedirle ayuda a Gemini con temas de investigación, como programas de posgrado o análisis de la industria competitiva, y Deep Research compilará un informe detallado de lo que encontró en la web.

“En este tipo de viajes tendrás que abrir muchas pestañas y pasar mucho tiempo buscando información, y realmente queríamos ayudar a acelerar el proceso de pasar de cero a 60 en un tema nuevo. “, dijo Arush Selvan, gerente senior de producto de Gemini, durante una demostración de Per Mashable: “Rápido”.

La herramienta de búsqueda profunda de Google señala la siguiente etapa de la IA generativa, donde los modelos pueden realizar tareas de varios pasos en nombre del usuario. Claude de Anthropic tiene una función de programación que puede Controla tu cursor y realizar tareas informáticas como hacer clic y escribir. Microsoft lanzó recientemente Ver el copiloto Una característica que procesa visualmente lo que un usuario ve en el navegador Edge para ayudar con la comparación de precios o la búsqueda. OpenAI es Rumor Lanzar un agente de IA para programación y navegación web. Google también se dice Trabajando en una función de Chrome para capacidades de navegación web similares. Todos ellos tienen las características de la IA agentiva que empujan a la IA generativa hacia un comportamiento autónomo.

Velocidad de la luz triturable

La investigación profunda comienza con la definición de un plan de investigación sobre cómo recopilar información, que es la forma en que genAI demuestra su trabajo. Cuando presiona Inicio, comienza a navegar por la web por usted y a encontrar información relevante. Una vez terminado, el nuevo informe se abre en un nuevo panel que muestra citas en las que puede hacer clic. También puede hacer preguntas de seguimiento o solicitar modificaciones específicas, como agregar nuevas secciones de información. Además, puede abrir el informe en Google Docs, lo cual es una característica útil.

Esta función funciona fuera de la estructura de búsqueda actual de Google. Básicamente, realiza un montón de búsquedas en Google y compila lo que podrías haber encontrado en la web, pero mucho más rápido. Debido a que depende de la Búsqueda de Google, Deep Research también hereda sus reglas sobre contenido restringido o prohibido, por lo que no leerá sitios para adultos o sitios que violen sus políticas, dijo Sylvain.

Sylvain también explicó que Deep Research no puede acceder a sitios web que requieren un inicio de sesión, como muchos sitios de redes sociales, y tampoco puede eludir los sitios de pago. Cuando se le preguntó cómo respondería la función a los sitios que bloquean los rastreadores web, un portavoz de la empresa dijo: “Deep Research actualmente no utilizará ninguna URL de exclusión voluntaria extendida por Google para generar informes de búsqueda”. Google extendido Es un rastreador web que Gemini utiliza para rastrear sitios web en busca de datos de entrenamiento.

Deep Research está disponible hoy para Gemini Advanced, que cuesta $20 por mes.



[ad_2]

Source Article Link

Categories
Life Style

Google anuncia el “agente” Gemini 2.0 con soporte de imagen y audio

[ad_1]

No quedarse atrás Abierto AI sora Google acaba de lanzar su nuevo modelo de IA Gemini 2.0.

Miércoles Google pie Gemini 2.0 Flash, el primero de la familia de modelos de IA de próxima generación. Gemini 2.0 Flash se describe en el anuncio como un “modelo de caballo de batalla” para desarrolladores, capaz de ofrecer un rendimiento potente a escala. Flash admite la creación de imágenes y audio, se integra con la Búsqueda de Google, puede escribir código y funciona con aplicaciones de terceros. Junto con el anuncio de Gemini 2.0 Flash, Google también presentó Investigación profundauna función de Gemini que navega por la web y recopila informes de investigación según el mensaje inicial.

Gemini 2.0 Flash es un paso adelante respecto a Gemini 1.0 en términos de heurística mejorada, ventanas de contexto más largas, la capacidad de comprender instrucciones complejas y el uso de herramientas nativas, todo lo cual está diseñado para hacer que el modelo sea más eficiente, en otras palabras, capaz. para ejecutar tareas de varios pasos en nombre del usuario.

Velocidad de la luz triturable

Como parte de esto, Google dijo que Gemini 2.0 estará disponible para el Proyecto Astra, un prototipo de investigación para probar el asistente global de IA. Google también ha compartido otros modelos de investigación: Project Mariner, diseñado específicamente para explorar la “interacción humano-agente”, y Project Jules para desarrolladores.

Gemini 2.0 Flash está disponible como “beta” a través de la API Gemini a la que se puede acceder en Google AI Studio y Vertex AI. Pero los usuarios habituales también pueden experimentar capacidades de chat mejoradas en la aplicación de escritorio Gemini, y pronto habrá soporte para aplicaciones móviles.



[ad_2]

Source Article Link

Categories
Featured

Google quiere que la FTC detenga el acuerdo de exclusividad en la nube de Microsoft con OpenAI

[ad_1]


  • Según se informa, Google ha pedido a la Comisión Federal de Comercio (FTC) que investigue la asociación entre Microsoft y OpenAI.
  • Microsoft es actualmente el único proveedor de nube para OpenAI, y Google dice que esto es perjudicial
  • Google se enfrenta actualmente a su propia investigación de la FTC

Google Según se informa, ha pedido a la Comisión Federal de Comercio (FTC) que investigue microsoftAsociación actual con Abierto AIlo que le permite ser el proveedor exclusivo de la nube para el gigante de la IA.

Acusación (trans Información), llega después de meses de acuerdos entre las dos compañías, comenzando con la inversión multimillonaria de Microsoft en OpenAI y el posterior lanzamiento de su tecnología impulsada por GPT. Herramientas de inteligencia artificial A través de sus programas de oficina.

[ad_2]

Source Article Link