Categories
Entertainment

Google está implementando su visión para el ecosistema Android XR

[ad_1]

El último impulso de Google hacia la realidad extendida está empezando a tomar forma. Aunque la empresa aún no está lista para exhibir ningún producto, ha Desarrolló una visión Para un ecosistema Android XR unificado que cubra una variedad de dispositivos, como cascos de realidad virtual y gafas de realidad mixta, En asociación con Samsung y Qualcomm.

Este es claramente el último intento de Alphabet de competir con empresas como Meta y Apple en el frente de la realidad extendida. La empresa ha incursionado en este espacio en el pasado con empresas como gafas de googlesoñar despierto y cartón de googleprogramas que han encontrado su camino hacia Cementerio de Google. Android XR parece más ambicioso, y la presencia de algunos socios de renombre sugiere que Alphabet se toma más en serio la realidad extendida esta vez.

Google se ha estado alejando de XR detrás de escena a pesar de cerrar algunos de sus proyectos de alto perfil en esta área. “Google no es ajeno a esta categoría”, dijo a los periodistas Samir Samat, jefe del ecosistema Android de Google, antes del anuncio. “Nosotros, como muchos otros, ya habíamos hecho algunos intentos aquí antes. Creo que la visión era correcta, pero la tecnología aún no estaba lista”.

Un área en la que Google cree que la tecnología ha avanzado hasta el punto de estar listo para volver a intentarlo con XR es la inteligencia artificial. mellizo Estará profundamente integrado en Android XR. Al aprovechar el poder de un chatbot y tener una interfaz de usuario basada en la voz y la conversación natural, Google y sus socios pretenden ofrecer experiencias que no son posibles con gestos y controladores.

“Vivimos en lo que llamamos la Era Géminis, y los avances en inteligencia artificial que utilizan modelos multimodales nos están brindando formas completamente nuevas de interactuar con las computadoras”, dijo Samat. “Creemos que un asistente digital integrado con su experiencia XR es la aplicación ideal para un factor de forma, como el correo electrónico o la mensajería de texto para un teléfono inteligente”.

Google cree que las gafas y auriculares inteligentes son un factor de forma más natural para explorar esta tecnología, en lugar de conectar su teléfono inteligente a algo en el mundo que desea que Gemini eche un vistazo. Con ese fin, la amplia gama de dispositivos XR que han surgido, como los cascos VR con paso (la capacidad de ver el mundo exterior mientras se lleva uno) es otro factor en el impulso de Google en este espacio.

El próximo año veremos por primera vez los productos Android XR, incluido este. Google está desarrollando en asociación con Samsung. El primer altavoz, actualmente denominado Proyecto Moohan (que significa “infinito” en coreano), tendrá “pantallas avanzadas” y entradas naturales y multimedia, según Samsung. Está diseñado para ser un auricular liviano y diseñado ergonómicamente para brindar la máxima comodidad.

Las imágenes del prototipo de Moohan (en la foto de arriba) sugieren que los auriculares se parecerán al Apple Vision Pro, tal vez con una visera de vidrio en el frente. Además de los auriculares, Samsung está trabajando en Google Glass XR, y pronto habrá más detalles.

Indicaciones para caminar paso a paso en realidad aumentadaIndicaciones para caminar paso a paso en realidad aumentada

Google

Pero instalar hardware no importará mucho si no puedes hacer nada interesante con él. Por ello, Google ahora busca Incorporar a los desarrolladores Para crear aplicaciones y productos para Android XR. La empresa ofrece a los desarrolladores interfaces de programación de aplicaciones (API), un emulador y herramientas de desarrollo de hardware para ayudarles a crear experiencias XR.

Por su parte, Google promete un “escritorio infinito” para quienes utilizan la plataforma con fines productivos. También se están reinventando sus aplicaciones fundamentales para la realidad extendida. Esto incluye Chrome, Fotos, Meet, Maps (con una vista inmersiva de puntos de referencia) y Google Play. Además, se dice que las aplicaciones para móviles y tabletas de Google Play funcionan de inmediato.

En YouTube, parece que podrás pasar fácilmente de una experiencia de realidad aumentada a una de realidad virtual. En Google TV, podrás cambiar de una vista de realidad aumentada a una sala de cine virtual en casa cuando comiences a reproducir una película.

Un vídeo de demostración mostró al usuario de los auriculares usando una combinación de su voz, un teclado físico y un mouse para navegar a través de una serie de ventanas de Chrome. El círculo de búsqueda será una de las muchas funciones. Después de usar la herramienta para buscar algo, puede usar el comando Gemini para refinar los resultados. Será posible extraer vistas de imágenes en 3D de los resultados de búsqueda de imágenes y manipularlas con gestos.

Varias pestañas flotantes del navegador Chrome se muestran en un espacio de realidad mixta en una oficina en casa.Varias pestañas del navegador Chrome aparecen flotando en un espacio de realidad mixta en una oficina en casa.

Google

En cuanto a las gafas de realidad aumentada, la próxima generación de Google Glass, parece que podrás usarlas para traducir señas y palabras, y luego hacerle preguntas a Gemini sobre los detalles del menú de un restaurante, por ejemplo. Otros casos de uso incluyen consejos sobre cómo colocar estantes en una pared (y tal vez pedirle a Gemini que lo ayude a encontrar un dispositivo para colocar en algún lugar), obtener direcciones para llegar a una tienda y resumir los chats grupales sobre la marcha.

Gracias a los avances en la tecnología, las gafas de realidad aumentada se parecen mucho a las gafas normales hoy en día, como hemos visto en empresas como muerto Y el chasquido. Esto debería ayudar a Google a evitar toda la retórica de los “agujeros de cristal” esta vez, ya que no tiene por qué haber una cámara obscenamente obvia adjunta al frente. Pero los acontecimientos pueden generar preocupaciones en lo que respecta a la privacidad y a permitir que quienes quedan atrapados en el cono de visión de la cámara sepan que pueden estar siendo fotografiados.

La privacidad es una consideración importante para Android XR. Google dice que está trabajando para crear nuevos controles de privacidad para Gemini en la plataforma. Se revelarán más detalles sobre ellos el próximo año.

Una persona está sentada en el sofá con gafas y mirando un libro.Una persona está sentada en el sofá con gafas y mirando un libro.

Google

Mientras tanto, los juegos podrían desempeñar un papel importante en el éxito de Android XR. Es el foco de los auriculares Meta's Quest, por supuesto. a su paso Varios errores con StadiaGoogle espera que a los desarrolladores les resulte lo más fácil posible trasladar sus juegos a su ecosistema.

No sólo eso, Unity es una de las empresas que soportan Android XR. Los desarrolladores podrán crear experiencias utilizando el motor. Unity dice que brindará soporte completo para Android XR, incluida documentación y mejoras para ayudar a los desarrolladores a comenzar. Pueden hacer esto ahora en las versiones beta públicas de Unity 6.

Juegos de decisión (Demeo) y Owlchemy Labs de Google (simulador de trabajo) se encuentra entre los estudios que planean llevar títulos creados en Unity a Android XR. Se dice que el proceso es sencillo. “Este puerto es tan simple como jamás hayas encontrado”, dijo Andrew Eich, director ejecutivo de Owlchemy Labs, en un comunicado.

Mientras tanto, Unity se ha asociado con Google y el estudio 30 Ninjas del cineasta Doug Liman para crear “una nueva e innovadora aplicación de películas inmersiva que combina IA y XR para redefinir la experiencia cinematográfica”.

Dado que los juegos desempeñarán un papel importante en Android XR, tiene sentido que los controladores físicos sigan siendo parte del ecosistema. No mucha gente querrá jugar usando su voz.

Pero aquí está la clave: Android XR se perfila como un amplio ecosistema de dispositivos, no solo uno. Esta estrategia ha dado buenos resultados para Google, dada la gama de teléfonos, tabletas, automóviles y televisores en los que están disponibles las diferentes versiones de Android. Esperamos repetir este éxito con Android XR.

[ad_2]

Source Article Link

Categories
Bisnis Industri

Gafas inteligentes Solos AirGo Vision que rastrean Meta Ray-Ban

[ad_1]

Las nuevas gafas inteligentes Solos AirGo Vision se lanzaron el martes junto con la inteligencia artificial ChatGPT como competidor directo de las gafas inteligentes Ray-Ban de Meta. Ambos cuestan $300 o menos y son relativamente asequibles. El recién llegado ofrece varias características innovadoras, incluido un diseño modular que aborda las preocupaciones de privacidad comunes en los dispositivos portátiles equipados con cámaras.

“Prometimos permitir que los consumidores controlen su experiencia con la IA y la tecnología inteligente, especialmente teniendo en cuenta las opciones de privacidad”, dijo Kenneth Fan, cofundador de Solos. “Es por eso que hemos desarrollado marcos que se pueden cambiar fácilmente para determinar cuándo y dónde una cámara podría ser apropiada sin sacrificar ninguna de las funciones divertidas”.

Gafas inteligentes Solus AirGo Vision

ChatGPT-4o

Gafas inteligentes Solus AirGo Vision

Impulsada por GPT-4o AI, esta nueva línea de gafas inteligentes presenta un diseño de bisagra modular que le permite incluir una cámara o no.

Ventajas:

  • ChatGPT-4o IA
  • Diseño de bisagra modular
  • Elige patrones y colores.
Contras:

  • La cámara puede agregar cantidades significativas
  • Posibles problemas de privacidad

Esta noticia sobre las nuevas gafas inteligentes competitivas llega al día siguiente Ciencia popular su nombre Los auriculares Vision Pro están a la vanguardia de la innovación de hardware Para 2024. Pero hasta ahora Apple parece estar lejos de fabricar gafas inteligentes. En concreto, las gafas inteligentes de Apple utilizan la tecnología Vision Pro Puede salir en 2027.

Nuevo ChatGPT Impulsado por inteligencia artificial Gafas inteligentes Solus AirGo Vision Cuenta con el sistema SmartHinge de la empresa. Permite a los usuarios cambiar fácilmente entre paneles frontales equipados con cámara y paneles frontales sin cámara mediante conectores USB-C. El enfoque modular permite a los usuarios cambiar entre una funcionalidad inteligente completa y un uso discreto según su entorno y sus necesidades. El diseño, que parece bastante elegante en algunos modelos, mantiene las características básicas incluso sin la cámara. Esto se debe a que los componentes principales del dispositivo, incluida la batería y los controles táctiles, están alojados en las bisagras recargables del marco.

En el lanzamiento, el prototipo de IA GPT-4o de OpenAI alimenta las gafas, lo que permite diversas capacidades de reconocimiento visual. Los usuarios pueden interactuar con su entorno haciendo preguntas sobre objetos, personas y texto dentro de su campo de visión. El sistema admite traducción de texto en tiempo real, proporciona indicaciones para llegar a puntos de referencia cercanos y proporciona información detallada sobre los objetos observados. Pero las gafas inteligentes no necesariamente siempre usarán GPT-4o.

Arquitectura abierta

Aunque inicialmente utilizó GPT-4o, Solos diseñó las gafas con un marco de arquitectura abierta que eventualmente admitirá múltiples modelos de IA, incluidos Gemini de Google y Claude de Anthropic. Sin embargo, la compañía dijo que la integración de Gemini aún está pendiente.

La aplicación complementaria también recibió actualizaciones importantes. Ahora cuenta con la posibilidad de reproducir en segundo plano, lo que permite interacciones de voz permanentes sin tener que abrir la aplicación. Los usuarios pueden realizar búsquedas en Internet, consultar actualizaciones meteorológicas y acceder a noticias mediante comandos de voz.

Opciones de compra flexibles

Solos ofrece opciones de compra flexibles para adaptarse a las diferentes preferencias de los usuarios. El AirGo Vision estándar con función de cámara está disponible por $299, mientras que los propietarios existentes de Solos AirGo pueden comprar el panel frontal solo con cámara por $149. Un paquete premium que incluye marcos con y sin cámara está disponible por $349, brindando la máxima versatilidad para los usuarios preocupados por la privacidad.

Las gafas vienen en dos estilos de montura diferentes: las Krypton 1, más grandes y de forma cuadrada, con almohadillas nasales prominentes, y las Krypton 2, más elegantes. Los clientes pueden elegir entre siete opciones de colores diferentes y hay lentes recetados disponibles para ambos modelos.

Puedes comprar gafas inteligentes Solos AirGo Vision a través de él sitio web de solos Y Amazonas.

ChatGPT-4o

Gafas inteligentes Solus AirGo Vision

Impulsada por GPT-4o AI, esta nueva línea de gafas inteligentes presenta un diseño de bisagra modular que le permite incluir una cámara o no.

Ventajas:

  • ChatGPT-4o IA
  • Diseño de bisagra modular
  • Elige patrones y colores.
Contras:

  • La cámara puede agregar cantidades significativas
  • Posibles problemas de privacidad

Compra desde: Amazonas



[ad_2]

Source Article Link

Categories
Bisnis Industri

La revista Popular Science elige Vision Pro como la mejor innovación del año

[ad_1]

Ciencia popular La revista nombró el lunes los auriculares Vision Pro de Apple como una de sus innovaciones del año entre los nuevos dispositivos de 2024. A pesar de su importante precio y los desafíos iniciales del mercado, el enfoque revolucionario del dispositivo hacia la realidad aumentada lo distingue de sus competidores.

“El dispositivo tiene sus propios obstáculos que superar, pero después de unos minutos de usarlo, quedó claro que era algo diferente, importante y, francamente, bastante sorprendente”, escribió la revista.

Ciencia popular Vision Pro nombra la innovación del año

el La publicación de ciencia y tecnología elogió el Vision Pro Capacidades visuales excepcionales, con una impresionante pantalla de 23 millones de píxeles que ofrece una resolución de más de 4K para cada ojo. La perfecta integración de los elementos AR con el mundo real impresionó particularmente a los críticos, quienes notaron cómo la interfaz del dispositivo se convierte en una parte intuitiva del entorno del usuario.

“Es realmente molesto quitarse los auriculares y ver el mundo real sin la interfaz de usuario flotante”. Ciencia popular Dijo. Como resalta la publicación Visión Pro Un sistema de interacción sin controladores, que elimina las barreras tradicionales entre los usuarios y el espacio aumentado.

Un enfoque integral de la computación espacial

Los logros tecnológicos de Vision Pro se extienden más allá de sus especificaciones de hardware. El dispositivo representa un elemento estratégico en el ecosistema más amplio de Apple y es particularmente evidente en el último trabajo de la compañía. Diseños para cámaras de iPhone.. Estas cámaras cuentan con disposiciones de disparo específicas y optimizadas. Contenido de vídeo espacial Dedicado al consumo de Vision Pro, lo que demuestra el enfoque integral de Apple para Computación espacial.

Si bien se reconocen áreas de mejora, como la función de vista ocular de la pantalla externa, Ciencia popular Destacó el potencial transformador del dispositivo.

“Aunque ha habido auriculares AR antes, este recibió nuestro premio por la amplitud de las capacidades que muestra”, señala la publicación. Sugirió que una versión menos costosa de esta tecnología podría revolucionar el mercado.

Y otros homenajeados

Vision Pro lideró una lista diversa de innovaciones que incluían productos avanzados en múltiples sectores. Otros homenajeados notables incluyen:

  • En el departamento de cuidado personal, el rastreador de actividad Oura Ring 4 ganó debido a su forma más delgada y ergonómica y sus características mejoradas. pero lo haré Apple fabrica uno alguna vez?
  • La Sony A9 III es conocida por su capacidad para eliminar los problemas de distorsión de la imagen en las cámaras sin espejo.
  • Snapdragon de Qualcomm

Algunos equipos promocionados se quedan cortos

En un contraste interesante, algunas de las innovaciones más esperadas de 2024, incluida El conejo R1 impulsado por IA y Pin Amnistía Internacional HumanidadNo se pudo cumplir Ciencia popularEsperanzas de heredar. La selección de Vision Pro por parte de la publicación sobre estos y otros contendientes subraya su notable impacto.

reconocimiento de Ciencia popular Se suma a la creciente lista de premios de Vision Pro, consolidando su posición como un desarrollo fundamental en la informática espacial. A pesar de los desafíos relacionados con el precio y la adopción por parte de los desarrolladores, la decisión de publicación destaca el potencial de los auriculares para remodelar la forma en que interactuamos con el contenido digital en nuestro mundo físico.

El premio subraya particularmente cómo el Vision Pro se destaca de los cascos de realidad aumentada anteriores, lo que sugiere que la aplicación de Apple podría marcar el comienzo de una nueva era en la informática (especialmente con precios asequibles).



[ad_2]

Source Article Link

Categories
Business Industry

28 años después, el tráiler revela una escalofriante visión de la humanidad post-apocalíptica

[ad_1]







Hace 22 años, Danny Boyle y Alex Garland ayudaron a lanzar el renacimiento de las películas de zombies con una película que técnicamente no es una película de zombies. “28 días después” es una película pandémica. Es lamentable que, 22 años después, este subgénero esté listo para una explotación sangrienta.

El 20 de junio de 2025, “28 años después” comenzará 17 años (en nuestra propia línea de tiempo) después del caos del Rage Virus que arrasó el mundo. La secuela del éxito de 2007 de Juan Carlos Fresendillo “28 semanas después”. Para que no piense que esto es un asunto menor, sepa que el ganador del Oscar 2024, Cillian Murphy, repetirá su papel de Jim en coma en la película. A él se unirán en el reparto los extremadamente talentosos Aaron Taylor-Johnson, Jodie Comer, Jack O'Connell y Ralph Fiennes. En cuanto al estado del mundo en 28 años después, se supone que el virus de la ira se está propagando nuevamente, y se supone que los actores antes mencionados se esforzarán por evitar unirse a las filas de los infectados.

Este es el primer largometraje de Boyle desde Yesterday de 2019, y su primer largometraje de terror desde 28 Days Later. Debería ser un placer tener al autor de “Trainspotting” y “Slumdog Millionaire” trabajando nuevamente en este género, y ojalá sea un verdadero placer tenerlo nuevamente en equipo con el guionista Alex Garland, quien se ha convertido en un gran director en su derecho propio junto con cosas como “genocidio” y “guerra civil”.

Entonces, ¿qué promete el nuevo tráiler de “28 años después” en términos de caos lleno de ira?



[ad_2]

Source Article Link

Categories
News

Apple está trabajando con Sony para llevar la compatibilidad con el controlador PlayStation VR2 a Vision Pro: Mark Gurman

[ad_1]

manzana Apple presentó su primer visor de realidad mixta, el Apple Vision Pro, en la WWDC el año pasado. Ahora, parece que el gigante tecnológico con sede en Cupertino está intentando mejorar sus auriculares para juegos agregando soporte para controladores manuales de terceros en el software VisionOS del dispositivo. Según Mark Gurman de Bloomberg, Apple se está asociando con Sony para permitir el uso de controladores portátiles de realidad virtual de terceros con Vision Pro. Además de los juegos, se espera que las consolas mejoren la productividad y las tareas de edición de medios en VisionOS. Sin embargo, aún no hay información sobre cuándo comenzará la asociación. Apple Vision Pro actualmente es compatible con los controladores de PlayStation 5 y Xbox.

Se dice que Apple está colaborando con Sony

En la última edición de su boletín Power On, Mark Gorman Países Vision Pro pronto será compatible con los controladores Sony PlayStation VR2 Sense. Según se informa, Apple se ha acercado sony Comenzar estos esfuerzos a principios de este año. Y añadió: “En Sony, el trabajo solía llevar meses, según me dijeron”. Gorman confirma que Apple discutió el plan con desarrolladores externos y les pidió que agregaran soporte para el controlador PlayStation VR2 a sus juegos.

Gorman escribió que Apple y Sony habían planeado anunciar su soporte para las consolas “hace semanas”, pero el dúo pospuso el lanzamiento. Además de jugar juegos de realidad virtual, los controladores pueden navegar por el sistema operativo VisionOS y proporcionar un control preciso sobre aplicaciones como Final Cut Pro y Adobe Photoshop. el PlayStation VR 2 Se espera que las consolas estén disponibles a través de las tiendas en línea y puntos de venta minorista de Apple.

Según se informa, Apple ha diseñado un prototipo de “stick” para Vision Pro. Esto servirá como una herramienta similar al Apple Pencil para un control preciso, en lugar de jugar.

actualmente, PS5 Los controladores de Xbox son compatibles con Vision Pro, pero carecen de los seis grados de libertad (6DOF) necesarios para un control preciso en los juegos de realidad virtual.

Apple presentó sus primeros auriculares de realidad mixta Vision Pro en la WWDC 2023. Es actualmente A la venta en países seleccionados, incluidos EE. UU., China, Europa y Japón, a un precio inicial de 3.499 dólares (aproximadamente 2.90.000 rupias). Los auriculares admiten tecnologías de realidad aumentada (AR) y realidad virtual (VR) y se ejecutan en el sistema operativo VisionOS. Está disponible en configuraciones de almacenamiento de 256 GB, 512 GB y 1 TB. El dispositivo funciona con un procesador Apple M2 y tiene un chip R1 debajo del capó.

Una versión más económica de los auriculares Vision. Él es Rumor Se lanzará a principios del próximo año a un precio de alrededor de 2.000 dólares (aproximadamente 168.000 rupias). Se espera que funcione con un procesador menos potente y podría estar fabricado con materiales más baratos.

[ad_2]

Source Article Link

Categories
Bisnis Industri

Vision Pro pronto podría brindar diversión en los juegos con los controladores portátiles Sony VR

[ad_1]

Vision Pro pronto podría brindar diversión en los juegos con los controladores portátiles Sony VR

Es posible que Vision Pro pronto reciba algunos accesorios nuevos de Sony.
Imagen: Apple/Sony

Se dice que la compatibilidad con los controladores manuales Sony PlayStation VR2 llegará a los auriculares Vision Pro de Apple. Se supone que el objetivo es facilitar la reproducción de juegos de realidad virtual en auriculares AR.

Apple y Sony supuestamente trabajaron juntos durante meses para que esto sucediera.

Vision Pro puede admitir controladores manuales PlayStation VR2

Vision Pro es la primera incursión de Apple en lo que la compañía llama “Computación espacialLos auriculares se centran en la realidad aumentada, que superpone contenido generado por computadora sobre el mundo real, aunque también ofrece realidad virtual.

Los juegos son uno de los usos más populares de la realidad virtual, pero tras su lanzamiento a principios de este año, Vision Pro generó críticas de algunos jugadores por su falta de controladores de juegos reales. En cambio, los auriculares de Apple utilizan cámaras para rastrear los movimientos de las manos de los usuarios, que supuestamente no son lo suficientemente precisos para juegos avanzados.

Pero parece que hay una solución en camino.

“Apple contactó a Sony a principios de este año y ambos acordaron trabajar juntos para lanzar soporte para Controladores manuales PlayStation VR2 en Vision Pro“,” BloombergMark Gurman informó el domingo.

Controladores PSVR 2 Sense Se envuelve alrededor de cada una de las manos del usuario y ofrece un giroscopio de 3 ejes y un acelerómetro de 3 ejes. También están integrados botones, gatillos y palancas.

Sin embargo, se necesitará algo más que hardware. Detrás de escena, Apple supuestamente insta a los desarrolladores a admitir controladores en sus juegos. Según se informa, los controladores se pueden usar fuera de los juegos, y VisionOS toma sus entradas para reemplazar los gestos habituales con las manos.

¿casi?

Los informes indicaron que “Apple y Sony originalmente tenían la intención de anunciar esta capacidad hace semanas, pero su lanzamiento se pospuso”. BloombergGorman. “Espero que el anuncio se haga en algún momento, a menos que se cancele repentinamente.

Sony actualmente no vende los controladores sin auriculares, pero eso tendrá que cambiar para que los propietarios de Vision Pro puedan comprarlos. Lo cual es una buena noticia para los propietarios de PlayStation VR2 que solo quieren un controlador de reemplazo.



[ad_2]

Source Article Link

Categories
Featured

Revisión de Microsoft Flight Simulator 2024: una visión lujosa de la simulación de vuelo, decepcionada por alguna ejecución de Ryanair

[ad_1]

Antes de este año microsoft Simulador de vuelo 2024El desarrollador Asobo logró algo trascendental en 2020: encontró una manera de crear… Simulador de vuelo El juego no sólo parece relevante para el público general, sino que también es vital. Durante al menos unas semanas, en aquellos tiempos más extraños que convincentes, todos éramos pilotos en ciernes, ahuyentando nuestra fiebre de cabina cerrada explorando la Tierra virtual desde arriba.

Revisar información

Plataforma revisada: computadora
Disponible en: Serie Xbox
fecha de lanzamiento: 19 de noviembre de 2024

Tecnología: algo de magia oscura sacada Bing Los datos cartográficos de la nube a través de Microsoft Azure fueron tan llamativos que incluso personas que nunca soñarían con comprar su propia cabina dejaron lo que estaban haciendo y prestaron atención. El problema, por supuesto, fue que no hubo mucho juego.

[ad_2]

Source Article Link

Categories
News

Google ofrece el conjunto PaliGemma 2 de modelos de lenguaje y visión de código abierto para IA

[ad_1]

Google PaliGemma presentó el jueves un modelo de lenguaje visual para inteligencia artificial (IA). La familia de modelos de IA, denominada PaliGemma 2, mejora las capacidades de la generación anterior. El gigante tecnológico con sede en Mountain View dijo que el modelo de lenguaje de visión puede ver, comprender e interactuar con entradas visuales como imágenes y otros activos visuales. Fue construido utilizando Gemma 2 Small Language Models (SLM) lanzado en agosto. Curiosamente, el gigante tecnológico afirmó que el modelo puede analizar el sentimiento en las fotos cargadas.

Modelo de inteligencia artificial de Google Palijima

en un Publicación de blogel gigante tecnológico ha detallado el nuevo modelo de IA PaliGemma 2. Si bien Google tiene muchos modelos de lenguaje visual, PaliGemma fue el primero de la familia Gemma. Los modelos de visión se diferencian de los típicos modelos de lenguaje grande (LLM) en que contienen codificadores adicionales que pueden analizar contenido visual y transformarlo en un formato de datos familiar. De esta manera, los modelos de visión técnicamente pueden “ver” y comprender el mundo exterior.

Una ventaja de un modelo de visión más pequeño es que se puede utilizar para una gran cantidad de aplicaciones, ya que los modelos más pequeños mejoran en términos de velocidad y precisión. Dado que PaliGemma 2 es de código abierto, los desarrolladores pueden utilizar sus capacidades para crear aplicaciones.

PaliGemma 2 viene con tres tamaños de parámetros diferentes: 3B, 10B y 28B. También está disponible en 224p, 448p y 896p. Por este motivo, el gigante tecnológico afirma que es fácil mejorar el rendimiento de un modelo de IA para una amplia gama de tareas. Google dice que crea títulos detallados y contextualmente relevantes para las imágenes. No sólo puede identificar objetos, sino que también puede describir acciones, emociones y la narrativa general de una escena.

Google destacó que la herramienta se puede utilizar para reconocer fórmulas químicas, reconocer partituras musicales, razonamiento espacial y generar informes de radiografías de tórax. La empresa también publicó A papel En la revista electrónica preimpresa arXiv.

Los desarrolladores y entusiastas de la IA pueden descargar el modelo y el código de PaliGemma 2 en Hugging Face y Kaggle aquí y aquí. El modelo de IA admite marcos como Hugging Face Transformers, Keras, PyTorch, JAX y Gemma.cpp.

[ad_2]

Source Article Link

Categories
News

Microsoft presenta Copilot Vision en vista previa, puede comprender la actividad de navegación del usuario

[ad_1]

microsoft El jueves introdujo una nueva capacidad de inteligencia artificial (IA) para Copilot. Llamado Copilot Vision, ahora permite que un chatbot impulsado por IA vea y comprenda el contexto de lo que un usuario está haciendo en línea. El gigante tecnológico con sede en Redmond dijo que el software de Copilot puede acceder al navegador Microsoft Edge. El chatbot con visión habilitada ahora puede monitorear qué sitios web y páginas web está navegando un usuario y luego puede ejecutar ciertos comandos cuando se le solicite. Esta capacidad está actualmente disponible en versión preliminar para un número selecto de suscriptores de Copilot Pro en los Estados Unidos.

Visión del copiloto de Microsoft

El fabricante de Windows está intentando incorporar un chatbot con tecnología de inteligencia artificial Copiloto A la vanguardia de la experiencia de PC. Anteriormente, presentó agentes de IA diseñados específicamente para completar tareas en PC, y ahora ha agregado otra capacidad a Copilot que le permitirá responder consultas de los usuarios en función de su actividad relacionada con el navegador, según Publicación de blog. En particular, Copilot Vision no es una función de agente, por lo que la IA no puede realizar acciones en nombre del usuario.

Copilot Vision puede comprender el contexto completo de lo que ve un usuario en el navegador Edge. Puede ver imágenes y objetos, leer texto e incluso comprender los botones de navegación. El chatbot con visión habilitada estará ubicado en la parte inferior de la pantalla y los usuarios podrán escribir o pronunciar el mensaje.

En términos de lo que la IA puede hacer, puede responder preguntas, resumir y traducir texto y resaltar ciertas partes de la página cuando se le solicite. Microsoft afirma que Copilot Vision también puede actuar como asistente de juego y ayudar al usuario a comprender cómo jugar juegos como GeoGuessr y brindar consejos mientras juega ajedrez en línea.

Destacando ejemplos, el gigante tecnológico dijo que Copilot Vision puede ayudar a los usuarios a planificar una visita al museo señalando información importante que el usuario debe conocer. También puede ayudar a los usuarios con las compras recomendando productos adecuados según las necesidades y preferencias del usuario.

En cuanto a privacidad y seguridad, Microsoft afirmó que Copilot Vision estará completamente habilitado y los usuarios podrán decidir cuándo encenderlo y cuándo apagarlo. La IA no podrá ver algo que el usuario no quiera. Además, cualquier dato de la conversación con la IA se eliminará al final de cada sesión. Sin embargo, las respuestas del copiloto quedan registradas y se utilizarán para mejorar los sistemas de seguridad de la compañía.

Microsoft también agregó que Copilot Vision no captura, almacena ni utiliza ningún dato de los editores para entrenar sus modelos de IA. También está trabajando con un grupo de evaluadores externos (miembros del equipo rojo) para mejorar la seguridad de la nueva función.

Copilot Vision se está implementando actualmente para un número limitado de suscriptores de Copilot Pro en los EE. UU. y se puede acceder a él a través de Copilot Labs. En particular, Vision actualmente solo funcionará en un grupo selecto de sitios web y la funcionalidad se irá ampliando gradualmente.

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para más detalles.

[ad_2]

Source Article Link

Categories
Life Style

Microsoft Copilot Vision, su compañero de navegación web, ahora está en modo de vista previa

[ad_1]

Navegar por Internet es una “experiencia solitaria”, afirma. microsoft. Copilot Vision es tu compañero impulsado por IA que puede procesar visualmente lo que estás navegando y ayudarte en el camino.

jueves microsoft Anunciar Versión preliminar de Copilot Vision para suscriptores de Copilot Pro. Microsoft presentó Vision en octubre como una solución al problema de que los usuarios tienen que explicar lo que ven a Copilot.

Vision está en la parte inferior del navegador Microsoft Edge y, cuando está habilitado, “ve la página en la que se encuentra, la lee con usted y pueden hablar juntos sobre el problema que tienen”.

Vision es una de las primeras funciones que debutará en Copilot Labs, un campo de pruebas para proyectos de IA. Labs, que tiene un aspecto notablemente más suave y cálido, es la forma que tiene Microsoft de compartir “trabajos en progreso” orientados a ayudar a los usuarios con las tareas cotidianas.

Velocidad de la luz triturable

Una demostración muestra a Copilot Vision ayudando a un usuario a encontrar el lugar adecuado para quedarse, mientras que otra ayuda al usuario a comprender fotografías de las recetas escritas a mano de su abuela. También puede ayudarle con Minecraft o con las compras navideñas al señalar los productos apropiados en la página.

Cómo maneja Copilot Vision la privacidad

Si Copilot Vision le recuerda Llamar a Windowsmicrosoft “Pesadilla de privacidad“Una herramienta que constantemente toma capturas de pantalla de la pantalla de su computadora, tiene varias diferencias clave. En primer lugar, Vision está habilitado, por lo que puede elegir si desea usarlo. En segundo lugar, una vez que finaliza la sesión, su conversación con Copilot se vuelve privada. Sin embargo, , “las respuestas del copiloto se graban sólo para mejorar nuestros sistemas de seguridad”, se lee en el anuncio.

Microsoft también ha pensado en algunos problemas difíciles de navegación web cuando se trata de información confidencial de pago. Vision solo funciona con un grupo selecto de sitios web por el momento y está programado para “no proporcionar respuestas basadas en contenido de pago”, según su página de preguntas frecuentes.

Es importante destacar que Microsoft dice que Copilot Vision no almacena ni utiliza ningún contenido del editor para entrenar sus modelos. Microsoft también dice que Vision “respeta los controles del sitio web para el uso de su contenido por parte de Copilot”, lo que probablemente significa sitios con código robots.txt que bloquea los rastreadores web. Mashable se comunicó con Microsoft para obtener más aclaraciones sobre los controles de datos de Vision y actualizará esta historia con una respuesta.

A partir de hoy, Copilot Vision se implementará para un grupo limitado de suscriptores de Copilot Pro. Una suscripción a Copilot Pro cuesta $20 por mes.



[ad_2]

Source Article Link