La función ChatGPT Live Video que se detectó en la última versión beta podría lanzarse pronto



ChatGPT Es posible que pronto obtenga la capacidad de responder consultas después de mirar la cámara de su teléfono inteligente. Según el informe, se ha detectado evidencia de la función Live Video, que es parte del modo de audio avanzado de OpenAI, en la última versión beta de la aplicación ChatGPT para Android. Esta fue la primera habilidad Probado En mayo durante el evento Spring Updates de la compañía AI. Permite que el chatbot acceda a la cámara del teléfono inteligente y responda consultas sobre el entorno del usuario en tiempo real. Si bien la capacidad de audio emocional se lanzó hace un par de meses, la compañía aún no ha anunciado una posible fecha de lanzamiento para la función de video en vivo.

La función ChatGPT Live Video se ha descubierto en la última versión beta

Ensalada de robots un informe Detalló la evidencia de la función Live Video, que se encontró durante el desmantelamiento de la aplicación del Android Package Kit (APK). Se vieron varias cadenas de código relacionadas con la capacidad en ChatGPT beta para Android 1.2024.317.

En particular, la función de video en vivo es parte del modo de voz avanzado de ChatGPT y permite que el chatbot de IA procese datos de video en tiempo real para responder consultas e interactuar con el usuario en tiempo real. A través de esto, ChatGPT puede escanear el refrigerador de un usuario, escanear ingredientes y sugerir una receta. También puede analizar las expresiones del usuario e intentar medir su estado de ánimo. A esto se le suma la capacidad de voz emocional que permite a la IA hablar de una manera más natural y expresiva.

See also  ¿Podría una supernova amenazar la supervivencia de la Tierra? Esto es lo que necesitas saber

Según el informe, se vieron varias cadenas de código relacionadas con la función. Uno de esos hilos dice: “Toca el ícono de la cámara para permitir que ChatGPT vea y charle sobre tu entorno”, que es la misma descripción. AbiertoAI Se presentó la función durante una demostración.

Se dice que otras cadenas incluyen frases como “Live Camera” y “Beta”, que resaltan que la función puede funcionar en tiempo real y que está en desarrollo y probablemente se lanzará primero a los usuarios beta.

Otra cadena de código también aconseja a los usuarios que no utilicen la función de vídeo en vivo para navegación en vivo o decisiones que podrían afectar la salud o seguridad de los usuarios.

Si bien la presencia de estos hilos no indica el lanzamiento de la función, después de un retraso de ocho meses, esta es la primera vez que se encuentra evidencia concluyente de que la compañía está trabajando en la función. Anteriormente, OpenAI afirmó que la función se retrasó para proteger a los usuarios.

Vale la pena señalar, Google DeepMind También mostró una función de visión de IA similar en el evento Google I/O en mayo. Esta característica, parte del Proyecto Astra, permite a Gemini ver el entorno del usuario utilizando la cámara del dispositivo.

En la demostración, la herramienta de inteligencia artificial de Google puede identificar correctamente objetos, inferir las condiciones climáticas actuales e incluso recordar cosas que vio anteriormente en una sesión de video en vivo. Hasta ahora, el gigante tecnológico con sede en Mountain View no ha proporcionado un cronograma sobre cuándo se introducirá la función.

See also  El render filtrado del OnePlus 13 sugiere un diseño similar al del OnePlus 12 con pequeños ajustes



Source Article Link

Leave a Comment