Las muy esperadas capacidades de visibilidad de ChatGPT podrían estar disponibles pronto, según algunos investigadores perspicaces.
cuerpo de robot Se detectaron algunas líneas de código en Avanzado. Modo de sonido Parte de la última versión beta de ChatGPT v1.2024.317, que se refiere a algo llamado “cámara en vivo”. El icono parece ser una advertencia a los usuarios para que no utilicen la cámara en vivo para “navegación en vivo o decisiones que puedan afectar su salud o seguridad”.
Otra línea de código parece dar instrucciones sobre las capacidades de visión y dice: “Presione el ícono de la cámara para permitir que ChatGPT vea su entorno y charle sobre ellos”.
Velocidad de la luz triturable
Capacidades ChatGPT de vanguardia: visión, voz y más
La capacidad de ChatGPT para procesar información visualmente fue una característica clave que debutó en Evento abierto AI El pasado mes de mayo se inauguró GPT-4o. Las demostraciones del evento mostraron cómo GPT-4o puede usar una cámara móvil o de escritorio para identificar sujetos y recordar detalles sobre imágenes. Una demostración mostró a GPT-4o identificando a un perro que jugaba con una pelota de tenis y recordando su nombre como “Bowser”.
Desde el evento OpenAI y el posterior acceso temprano a algunos probadores alfa afortunados, no se ha dicho mucho sobre GPT-4o con Visibilidad. Mientras tanto, OpenAI ha enviado Modo de sonido avanzado Para usuarios de ChatGPT Plus y Team en septiembre.
Si la visibilidad de ChatGPT es tan inminente como sugiere el código, los usuarios pronto podrán probar ambos componentes de las nuevas funciones GPT-4o introducidas la primavera pasada.
Es posible que el tweet haya sido eliminado.
OpenAI ha estado ocupado últimamente, a pesar de los informes de Rendimientos decrecientes Con futuros modelos. El mes pasado despegó Buscar ChatGPTque conecta el modelo de IA a la web, proporcionando información en tiempo real. Es Rumor Para trabajar con algún tipo de agente capaz de realizar tareas de varios pasos en nombre de un usuario, como escribir código y navegar por la web, su lanzamiento probablemente esté programado para enero.