Categories
Life Style

Build 2024: Microsoft muestra GPT-4o con una demostración de arranque espectacular

[ad_1]

La conferencia de desarrolladores Build 2024 de Microsoft trató sobre IA y CoPilot. Microsoft ha invertido miles de millones en OpenAI y estuvo feliz de mostrar cómo las empresas pueden integrar los servicios de Azure y Open AI en sus lugares de trabajo.

Pero las cosas se pusieron un poco ridículas a los 49 minutos y 59 segundos de transmisión:

Durante el discurso de apertura del CEO Satya Nadella, el jefe de Microsoft mostró una demostración de cómo la aplicación Azure de la compañía utiliza los modelos de IA de OpenAI para ayudar a los clientes a hacer la vida más fácil a través de agentes interactivos. Nadella se jactó de que cualquier aplicación o sitio web puede convertirse en un “tablero de conversación completo, multimedia y de doble cara”.

Velocidad de la luz triturable

El vídeo está protagonizado por Sam, un hombre apurado que intenta comprar zapatos para el frío para sus vacaciones. Para ello, muestra un par de sandalias a un agente de Copilot AI y le pregunta si estas sandalias son lo suficientemente buenas para la nieve. De alguna manera, la supercomputadora AI sabe que las sandalias no son adecuadas para climas fríos. Luego, el agente de IA le da a Sam una mejor recomendación y le agradece en español, y la IA responde de la misma manera.

Al parecer la IA también tuvo acceso a la información de su tarjeta de crédito, la cual estaba extrañamente oculta.

Aunque se trataba esencialmente de un anuncio (principalmente de Copilot), la demostración mostró algunas cosas clave. La primera es cómo los desarrolladores pueden utilizar el acceso de Azure a los modelos Open AI, y la segunda es cómo esta IA puede responder a vídeos y a idiomas distintos del inglés en tiempo real. También nos enseñó una valiosa lección sobre cómo mantener los pies calientes.



[ad_2]

Source Article Link

Categories
Life Style

Copilot recibe una actualización GPT-4o más 5 funciones de IA que pueden sorprenderte

[ad_1]

Antes de la construcción 2024Microsoft ha lanzado una nueva gama de dispositivos Surface: Superficie del portátil 7 Y Superficie Pro 11 – Con nuevas capacidades de Copilot, un chatbot impulsado por IA. Por ejemplo, el gigante tecnológico con sede en Redmond anunció esto GPT-4o Dispuesto a apoyar al copiloto.

¿Qué ventajas traerá esta asociación entre Microsoft y OpenAI a Copilot? Bueno, por ejemplo, en su evento Surface del 20 de mayo, Microsoft se jactó de que los usuarios tendrían la oportunidad de “compartir su pantalla” con Copilot. En un ejemplo, un hombre le pidió al copiloto que lo viera jugar. Artesanía de Maine -Y también le da consejos.

Una demostración de Copilot que explica al usuario cómo jugar Minecraft

Una demostración de Copilot que explica al usuario cómo jugar Minecraft
Crédito: Microsoft

Copilot con GPT-4o estará disponible pronto, según Microsoft, pero incluso sin la influencia fundamental de GPT-4o, todavía hay algunas actualizaciones de Copilot que llamarán su atención.

1. Edita la foto sin abrir la aplicación.

Al demostrar las capacidades de Copilot en Surface, Microsoft se jactó de que usando su chatbot impulsado por IA, uno puede editar una imagen sin tener que abrir una aplicación.

Una demostración de copiloto con imágenes que muestran la imagen del perro.


Crédito: Microsoft

En la demostración, Microsoft se jactaba de que podías tocar una imagen y, con la integración de Copilot, eliminar el fondo con un simple toque.

Velocidad de la luz triturable

2. Las notificaciones por correo electrónico y mensajes de texto obtienen resúmenes

¿Conoce esas notificaciones que recibe en su escritorio, ya sea un mensaje de texto o un correo electrónico?

Copiloto de demostración con notificaciones.


Crédito: Microsoft

Bueno, dado que Copilot es su compañero de PC con tecnología de inteligencia artificial, puede brindarle un resumen rápido de esos mensajes, para que pueda decidir si merecen una respuesta urgente.

3. Acceda a todo lo que haya visto en su computadora con la función Recuperar

Utilizando la Unidad de Procesamiento Neural (NPU) dentro de los nuevos dispositivos Surface, la nueva función de recuperación impulsada por IA permite a los usuarios encontrar cualquier cosa que haya aparecido en su pantalla usando lenguaje natural.

Llame a la demostración en el evento Surface el 20 de mayo


Crédito: Microsoft

Por ejemplo, digamos que estabas comprando un vestido nuevo y, de repente, te desviaste y olvidaste marcar tu vestido favorito. Usando Recall, puedes escribir algo como “vestido azul” Y recupere la página web que no pudo guardar en segundos.

4. Dibuja contigo

El evento Surface abordó brevemente cómo Copilot puede dibujar contigo. En la demostración a continuación, puedes ver a un usuario dibujando su propia versión de una casa en medio de la nada.

Mostrar el dibujo del evento de superficie con el copiloto.


Crédito: Microsoft

Parece que Copilot puede convertir tu humilde dibujo en una obra maestra. Hay una barra deslizante que te permite aumentar la “creatividad” de tu dibujo y también cambiar su estilo (por ejemplo, pintura al óleo).

5. Traducción directa

Ver traducción en vivo de Copilot


Crédito: Microsoft

Microsoft también se jactó de que Copilot tiene la capacidad de activar subtítulos en tiempo real para videos, lo que permite a los usuarios traducir varios idiomas al inglés, con subtítulos.



[ad_2]

Source Article Link

Categories
Life Style

Ahora puede crear gráficos interactivos con GPT-4o: cómo llegar con ChatGPT

[ad_1]

ChatGPT, impulsado por GPT-4Oh, se ha vuelto un poco más útil para las personas a las que les gusta hacer cosas con gráficos.

Abierto AI Anunció en una publicación de blog que los miembros que pagan (niveles Plus, Team y Enterprise) podrán acceder a algunas funciones nuevas de gráficos y tablas para ahorrar tiempo “en las próximas semanas” como parte de Su nueva iniciativa es GPT-4o. Esto incluye la capacidad de cargar gráficos directamente desde Google Drive o Microsoft OneDrive a ChatGPT, en lugar de tener que descargarlos primero y luego cargarlos por separado.

Velocidad de la luz triturable

Aparte de eso, los usuarios que cargan conjuntos de datos en ChatGPT pueden manipular una nueva pantalla interactiva de pantalla completa mientras el chatbot analiza los datos. También puedes personalizar los gráficos a tu gusto y hacer preguntas si es necesario.

Este es el tipo de comodidad y ahorro de tiempo para el que la IA puede resultar útil si se hace correctamente. El director ejecutivo de OpenAI, Sam Altman, decidió comercializar GPT-4o comparándolo (de manera algo increíble) con una película distópica. Ja Porque puede acomodar y transmitir más contenido de vídeo y audio que antes. Aunque esto puede no ser del agrado de todos, poder ordenar gráficos más fácilmente puede resultar muy útil.



[ad_2]

Source Article Link

Categories
News

OpenAI GPT-4o comienza a implementarse para algunos usuarios y obtiene capacidad de búsqueda web

[ad_1]

Abierto AI GPT-4o inteligencia artificial El modelo de IA se dio a conocer el lunes y ahora se está implementando para algunos usuarios. El último modelo de inteligencia artificial de la compañía ha brindado mejoras significativas a las capacidades de visión y habla del chatbot, además de agregar una mejor comprensión del lenguaje y el contexto de las consultas. Actualmente, los usuarios obtienen el modelo AI con acceso limitado y las funciones de audio y video no están disponibles para su uso. Sin embargo, las personas pueden utilizar capacidades de búsqueda de texto y web.

Nosotros, en Gadgets 360, pudimos acceder al modelo GPT-4o el viernes por la mañana. Esto confirma que el modelo de IA estará disponible en India, incluso cuando no se especificó durante el evento de actualización de primavera de OpenAI. Sin embargo, solo estaba disponible para una pequeña cantidad de empleados, por lo que es probable que la compañía implemente el modelo de IA gradualmente y pasarán algunas semanas antes de que todos puedan usarlo. El acceso limitado también es muy restringido. Pude responder unas diez preguntas antes de que expirara el límite y volví a GPT-3.5.

GPT4o GPT-4o

GPT-4o de ChatGPT – Ver sitio web

Actualmente, los usuarios no pueden hacer nada para obtener acceso más rápido que otros. No hay lista de espera para unirse. Sin embargo, los usuarios necesitarán una cuenta OpenAI para ser elegibles para esta actualización. Una vez que GPT-4o esté disponible, los usuarios recibirán un mensaje cuando abran el sitio web indicando que ahora pueden acceder a él con capacidad limitada. Si tiene la misma cuenta en la aplicación de Android o iOS, también podrá acceder al formulario allí. Tenga en cuenta que recargar la página hará que el mensaje desaparezca.

Existe una prueba sencilla para comprobar si tienes GPT-4o o no (en caso de que te la hayas perdido). Después de abrir ChatGPT sitio web, puede ver un menú plegable en la parte superior izquierda dentro del margen. Si no tiene acceso a GPT-4o y es un usuario gratuito, se mostrará ChatGPT 3.5 y le dará la opción de registrarse en ChatGPT Plus con acceso a GPT-4. Sin embargo, si tiene acceso al nuevo modelo de IA, el menú no mencionará ningún número y simplemente dirá ChatGPT y ChatGPT Plus. Además, el ícono del rayo ha sido reemplazado por dos círculos ovalados que se cruzan (similar al ícono de un átomo simple).

GPT-4o GPT-4o móvil

GPT-4o de ChatGPT – Ver aplicación de Android

Probamos el nuevo modelo de IA y encontramos algunas mejoras en sus respuestas. Un caso de uso específico fue la resolución de ecuaciones matemáticas. En comparación con GPT-3.5, ahora muestra las respuestas en un mejor formato y no completa varios pasos a la vez. La generación creativa también se ha vuelto más flexible y el uso de su lenguaje “robótico” ha disminuido drásticamente. La mayor mejora es que este modelo puede buscar en la web para brindarle la información más reciente, por lo que ya no tiene que preocuparse de que se corte el conocimiento. Cada resultado de búsqueda web ahora incluye citas del sitio web que se utilizó para obtener la información.

[ad_2]

Source Article Link

Categories
Life Style

Cómo obtener GPT-4o con ChatGPT gratuito

[ad_1]

chat GPT, Abierto AI La popular aplicación de IA generativa recibió recientemente una importante actualización con la introducción de la nueva aplicación. GPT-4o El modelo fue presentado en OpenAI. Evento de actualización de primavera.. GPT-4o es un modelo multimedia, que se anuncia como capaz de utilizar la lógica no sólo para generar texto, sino también con entrada y salida de audio, y mediante la recepción de vídeo en vivo, todo en tiempo real. Aunque la revelación no fue un motor de búsqueda como se había rumoreado en las semanas previas al anuncio, se trataba de un motor GPT-4o. Modo asistente de voz La demostración durante la actualización de primavera no fue nada de qué burlarse.

Cómo obtener GPT-4o a través del nivel gratuito de ChatGPT

Imagen de los navegadores web ChatGPT

Así es como se ve elegir GPT-4o con una cuenta paga.
Crédito: captura de pantalla de Mashable/OpenAI

La noticia interesante para los usuarios de ChatGPT es que el modelo GPT-4o ahora está disponible para todos, incluidos aquellos en el nivel gratuito, al menos para la generación de texto. Para intentar acceder a GPT-4o, simplemente inicie sesión en su cuenta ChatGPT a través de un navegador web. En la esquina superior derecha, consulte el menú desplegable de la opción GPT-4o, denominada “Modelo más nuevo y avanzado” para OpenAI.

Velocidad de la luz triturable

Actualmente, el lanzamiento avanza lentamente en la versión del navegador y en las aplicaciones móviles y de escritorio. Es posible que los usuarios aún no vean GPT-4o en iOS o Android, y la nueva aplicación de escritorio para Mac aún se está lanzando. OpenAI planea hacer que la aplicación de escritorio esté más disponible en las próximas semanas, mientras que se espera que la versión para Windows se lance a finales de este año.

Aunque las capacidades de audio y visión de GPT-4o que se muestran en la demostración del modo Asistente personal aún no están ampliamente disponibles, los desarrolladores pueden acceder a estas capacidades a través de una interfaz de programación de aplicaciones (API). Sin embargo, si bien OpenAI tiene la intención de lanzar pronto funciones de voz para los suscriptores de ChatGPT Plus, no se sabe cuándo, o si, este increíble modo de asistente estará disponible de forma gratuita.



[ad_2]

Source Article Link

Categories
Life Style

OpenAI presenta GPT-4o y una nueva imagen pública como tu mejor amigo

[ad_1]

Música animada en el período previo. Transmisión en vivo de OpenAI El anuncio de GPT-4o y la aplicación de escritorio fue a la vez alarmante y tranquilizador, con sonidos de gotas de lluvia y el tictac de un reloj. Es una representación adecuada de la dicotomía entre lo que hace OpenAI y cómo se presenta al mundo.

Desde la selección de presentadores hasta la atmósfera amigable, incluida la relajante voz femenina de GPT-4o, que suena como una maestra de jardín de infantes, el mensaje del evento OpenAI fue: “Somos tus amigos; No somos como otras empresas de tecnología; Permítanos ayudarle”. Parece una elección muy deliberada posicionar a la empresa como un fabricante de IA en el que puede confiar, a pesar de (o quizás a la luz de) las preocupaciones actuales al respecto. infracción de copyright, Reemplazar el trabajoY Riesgos de desinformación.

Desde cero, el evento está diseñado para ser íntimo y no amenazante. Para empezar, estaba dirigida por la CTO Mira Murati en lugar del CEO Sam Altman. Moratti, la genial y hermosa CTO, ha escapado en gran medida a la controversia. navegué en Golpe de Sam Altman por Ascendido al puesto de CEO Cuando fue nombrado fue breve, pero mantuvo su apoyo a Altman, una voz firme en medio del caos.

Moratti fue la elección perfecta para liderar este evento. Con sus jeans casuales y su atuendo perfecto, irradiaba confianza, abordando preocupaciones éticas y de seguridad con un descargo de responsabilidad vago pero enfático:

GPT-4o presenta nuevos desafíos para nosotros en lo que respecta a la seguridad, porque estamos tratando con audio y visión en tiempo real y nuestro equipo ha estado trabajando arduamente para descubrir cómo crear mitigaciones contra el uso indebido. Seguimos trabajando con diversas partes interesadas del gobierno, los medios, el entretenimiento, todas las industrias, los equipos rojos y la sociedad civil sobre la mejor manera de llevar estas tecnologías al mundo.

Luego vinieron demostraciones en vivo realizadas por los líderes de investigación Mark Chen y Barrett Zoff. Los tres se reunieron con Moratti en cómodas sillas rodeadas de paneles de madera y plantas, pareciendo amigos manteniendo una conversación informal en un entorno natural y orgánico. Todo esto, por supuesto, se compensa con la demostración de una tecnología totalmente sintética capaz de recrear una voz humana capaz de hablar, expresarse, cantar e incluso interrumpir, todo en tiempo real.

Velocidad de la luz triturable

Hablando de sillas cómodas, el efecto fue muy diferente al habitual gran evento tecnológico. En los eventos de Google y Apple, normalmente verá a un orador principal parado en un escenario amplio, hablando de manera exagerada y absoluta. Hoy no hubo nada de eso por parte de OpenAI. En cambio, el evento representó lo contrario de lo que podríamos esperar en Google I/O el martes. Todo era para decir: “No somos como los demás. Puedes confiar en nosotros”.

Chen se humanizó al admitir que estaba nervioso. GTP-4o, la entidad no humana, lo guió mediante ejercicios de respiración para calmarlo. Todo parecía diseñado para asegurar al público que la nueva tecnología no era nada que temer, como si GPT-4o estuviera ahí para calmar a todos.

“Nuestra visión inicial cuando iniciamos OpenAI era que crearíamos inteligencia artificial y la usaríamos para crear todo tipo de beneficios para el mundo”, dijo Altman en un artículo. Entrada en el blog Publicado después del evento. “En cambio, ahora parece que crearemos IA y luego otros la usarán para crear todo tipo de cosas asombrosas de las que todos nos beneficiaremos”.

Pero la óptica distópica de la voz tranquilizadora y conmovedora del robot no pasó desapercibida para los espectadores. La voz de GPT-4o rápidamente generó comparaciones con la asistente de voz de Scarlett Johansson, de quien el personaje de Joaquin Phoenix se enamora en la película. Ja. Altman incluso parecía estar involucrado en la broma. gorjeo “Ella” durante el show. Entonces, cuando publicó su visión altruista de OpenAI, comparaba en broma GPT-4o con una tecnología de ciencia ficción que ha usurpado la conexión humana.

OpenAI lleva tiempo diciendo una cosa y haciendo otra. Su misión es “garantizar que la inteligencia artificial general beneficie a toda la humanidad”, pero se acusa a la empresa de entrenar sus modelos de IA con contenido extraído de la web sin crédito ni compensación. Anunciaba su generador de vídeo impulsado por IA, Sora, como una herramienta para dar vida a visiones creativas, pero… Aún no se ha revelado en qué se entrenó el modelo.aunque Muchos sospechosos Fueron datos tomados de YouTube y otros videos en la web.

La compañía continúa lanzando la tecnología sin transparencia sobre cómo se creó, pero a lo largo de todo, Altman y OpenAI insisten en que apoyan la regulación y el despliegue seguro de la IA generativa.

El mensaje es que el público debería confiar ciegamente en lo que hace OpenAI. El evento de hoy, con sus cálidos colores de madera, ligereza y risas, cristalizó esta tendencia. Si lo creemos o no es una historia diferente.



[ad_2]

Source Article Link

Categories
Life Style

¿Cuándo estará disponible el GPT-4o de OpenAI?

[ad_1]

Hoy, OpenAI Anunciar GPT-4oEs un asistente de inteligencia artificial que puede procesar texto, voz y visión simultáneamente. GPT4o será gratuito para todos los usuarios de ChatGPT, pero la empresa no lo ha dejado claro cuando La gente podrá experimentarlo.

todos dijo el director ejecutivo Sam Altman es que “el nuevo modo de voz estará disponible en las próximas semanas para usuarios plus”.

Velocidad de la luz triturable

Lo que sí sabemos es que GPT-4o estará disponible primero para los usuarios de ChatGPT Plus y Team, y luego llegará la disponibilidad para los usuarios Enterprise. Los usuarios de ChatGPT Free también tendrán acceso a la herramienta, aunque estarán sujetos a límites de uso no especificados. Según OpenAI“Además, los usuarios tendrán límites de mensajes hasta 5 veces mayores que los usuarios gratuitos, y los usuarios Team y Enterprise tendrán límites más altos”.

Su acceso a GPT-4o puede ser limitado, pero OpenAI promete que los usuarios de ChatGPT Free podrán acceder a nuevas funciones en las próximas semanas, incluidas GPT-4 El nivel de inteligencia que puede análisis de los datosY crear diagramas y Charla sobre fotos Tomar también como una opción Subir archivo Para que GPT-4o pueda resumir, escribir o analizar un documento.



[ad_2]

Source Article Link

Categories
News

Al anunciar OpenAI GPT-4o con respuestas en tiempo real e interacción de video, las funciones de GPT-4 ahora están disponibles de forma gratuita

[ad_1]

AbiertoAI El lunes celebró su tan esperado evento de actualización de primavera, donde anunció una nueva aplicación de escritorio para ChatGPT, cambios menores en la interfaz de usuario para el cliente web ChatGPT y un nuevo nivel principal. inteligencia artificial (AI) Un modelo llamado GPT-4o. El evento se transmitió en línea a través de YouTube y se llevó a cabo frente a una pequeña audiencia en vivo. Durante el evento, la compañía de IA también anunció que todos… GPT-4 Las funciones, que hasta ahora solo estaban disponibles para usuarios premium, ahora estarán disponibles para todos de forma gratuita.

Actualización de la interfaz y la aplicación de escritorio ChatGPT de OpenAI

Mira Moratti, Directora Técnica de OpenAI, inauguró el evento y lanzó las novedades ChatGPT Aplicación de escritorio, que ahora viene con visión por computadora y puede mirar la pantalla del usuario. Los usuarios podrán activar y desactivar esta función, y la IA analizará y ayudará con todo lo que se muestra. El CTO también reveló que la versión web de ChatGPT recibirá una actualización menor de la interfaz. La nueva interfaz de usuario tiene una apariencia simple y los usuarios verán tarjetas de sugerencias al ingresar al sitio. Los íconos también son más pequeños y ocultan todo el panel lateral, lo que hace que haya más pantalla disponible para conversaciones. En particular, ChatGPT ahora también puede acceder al navegador web y proporcionar resultados de búsqueda en tiempo real.

Características de GPT-4o

La atracción principal en el evento OpenAI fue el último modelo de IA innovador de la compañía llamado GPT-4o, donde la 'o' significa modelo integral. Moratti destaca esa nueva chatbot Es dos veces más rápido, un 50 por ciento más barato y tiene límites de velocidad cinco veces más altos que el modelo GPT-4 Turbo.

GPT-4o también proporciona mejoras significativas en la latencia de respuesta y puede generar respuestas en tiempo real incluso en modo de voz. En una demostración en vivo del modelo de IA, OpenAI demostró que puede hablar en tiempo real y responder al usuario. ChatGPT que ejecuta GPT-4o ahora también se puede interrumpir para responder una pregunta diferente, lo que antes era imposible. Sin embargo, la mayor mejora en el modelo presentado es la inclusión de sonidos emocionales.

Ahora, cuando ChatGPT habla, sus respuestas contienen diferentes modulaciones de voz, lo que lo hace sonar más humano y menos robótico. La demostración demostró que la IA también puede captar las emociones humanas en el habla y responder a ellas. Por ejemplo, si un usuario habla con voz de pánico, hablará con voz ansiosa.

También se han realizado mejoras en la visión por computadora y, según demostraciones en vivo, ahora puede procesar y responder al video en vivo desde la cámara del dispositivo. Puede ver al usuario resolviendo una ecuación matemática y proporciona instrucciones paso a paso. También puede corregir al usuario en tiempo real si comete un error. Asimismo, ahora puede procesar y analizar grandes datos de codificación sobre la marcha y compartir sugerencias de mejora. Finalmente, los usuarios ahora pueden abrir la cámara y hablar con sus rostros visibles, y la IA puede detectar sus emociones.

Finalmente, otra demostración en vivo destacó que ChatGPT, impulsado por el último modelo de inteligencia artificial, también puede realizar traducciones de voz en vivo y hablar varios idiomas en rápida sucesión. Si bien OpenAI no mencionó el precio de suscripción para acceder al modelo GPT-4o, sí destacó que se implementará en las próximas semanas y estará disponible como una Interfaz de programación de aplicaciones (API).

GPT-4 ahora está disponible gratis

Además de todos los nuevos lanzamientos, OpenAI también ha puesto a disposición de forma gratuita el modelo GPT-4 AI, incluidas sus funciones. Las personas que utilicen el nivel gratuito de la plataforma tendrán acceso a funciones como GPT (pequeños chatbots diseñados para casos de uso específicos), la Tienda GPT y una función de memoria a través de la cual la IA puede recordar al usuario e información específica sobre él para futuras conversaciones. y análisis de datos avanzados sin pagar nada.

[ad_2]

Source Article Link

Categories
Life Style

OpenAI Live Streaming: GPT-4o con “multimedia nativa” y acceso gratuito para usuarios de ChatGPT

[ad_1]

AbiertoAI Presentó GPT-4o, un nuevo modelo de inteligencia artificial que combina texto, visión y voz.

Entonces El muy esperado evento de transmisión en vivo, Mira Murati, CTO de OpenAI, dijo que GPT-4o puede procesar texto, audio y visión en un solo modelo. GPT-4o estará disponible gratuitamente para todos los usuarios de ChatGPT. También está disponible en la API, cuesta la mitad de precio y es 2 veces más rápido que GPT -4 Turbo. La “o” del nombre significa “omni”, en referencia a sus modalidades combinadas en un único modelo.

Capacidades de audio GPT-4o

Anuncio confirmado Rumores anteriores sobre un asistente de voz. Anteriormente existían modelos separados para las modalidades de audio y vídeo. Pero GPT-4o es “multimedia nativa”, Él dijo El director ejecutivo de OpenAI, Sam Altman, habla sobre X.

Ahora, GPT-4o combina los métodos, reduciendo la latencia y haciéndolo receptivo en tiempo real. Esto significa que puede interrumpir el formulario. También puede sentir y expresar emociones y tonos, lo que le hace parecer demasiado dramático o robótico. Incluso puede cantar (si quieres).

La suave voz femenina utilizada en la demostración se parece mucho al personaje asistente de voz de Scarlett Johansson en la película. Ja.

Velocidad de la luz triturable

Capacidades de visión GPT-4o

Otra demostración demostró la capacidad de GPT-4o para ayudar a resolver problemas matemáticos utilizando su método de visión. Puede guiar al usuario a través de un problema matemático básico al resolver un problema.

A través de consultas de usuarios, ChatGPT con GPT-4o ha demostrado su capacidad para traducir en tiempo real y comprender sentimientos.

Murati inició el evento compartiendo la disponibilidad de una nueva aplicación de escritorio.

Anteriormente, se rumoreaba que OpenAI anunciaría un motor de búsqueda ChatGPT o un nuevo modelo de compilador GPT-5 antes. E/S de Google. El director ejecutivo Sam Altman desmintió estos rumores antes del evento del lunes, pero se cree que todavía están en desarrollo.



[ad_2]

Source Article Link