Históricamente, Apple se ha centrado en la privacidad y la seguridad, a menudo manejando tareas de IA en el dispositivo en lugar de depender de soluciones basadas en la nube. Este enfoque limitó las capacidades de Siri en comparación con competidores como Abierto AI Y Modelos avanzados de inteligencia artificial de Google.
Velocidad de la luz triturable
Con iOS 18, Gorman dijo que Apple planea ofrecer una combinación de funciones de inteligencia artificial basadas en la nube y en el dispositivo. Las mejoras incluirán más interacciones conversacionales con Siri, resúmenes automáticos mejorados de notificaciones y artículos de noticias, mejor transcripción de notas de voz y edición de imágenes basada en IA. Sin embargo, Gorman informó que la tecnología de inteligencia artificial generativa de Apple aún no está lo suficientemente avanzada como para igualar las capacidades de los principales chatbots como ChatGPT o Gemini de Google.
Apple se está asociando con OpenAI para cerrar esta brecha integrando ChatGPT en iOS 18. Esta asociación tiene como objetivo proporcionar potentes funciones de IA a medida que Apple continúa desarrollando su propia tecnología de IA. Se espera que esta colaboración sea anunciada en Apple Conferencia Mundial de Desarrolladores (WWDC) en junio.
OpenAI y Reddit entró en una sociedad que vería inteligencia artificial (IA) Obtiene acceso a datos de Reddit en tiempo real para ChatGPT y cualquier producto nuevo de IA que la empresa lance en el futuro. Reddit también podrá aprovechar la tecnología OpenAI para incorporar funciones impulsadas por IA a su plataforma. OpenAI también se convertirá en anunciante en la plataforma de este último. Cabe señalar que la plataforma de redes sociales firmó un Oferta similar Con Google en febrero, estaba valorado en 60 millones de dólares (alrededor de 500 millones de rupias) al año.
Los detalles de la asociación se compartieron en una publicación de blog. correo De Reddit. Pero no se revelaron los términos financieros. OpenAI obtendrá acceso a la API de datos de Reddit, lo que permitirá a la empresa extraer contenido en tiempo real de la plataforma y utilizarlo. ChatGPT y productos futuros. Curiosamente, no se mencionó si los datos se utilizarán para entrenar modelos de IA o aparecerán como resultados de consultas. Esto último no estaría descartado ya que varios rumores recientes sugieren que OpenAI es un trabajo En un motor de búsqueda impulsado por inteligencia artificial que puede competir con la Búsqueda de Google.
Reddit también se beneficia de este acuerdo ya que la plataforma de redes sociales tendrá acceso a él. Abierto AI Modelos de IA para crear funciones para su plataforma. La compañía dijo que pronto ofrecerá funciones de inteligencia artificial para redditors y mods (moderadores de subreddits).
En particular, OpenAI hizo una revelación en su anuncio. correoConfirmando que el director ejecutivo de la empresa, Sam Altman, fue colaborador de Reddit. Sin embargo, el acuerdo fue supervisado por el director de operaciones Brad Lightcap y aprobado por su junta directiva independiente. En particular, la SEC (Comisión de Bolsa y Valores) limaduras Desde Reddit destacaron que Altman es el tercer mayor accionista de la empresa.
El año pasado, Reddit provocó indignación en su comunidad porque… anuncio Sus intenciones son cobrar tarifas por su API, que sigue siendo gratuita desde la fundación de la empresa. Este cambio no fue bien recibido en la comunidad ya que muchas aplicaciones de terceros que usaban su API no pudieron hacerlo funcionar y muchos subreddits se volvieron privados para protestar por la medida. Sin embargo, la empresa se mantuvo firme en su decisión. Ahora, un año después, la API es una herramienta comercial que ya se vendió a Google y OpenAI. La plataforma de redes sociales se hizo pública en marzo de 2024.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
ChatGPT Obtiene una nueva función Connect Apps que permitirá a los usuarios integrar Google Drive y Microsoft OneDrive con inteligencia artificial (Inteligencia Artificial). Esta función permitirá a los usuarios eliminar la molestia de descargar documentos a sus dispositivos y luego cargarlos manualmente en la plataforma de IA. Sin embargo, esta función solo está disponible para usuarios pagos del chatbot, que incluye usuarios de ChatGPT Plus, Teams y Enterprise. Cabe señalar que la empresa de inteligencia artificial también comenzó de forma paulatina. Despliegue GPT-4o para usuarios a nivel mundial.
Esta característica fue anunciada por OpenAI a través de un blog. correoTambién ofrece algunas características adicionales. Todas estas características son parte de la actualización de primavera de la compañía, que también reveló un modelo de IA GPT-4o que tiene capacidades de voz emocional y visión por computadora. Ahora, los usuarios pagos de ChatGPT tendrán la opción de carga directa Google Hojas de cálculo, documentos, presentaciones y microsoft Archivos de Excel, Word y PowerPoint a ChatGPT con la nueva función Connect Apps.
La opción Connect Apps permitirá a los usuarios integrar su servicio principal de almacenamiento en la nube entre Google Drive y microsoft OneDrive (Cuenta empresarial y cuenta personal) con la plataforma. Si bien la empresa no especificó esto, esta función debería estar disponible tanto en el sitio web como en las aplicaciones móviles. Para encontrar la función, los usuarios deberán tocar el ícono del clip ubicado en el borde izquierdo del campo de texto. Al tocar la opción de menú, se abrirá un cuadro más grande que mostrará el almacenamiento en la nube de Google y Microsoft que se puede conectar.
Una vez conectados, los usuarios pueden cargar archivos directamente y el chatbot de IA los procesará. Aparte de esto, OpenAI también ofrece tablas y gráficos interactivos para ChatGPT. Ahora, cuando la plataforma crea una tabla o un gráfico, los usuarios pueden interactuar con él y realizar modificaciones. Aunque no podrán realizar ediciones manuales en este momento, pueden escribir mensajes adicionales para reagrupar tablas o cambiar los colores del gráfico circular, y la IA lo hará.
Después de preparar el gráfico o tabla final, los usuarios también podrán descargarlo. OpenAI dice que la función interactiva admite múltiples tipos de gráficos y, si el tipo especificado por el usuario no está disponible, el chatbot generará un gráfico estático.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
ChatGPT, impulsado por GPT-4Oh, se ha vuelto un poco más útil para las personas a las que les gusta hacer cosas con gráficos.
Abierto AI Anunció en una publicación de blog que los miembros que pagan (niveles Plus, Team y Enterprise) podrán acceder a algunas funciones nuevas de gráficos y tablas para ahorrar tiempo “en las próximas semanas” como parte de Su nueva iniciativa es GPT-4o. Esto incluye la capacidad de cargar gráficos directamente desde Google Drive o Microsoft OneDrive a ChatGPT, en lugar de tener que descargarlos primero y luego cargarlos por separado.
Aparte de eso, los usuarios que cargan conjuntos de datos en ChatGPT pueden manipular una nueva pantalla interactiva de pantalla completa mientras el chatbot analiza los datos. También puedes personalizar los gráficos a tu gusto y hacer preguntas si es necesario.
Este es el tipo de comodidad y ahorro de tiempo para el que la IA puede resultar útil si se hace correctamente. El director ejecutivo de OpenAI, Sam Altman, decidió comercializar GPT-4o comparándolo (de manera algo increíble) con una película distópica. Ja Porque puede acomodar y transmitir más contenido de vídeo y audio que antes. Aunque esto puede no ser del agrado de todos, poder ordenar gráficos más fácilmente puede resultar muy útil.
Abierto AI anunció su última actualización para ChatGPT Incluirá nuevas integraciones con los mejores Almacenamiento en la nube Drives para permitir a los usuarios empresariales arrastrar archivos desde Google Drive y OneDrive para obtener contexto adicional.
Está previsto que las mejoras se implementen en las próximas semanas y se basarán en el último modelo GPT-4o de la compañía.
Sin embargo, existe un problema, porque los usuarios gratuitos no se beneficiarán de las últimas actualizaciones. En cambio, los usuarios Plus, Team y Enterprise estarán en la cima, lo que significa que tendrás que pagar al menos $20 por mes si quieres ser parte de las mejoras.
Integración de ChatGPT con OneDrive y Google Drive
Como parte de la actualización, los usuarios pronto podrán acceder a archivos desde plataformas de almacenamiento en la nube a través de una nueva integración que eliminará la necesidad de descargar y cargar archivos manualmente. chatbot.
OpenAI dice que “esto permite que ChatGPT comprenda sus datos [documents] Mas rapido.”
Aunque los titulares de cuentas gratuitas se perderán una integración más estrecha, todas las cuentas podrán seguir cargando archivos directamente en la ventana, como ya es el caso.
Junto con esta útil incorporación, ChatGPT también ha adquirido nuevas capacidades interactivas con tablas y gráficos. Por ejemplo, al hacer clic en una entrada de datos específica, ChatGPT proporcionará respuestas más contextuales.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Al utilizar estas dos funciones juntas, los usuarios pagos podrán crear, personalizar e interactuar con gráficos de barras, líneas, circulares y de dispersión, antes de descargarlos para usarlos en presentaciones y documentos.
Además, el nuevo modelo GPT-4o de la compañía, que acepta y crea cualquier combinación de texto, audio, imágenes y video, ahora se está implementando en todos los niveles, incluidas las cuentas gratuitas. Sin embargo, las cuentas pagas tendrán acceso a más funciones.
chat GPT, Abierto AI La popular aplicación de IA generativa recibió recientemente una importante actualización con la introducción de la nueva aplicación. GPT-4o El modelo fue presentado en OpenAI. Evento de actualización de primavera.. GPT-4o es un modelo multimedia, que se anuncia como capaz de utilizar la lógica no sólo para generar texto, sino también con entrada y salida de audio, y mediante la recepción de vídeo en vivo, todo en tiempo real. Aunque la revelación no fue un motor de búsqueda como se había rumoreado en las semanas previas al anuncio, se trataba de un motor GPT-4o. Modo asistente de voz La demostración durante la actualización de primavera no fue nada de qué burlarse.
Cómo obtener GPT-4o a través del nivel gratuito de ChatGPT
Así es como se ve elegir GPT-4o con una cuenta paga. Crédito: captura de pantalla de Mashable/OpenAI
La noticia interesante para los usuarios de ChatGPT es que el modelo GPT-4o ahora está disponible para todos, incluidos aquellos en el nivel gratuito, al menos para la generación de texto. Para intentar acceder a GPT-4o, simplemente inicie sesión en su cuenta ChatGPT a través de un navegador web. En la esquina superior derecha, consulte el menú desplegable de la opción GPT-4o, denominada “Modelo más nuevo y avanzado” para OpenAI.
Actualmente, el lanzamiento avanza lentamente en la versión del navegador y en las aplicaciones móviles y de escritorio. Es posible que los usuarios aún no vean GPT-4o en iOS o Android, y la nueva aplicación de escritorio para Mac aún se está lanzando. OpenAI planea hacer que la aplicación de escritorio esté más disponible en las próximas semanas, mientras que se espera que la versión para Windows se lance a finales de este año.
Aunque las capacidades de audio y visión de GPT-4o que se muestran en la demostración del modo Asistente personal aún no están ampliamente disponibles, los desarrolladores pueden acceder a estas capacidades a través de una interfaz de programación de aplicaciones (API). Sin embargo, si bien OpenAI tiene la intención de lanzar pronto funciones de voz para los suscriptores de ChatGPT Plus, no se sabe cuándo, o si, este increíble modo de asistente estará disponible de forma gratuita.
La aplicación gratuita para macOS estará inicialmente disponible para los suscriptores de ChatGPT Plus y está previsto que se lance más ampliamente en las próximas semanas.
La aplicación Mac ChatGPT tendrá acceso al modelo GPT-4o
Hasta ahora, sólo podías acceder a ChatGPT a través de un navegador en tu Mac. La versión de la aplicación nativa de Mac cambiará esto.
OpenAI anunció la nueva aplicación para Mac durante su evento de prensa el martes. Proporcionará la misma funcionalidad que la aplicación web, incluido el acceso al último GPT-4o.
OpenAI afirma que GPT-4o es una versión actualizada de GPT-4 que es mucho más rápida y presenta capacidades mejoradas de texto, audio y visión. También tiene capacidades multimedia nativas. A diferencia de GPT-4, estará disponible de forma gratuita para usuarios no pagos.
Además de temas específicos, puedes hacerle preguntas al chatbot directamente relacionadas con lo que aparece en la pantalla de tu Mac. También hay un atajo de Opción + Espacio que mostrará ChatGPT en una ventana similar a Spotlight, lo que le permitirá hacer preguntas rápidamente.
Puede cargar un archivo o una imagen directamente o usar la aplicación ChatGPT para Mac para tomar una captura de pantalla y hacer preguntas relacionadas.
ChatGPT para Mac tiene soporte para modo de voz
La aplicación Mac ChatGPT tendrá un modo de voz. imagen: AbiertoAI
ChatGPT para Mac admitirá el modo de voz para chats de voz. Utilice el icono de auriculares en la aplicación para iniciar una conversación. La función se mejorará en el futuro una vez que OpenAI implemente las capacidades de audio y video de GPT-4o.
Según la demostración de OpenAI, las capacidades de voz de ChatGPT podrían convertirlo en una excelente alternativa a Siri, especialmente porque puede analizar el contenido en pantalla para proporcionar respuestas contextuales.
OpenAI también está trabajando en una implementación ChatGPT para Windows que debutará a finales de este año.
nada Está ampliando la integración de ChatGPT a toda su línea de dispositivos de audio, así como a todos los auriculares lanzados bajo su marca CMF. Lanzó la marca de teléfonos inteligentes con sede en Londres. nada oreja Y Ninguno oído un el mes pasado, cuáles fueron los primeros auriculares verdaderamente inalámbricos de la marca en obtener la integración nativa del chatbot de inteligencia artificial (IA) de OpenAI. Los usuarios pueden iniciar el chatbot simplemente presionando el vástago del dispositivo. Ahora, esta funcionalidad se amplía a todos los auriculares de la marca.
el anuncio Provino del identificador oficial X (anteriormente Twitter) de Nothing, que también mencionó la lista de auriculares que obtendrán la función. Según la compañía, también obtendrá Ear 1, Ear Stick, Ear 2, CMF Buds, CMF Neckband Pro y CMF Buds Pro. ChatGPT Fusión. Curiosamente, esta lista también incluye los Ear 1, que son los primeros auriculares verdaderamente inalámbricos de la compañía.
Sin embargo, existen algunas advertencias antes de que los usuarios puedan acceder a ChatGPT directamente a través de sus auriculares. En primer lugar, existe un proceso de doble suscripción. Nada que el cofundador y director ejecutivo Carl Pei haya explicado por separado correo Los usuarios primero deberán descargar la aplicación ChatGPT en el teléfono inteligente y luego configurar el iniciador para activar el chatbot a través de Nothing. Sin embargo, una vez que se cumplan estas condiciones, los usuarios podrán acceder fácilmente al modelo de IA sin necesidad de un teléfono.
La integración de ChatGPT permite a los usuarios realizar una consulta verbal a chatbot Y obtenga la respuesta directamente a través de auriculares. Se espera que esta integración mejore ahora que se ha desarrollado OpenAI. quitar el velo Modelo GPT-4o que presenta conversaciones verbales y sonidos emocionales en tiempo real. Además, con el procesamiento de vídeo en tiempo real, el usuario también puede mostrar algo al chatbot y obtener una respuesta instantánea al respecto. La empresa de inteligencia artificial está implementando estas funciones lentamente.
Aunque la lista no incluye Nothing Ear y Ear A, sí tiene integración ChatGPT. Lanzado En abril, los auriculares están equipados con controladores dinámicos de 11 mm, admiten hasta 45 dB ANC y cuentan con un modo de transparencia. Ambos auriculares cuentan con detección interna y permiten Google Fast Pair y Microsoft Swift Pair.
AbiertoAI Acaba de celebrar su tan esperado evento de actualización de primavera, donde realizó una serie de anuncios interesantes y demostró las increíbles capacidades de sus últimos modelos de IA GPT. Ha habido cambios en la disponibilidad del modelo para todos los usuarios, y en el centro de expectación y atención: GPT-4o.
Llegó hace sólo 24 horas E/S de Googlepone el lanzamiento GoogleGéminis desde una nueva perspectiva. Si GPT-4o es tan impresionante como parece, es mejor que Google y su esperada actualización Gemini sean igualmente impresionantes.
¿Qué es todo este alboroto? Profundicemos en todos los detalles de lo que anunció OpenAI.
1. Se anuncia y ofrece GPT-4o y estará disponible para todos los usuarios de forma gratuita.
OpenAI demuestra GPT-4o en iPhone durante el evento de actualización de primavera. (Crédito de la imagen: OpenAI)
El mayor anuncio sobre streaming fue la presentación de GPT-4o (la 'o' significa 'omni'), que combina procesamiento de audio, imágenes y texto en tiempo real. En última instancia, esta versión de la tecnología GPT de OpenAI estará disponible para todos los usuarios de forma gratuita, con límites de uso.
Por ahora, sin embargo, se ha implementado en ChatGPT Usuarios Plus, que obtendrán hasta cinco veces los límites de mensajería de los usuarios gratuitos. Los usuarios de Team y Enterprise también obtendrán límites más altos y pronto podrán acceder a ellos.
GPT-4o tendrá la inteligencia de GPT-4, pero será más rápido y con mayor capacidad de respuesta en el uso diario. Además, podrás proporcionarle o pedirle que cree cualquier combinación de texto, imágenes y audio.
En la transmisión, Mira Moratti, CTO de OpenAI, y los investigadores Mark Chen y Barrett Zoff demostraron la respuesta en tiempo real de GPT-4o a la conversación mientras usaban sus funciones de voz.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
La demostración comenzó con una conversación sobre el estado mental de Chan, con GPT-4o escuchando y respondiendo a su respiración. Luego le contó a Barrett un cuento antes de dormir con niveles cada vez mayores de dramatismo en su voz a pedido; incluso le pidieron que hablara como un robot.
Continuó con una demostración de Barret “mostrando” a GPT-4o un problema matemático y el modelo guiando a Barret a través de su solución ofreciéndole sugerencias y estímulo. Chan se preguntó por qué era útil este concepto matemático en particular y respondió extensamente.
Una mirada a la interfaz actualizada de la aplicación móvil de ChatGPT. (Crédito de la imagen: OpenAI)
Siguieron mostrando algo de código GPT-4o, explicado en inglés sencillo, y proporcionaron comentarios sobre la trama generada por el código. El modelo hablaba de eventos importantes, etiquetas de ejes y un conjunto de entradas. Esto fue para demostrar la convicción continua de OpenAI en mejorar la interacción de los modelos GPT con las bases de código y mejorar sus capacidades matemáticas.
La penúltima exhibición fue una demostración impresionante de las capacidades lingüísticas del GPT-4o, traduciendo simultáneamente dos idiomas (inglés e italiano) en voz alta.
Finalmente, OpenAI brindó una breve demostración de la capacidad de GPT-4o para reconocer emociones a partir de una selfie enviada por Barrett, y señaló que parecía feliz y alegre.
Si el modelo de IA funciona como se describe, podrá hablar con él de forma más natural que con muchos modelos de voz de IA y otros asistentes digitales actuales. Podrás interrumpirlos en lugar de tener una conversación por turnos, y aún así procesarán y responderán, de forma similar a como nos hablamos naturalmente entre nosotros. Además, se ha reducido significativamente el tiempo entre la consulta y la respuesta, que antes era de dos o tres segundos.
ChatGPT equipado con GPT-4o se lanzará en las próximas semanas y se puede probar de forma gratuita. Esto se produce apenas unas semanas después de que Open AI pusiera ChatGPT a disposición para probar sin necesidad de registrarse para obtener una cuenta.
2. Los usuarios gratuitos tendrán acceso a la tienda GPT, la función de memoria, la función de navegación y el análisis de datos avanzado.
OpenAI presenta la tienda GPT en el evento Spring Update. (Crédito de la imagen: Desbloquear IA)
Los GPT son chatbots personalizados creados por usuarios de OpenAI y ChatGPT Plus para ayudar a permitir conversaciones y tareas más específicas. Ahora, más usuarios pueden acceder a él en la Tienda GPT.
Además, los usuarios gratuitos podrán utilizar la función de memoria de ChatGPT, convirtiéndola en una herramienta más útil y beneficiosa al darle una sensación de permanencia. Las capacidades de visibilidad de ChatGPT también se agregan al plan gratuito, lo que le permite hablar con el bot sobre los elementos cargados, como imágenes y documentos. La función de navegación le permite buscar conversaciones pasadas más fácilmente.
Las capacidades de ChatGPT han mejorado en calidad y velocidad en 50 idiomas, respaldando el objetivo de OpenAI de hacer que sus poderes estén disponibles para la mayor cantidad de personas posible.
3. GPT-4o estará disponible en la API para desarrolladores
3. GPT-4o estará disponible en la API para desarrolladores (Crédito de la imagen: OpenAI)
El último modelo de OpenAI estará disponible para que los desarrolladores lo integren en sus aplicaciones de IA como modelo de texto y visión. Próximamente se lanzará soporte para las capacidades de video y audio de GPT-4o y se ofrecerá a un pequeño grupo de socios API confiables.
4. Nueva aplicación de escritorio ChatGPT
Un vistazo a la nueva aplicación de escritorio ChatGPT que se ejecuta en una Mac. (Crédito de la imagen: OpenAI)
OpenAI está lanzando una aplicación de escritorio para macOS para promover su misión de hacer que sus productos sean lo más fáciles y sencillos posible, esté donde esté y sea cual sea el modelo que esté usando, incluido el nuevo GPT-4o. Podrás asignar atajos de teclado para realizar operaciones más rápidamente.
Según OpenAI, la aplicación de escritorio ya está disponible para los usuarios de ChatGPT Plus y estará disponible para más usuarios en las próximas semanas. También presenta un diseño similar a la interfaz actualizada de la aplicación móvil.
5. Interfaz de usuario de ChatGPT actualizada
ChatGPT tiene una interfaz de usuario más natural e intuitiva y se ha actualizado para que la interacción con el formulario sea más fácil y menos confusa. OpenAI quiere llegar al punto en el que la gente apenas se centre en la IA y que ChatGPT se sienta más amigable. Esto significa una nueva pantalla de inicio, diseño de mensajes y otros cambios.
6. OpenAI aún no está terminado
(Crédito de la imagen: Desbloquear IA)
La misión es audaz, ya que OpenAI busca desmitificar la tecnología y al mismo tiempo crear algunas de las tecnologías más sofisticadas accesibles para la mayoría de las personas. Moratti concluyó diciendo que pronto seremos informados de lo que OpenAI se prepara para mostrarnos a continuación y le agradecemos. NVIDIA Proporcionar las unidades de procesamiento de gráficos más avanzadas para hacer posible la visualización.
Decidida a dar forma a nuestras interacciones con los dispositivos, OpenAI estudia de cerca cómo los humanos interactúan entre sí e intenta aplicar lo aprendido a sus productos. La latencia para procesar todos los matices de la interacción es parte de lo que dicta cómo nos comportamos con productos como ChatGPT, y OpenAI ha trabajado arduamente para reducirla. Como dice Moratti, sus habilidades seguirán evolucionando y podrá ayudarte mejor con exactamente lo que estás haciendo o preguntando en el momento exacto.
AbiertoAI Presentó GPT-4o, un nuevo modelo de inteligencia artificial que combina texto, visión y voz.
Entonces El muy esperado evento de transmisión en vivo, Mira Murati, CTO de OpenAI, dijo que GPT-4o puede procesar texto, audio y visión en un solo modelo. GPT-4o estará disponible gratuitamente para todos los usuarios de ChatGPT. También está disponible en la API, cuesta la mitad de precio y es 2 veces más rápido que GPT -4 Turbo. La “o” del nombre significa “omni”, en referencia a sus modalidades combinadas en un único modelo.
Anuncio confirmado Rumores anteriores sobre un asistente de voz. Anteriormente existían modelos separados para las modalidades de audio y vídeo. Pero GPT-4o es “multimedia nativa”, Él dijo El director ejecutivo de OpenAI, Sam Altman, habla sobre X.
Es posible que el tweet haya sido eliminado.
Ahora, GPT-4o combina los métodos, reduciendo la latencia y haciéndolo receptivo en tiempo real. Esto significa que puede interrumpir el formulario. También puede sentir y expresar emociones y tonos, lo que le hace parecer demasiado dramático o robótico. Incluso puede cantar (si quieres).
La suave voz femenina utilizada en la demostración se parece mucho al personaje asistente de voz de Scarlett Johansson en la película. Ja.
Velocidad de la luz triturable
Capacidades de visión GPT-4o
Otra demostración demostró la capacidad de GPT-4o para ayudar a resolver problemas matemáticos utilizando su método de visión. Puede guiar al usuario a través de un problema matemático básico al resolver un problema.
A través de consultas de usuarios, ChatGPT con GPT-4o ha demostrado su capacidad para traducir en tiempo real y comprender sentimientos.
Es posible que el tweet haya sido eliminado.
Murati inició el evento compartiendo la disponibilidad de una nueva aplicación de escritorio.
Anteriormente, se rumoreaba que OpenAI anunciaría un motor de búsqueda ChatGPT o un nuevo modelo de compilador GPT-5 antes. E/S de Google. El director ejecutivo Sam Altman desmintió estos rumores antes del evento del lunes, pero se cree que todavía están en desarrollo.