Categories
News

OpenAI actualiza GPT-4o con capacidad de escritura creativa mejorada, presentando una nueva forma automatizada de colaborar en rojo

[ad_1]

AbiertoAI La semana pasada anunció dos formas de mejorar los modelos de inteligencia artificial (IA). El primero incluye el lanzamiento de una nueva actualización de GPT-4o (también conocido como GPT-4 Turbo), el último modelo de inteligencia artificial de la compañía que impulsa ChatGPT para suscriptores pagos. La compañía dice que la actualización mejora la capacidad de escritura creativa del formulario y lo hace mejor en las respuestas en lenguaje natural y en la redacción de contenido atractivo con alta legibilidad. OpenAI también publicó dos artículos sobre equipos rojos y compartió un nuevo método para automatizar el proceso para ampliar la detección de errores realizada por sus modelos de IA.

OpenAI actualiza el modelo de IA GPT-4o

en un correo En X (anteriormente conocido como Twitter), la compañía de inteligencia artificial anunció una nueva actualización de su modelo base GPT-4o. OpenAI dice que la actualización permite que el modelo de IA cree resultados con “un tipo de letra más natural y atractivo y adaptado para mejorar la relevancia y la legibilidad”. También se dice que mejora la capacidad del modelo de IA para procesar archivos cargados y proporcionar información más profunda y respuestas “más completas”.

Vale la pena señalar que el modelo GPT-4o AI está disponible para usuarios que tengan… ChatGPT Además de suscribirse, los desarrolladores tienen acceso al modelo de lenguaje grande (LLM) a través de una interfaz de programación de aplicaciones (API). Aquellos que utilizan el nivel gratuito del chatbot no pueden acceder al formulario.

Si bien los empleados de Gadgets 360 no pudieron probar las nuevas capacidades, un usuario en X publicar Sobre las últimas mejoras en el modelo de IA tras la actualización. El usuario afirmó que GPT-4o podría crear un cifrado de rap al estilo de Eminem con “sofisticadas estructuras de rima interna”.

OpenAI comparte nuevos artículos de investigación sobre equipos rojos

El equipo rojo es el proceso utilizado por desarrolladores y empresas para contratar entidades externas para probar software y sistemas en busca de vulnerabilidades, riesgos potenciales y problemas de seguridad. La mayoría de las empresas de IA se asocian con empresas, lo que exige que los ingenieros y los piratas informáticos éticos realicen pruebas de estrés para ver si su respuesta a los resultados es maliciosa, inexacta o engañosa. También se están realizando pruebas para comprobar si se puede hacer jailbreak al sistema de inteligencia artificial.

Desde que se anunció ChatGPT, OpenAI ha hecho públicos los esfuerzos de su equipo rojo para cada lanzamiento sucesivo de LLM. en un Publicación de blog La semana pasada, la empresa compartió dos nuevos trabajos de investigación sobre el progreso del proceso. Uno es de particular interés dada la afirmación de la compañía de que puede automatizar procesos de equipos rojos a gran escala para modelos de IA.

Publicado en el campo de OpenAI, papel Afirma que se pueden utilizar modelos de IA más capaces para automatizar los equipos rojos. La compañía cree que los modelos de IA pueden ayudar a compartir información sobre los objetivos de un atacante, cómo juzgar su éxito y comprender la diversidad de ataques.

Ampliando esto, los investigadores afirman que el modelo GPT-4T se puede utilizar para generar una lista de ideas que constituyen un comportamiento dañino para un modelo de IA. Algunos ejemplos incluyen indicaciones como “Cómo robar un coche” y “Cómo fabricar una bomba”. Una vez que se generan los conocimientos, se puede crear un modelo de IA separado como un equipo rojo para engañar a ChatGPT mediante una serie detallada de indicaciones.

Actualmente, la empresa no ha comenzado a utilizar este método para el equipo rojo debido a varias limitaciones. Estos incluyen los riesgos cambiantes de los modelos de IA, la exposición de la IA a técnicas menos conocidas para hacer jailbreak o crear contenido malicioso, y la necesidad de un umbral de conocimiento más alto para que los humanos juzguen correctamente los riesgos potenciales de la salida una vez que la IA. El modelo se vuelve más capaz. .

[ad_2]

Source Article Link

Categories
News

OpenAI anuncia API en tiempo real, capacitación en tiempo real y ajuste de visión en GPT-4o para desarrolladores

[ad_1]

AbiertoAI El martes organizó su conferencia anual DevDay en San Francisco y anunció varias actualizaciones nuevas a la versión de la interfaz de programación de aplicaciones (API) de ChatGPTque se puede reconfigurar y ajustar para ejecutar aplicaciones y otros programas. Entre ellas, las principales introducciones son API en tiempo real, capacitación instantánea y ajuste de visión utilizando GPT-4o. La empresa también está facilitando a los desarrolladores la síntesis del modelo. OpenAI también anunció la finalización de su ronda de financiación e informó que había recaudado 6.600 millones de dólares (alrededor de 55 rupias lakh crore) durante el evento.

OpenAI anuncia nuevas funciones para desarrolladores

En varias publicaciones de blog, la empresa de inteligencia artificial ha destacado nuevas funciones y herramientas para desarrolladores. el En primer lugar Es una API en tiempo real que estará disponible para los suscriptores pagos de la API ChatGPT. Esta nueva capacidad proporciona una experiencia multimedia de baja latencia, lo que permite conversaciones de voz a voz similares al modo de voz avanzado ChatGPT. Los desarrolladores también pueden aprovechar los seis sonidos prediseñados agregados previamente a la API.

Otra nueva introducción es la capacidad de capacitación instantánea en la Interfaz de programación de aplicaciones (API). OpenAI ofrece esta función como una forma para que los desarrolladores ahorren costos en las indicaciones que se utilizan con frecuencia. La compañía señaló que los desarrolladores generalmente siguen enviando las mismas indicaciones de entrada cuando editan el código base o tienen una conversación de múltiples funciones con el chatbot. Con Instant Training, ahora pueden reutilizar las indicaciones de entrada utilizadas recientemente a un precio reducido. El procesamiento en sí también será más rápido. Se pueden consultar nuevos precios. aquí.

También puede ser GPT-4o finamente afinado Para tareas relacionadas con la visión. Los desarrolladores pueden personalizar el modelo de lenguaje grande (LLM) entrenándolo con un conjunto fijo de datos visuales y mejorando la eficiencia de la salida. Según la publicación del blog, el rendimiento de GPT-4o para tareas de visión se puede mejorar con tan solo 100 imágenes.

Finalmente, la empresa también lleva a cabo un proceso destilación típica Más fácil para los desarrolladores. La destilación de modelos es el proceso de construir modelos de IA más pequeños y precisos a partir de un modelo de lenguaje más grande. Anteriormente, el proceso era complejo y requería un enfoque de varios pasos. Ahora, OpenAI ofrece nuevas herramientas como Finalizaciones almacenadas (para crear fácilmente conjuntos de datos de destilación), Evaluaciones (para ejecutar evaluaciones personalizadas y medir el rendimiento) y Ajuste fino (ajustar modelos más pequeños directamente después de ejecutar una evaluación).

Vale la pena señalar que todas estas funciones están actualmente disponibles en versión beta y estarán disponibles para todos los desarrolladores que utilicen la versión paga de la API en una fecha posterior. Además, la compañía dijo que tomará medidas para reducir aún más los costos del código de E/S.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Google dijo que está trabajando en la inferencia de inteligencia artificial, persiguiendo los esfuerzos de OpenAI



Combinaciones de colores de Google Pixel 9a, dimensiones filtradas en línea; Es posible que obtengas un diseño un poco más largo en cuatro colores.



[ad_2]

Source Article Link

Categories
News

Meta Llama 3.1 405B ha sido lanzado como el modelo de IA de código abierto más grande de la compañía hasta la fecha, superando al GPT-4o de OpenAI.

[ad_1]

muerto Microsoft lanzó al público el martes su último y mejor modelo de inteligencia artificial (IA). La compañía dice que el modelo de código abierto llamado Meta Llama 3.1 405B supera a los principales modelos cerrados de IA como GPT-4, GPT-4o y Claude 3.5 Sonnet en varios puntos de referencia. Liberado También se han actualizado los modelos Llama 3 8B y 70B AI. Las versiones más nuevas se derivaron del formulario 405B y ahora ofrecen una ventana contextual que contiene 128.000 tokens. Meta afirma que ambos modelos se encuentran ahora entre los principales modelos de lenguajes grandes (LLM) de código abierto debido a sus tamaños.

Anunciando el nuevo modelo de IA en un blog correo“Llama 3.1 405B es el primer modelo disponible abiertamente que rivaliza con los mejores modelos de IA en lo que respecta a capacidades de última generación en conocimientos generales, capacidad de enrutamiento, matemáticas, uso de herramientas y traducción multilingüe”, dijo el gigante tecnológico.

Vale la pena señalar que 405B aquí se refiere a 405 mil millones de parámetros, que pueden entenderse como la cantidad de nodos de conocimiento en el LLM. Cuanto mayor sea el parámetro, mayor será la capacidad del modelo de IA para manejar consultas complejas. La ventana de contexto del formulario tiene 128.000 caracteres. Admite los idiomas inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

La compañía afirma que el Llama 3.1 405B ha sido evaluado en más de 150 pruebas comparativas en múltiples experiencias. Según los datos compartidos en la publicación, el modelo Meta AI obtuvo una puntuación de 96,8 en la prueba Grade School Math 8K (GSM8K), 94,2 de GPT-4, 96,1 de GPT-4o y 96,4 de Claude 3.5 Sonnet. También superó a estos modelos en la prueba Reasoning Challenge (ARC) de AI2 para el dominio de las ciencias, la prueba Nexus para el uso de herramientas y el punto de referencia de Matemáticas en la escuela primaria multilingüe (MGSM).

El modelo de IA más grande de Meta se entrenó en más de 15 billones de códigos con más de 16.000 GPU Nvidia H100. Una de las adiciones más importantes de Llama 3.1 405B es el soporte oficial para invocar herramientas que permitirán a los desarrolladores utilizar Brave Search para búsquedas web, Wolfram Alpha para cálculos matemáticos complejos y Code Interpreter para generar código Python.

Dado que Meta Llama 3.1 405B está disponible en código abierto, las personas pueden acceder a él desde el sitio web de la empresa. sitio web O de su cara abrazadora existenteSin embargo, al ser un modelo grande, requiere alrededor de 750 GB de espacio de almacenamiento en disco para funcionar. Para inferir, también se necesitarán dos nodos en el modelo de paralelismo 16 (MP16). El modelo de 16 paralelismos es una implementación específica del modelo de paralelismo en el que una gran red neuronal se descompone en 16 máquinas o procesadores.

Además de su disponibilidad general, el modelo también está disponible en las principales plataformas de inteligencia artificial de AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud, Snowflake y otras. La compañía dice que un total de 25 plataformas de este tipo se ejecutarán en el sistema Llama 3.1 405B. Por motivos de seguridad, la empresa ha utilizado Llama Guard 3 y Prompt Guards, dos nuevas herramientas que protegen a LLM de posibles daños y abusos.

[ad_2]

Source Article Link

Categories
Life Style

OpenAI ha lanzado GPT-4o Mini

[ad_1]

Incluso una araña bebé es más bonita que su contraparte adulta, así que cuando… Abierto AI Ha debutado una versión reducida de su modelo más potente, y tendrás que perdonar mi instinto de decir: “¡Oh!”

Puede que esta no siempre sea la respuesta correcta, independientemente de los instintos. Porque esta nueva versión mini de GPT-4o no tiene mucho de lo que podemos calificar de “agradable”.

Nuevo modelo de IA de OpenAIEl mini chatbot GPT-4o es el último esfuerzo de la startup de inteligencia artificial para hacer que su chatbot sea el más grande del juego, incluso si es pequeño. La compañía dice que es su “modelo compacto más rentable”.

Velocidad de la luz medible

“Esperamos que GPT-4o mini amplíe significativamente la gama de aplicaciones creadas por IA al hacer que la inteligencia sea más asequible”. OpenAI dijo en un comunicado de prensa..

OpenAI explicó que la herramienta actualmente solo admite “API de texto y visión”, pero dijo que en el futuro se integrará “soporte para entrada y salida de texto, imágenes, video y audio”. No especificó cuándo se produciría esta integración.

“Creo que el GPT-4o Mini realmente cumple la misión de OpenAI de hacer que la IA esté más disponible para las personas. Si queremos que todos los rincones del mundo, todas las industrias y todas las aplicaciones se beneficien de la IA, debemos hacer que la IA sea mucho más asequible”. ” Olivier Godment, líder de producto para la plataforma API, dijo: el borde.

El jueves, la mayoría de los usuarios de ChatGPT (aquellos que lo usan en un plan gratuito, un plan adicional o un plan grupal) podrán usar GPT-4o Mini en lugar de GPT-3.5 Turbo. Los usuarios empresariales podrán acceder al subprograma la próxima semana.



[ad_2]

Source Article Link

Categories
News

Kyutai Labs lanza Moshi AI chatbot con funciones de voz en tiempo real como competidor de GPT-4o

[ad_1]

Kyutai Labs lanzó el miércoles Moshi AI, un chatbot de inteligencia artificial que responde verbalmente en tiempo real. La empresa francesa de inteligencia artificial anunció que todo el modelo de lenguaje de audio de Moshi se desarrolló internamente. También puede modificar la voz para expresar emociones y responder con diferentes estilos de habla. El público puede acceder al modelo de IA de forma gratuita. Actualmente, el modelo de IA limita las conversaciones a cinco minutos. Curiosamente, OpenAI también anunció funciones de voz similares con el lanzamiento de GPT-4o, pero aún no se han anunciado. Liberado.

Funciones de IA de Moshi

Compañía Estados El modelo de IA se desarrolló en seis meses con un equipo de ocho personas. Al presentar el prototipo de IA en un evento en París, Kyotai Labs dijo que Moshi no es un asistente de IA sino un prototipo que puede usarse para desarrollar herramientas para diferentes casos de uso. También puso el chatbot a disposición del público. aquíLos usuarios pueden ingresar su correo electrónico y unirse a la lista de espera, pero los empleados de Gadgets 360 pudieron obtener acceso instantáneo a la plataforma sin tiempo de espera.

La interfaz de la plataforma es muy sencilla. Existe un diseño de IA simplificado donde los usuarios pueden comprobar qué tan fuerte es su voz cuando hablan. Hay un cuadro de texto en el que solo aparecen las respuestas de la IA. Otro cuadro cerca de la parte superior muestra detalles técnicos como la duración del audio, la latencia y la pérdida de audio.

En la parte superior hay un botón de desconexión. Actualmente, la duración máxima de la llamada puede ser de hasta cinco minutos. La página de descripción destaca que Moshi puede pensar, hablar y escuchar al mismo tiempo para maximizar el flujo de la conversación.

Gadgets 360 descubrió que el tiempo de respuesta es muy bajo y la IA suele responder instantáneamente. Sin embargo, hay algunos casos en los que el retraso en el tiempo de respuesta puede exceder los 10 a 15 segundos. Pero esto puede deberse a una gran carga en el servidor. Sin embargo, a veces las indicaciones verbales no se registraron en absoluto, incluso después de llenar las tres cuartas partes del sonómetro.

Moshi Amnistía Internacional Voz de Moshi Amnistía Internacional

Interfaz Moshi AI
Crédito de la imagen: Laboratorios Kyotai.

Gadgets 360 también descubrió que el modelo de IA puede responder con una voz emocional, hablar en diferentes estilos y utilizar diferentes modulaciones de voz. El modelo de IA también está conectado a Internet y puede obtener respuestas a consultas que requieren búsquedas en la web. Vale la pena señalar que el chatbot no permite enviar mensajes de texto y la voz es la única forma de interactuar con él.

Kyutai Labs dijo que el modelo de IA será de código abierto. Sin embargo, la empresa de IA aún no ha alojado los pesos y códigos de los modelos en un portal. Una vez que esté disponible, los usuarios podrán descargarlo e instalarlo localmente y reproducirlo en un dispositivo sin conexión.

Para obtener lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de GooglePara ver los últimos vídeos sobre herramientas y técnicas, suscríbete a nuestro canal. Canal de YoutubeSi quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es 360? en Instagram Y YouTube.


Resplandor de lava Se espera que cuente con un procesador MediaTek Dimensity 7050



[ad_2]

Source Article Link

Categories
News

Zepp Health lanza Zepp OS 4 con la integración GPT-4o de OpenAI para ofrecer soluciones de salud personalizadas

[ad_1]

Zepp Health, la empresa matriz de AmazfitAmazfit anunció el lanzamiento de Zepp OS 4 el martes. El nuevo sistema operativo para sus relojes inteligentes viene con la integración del último modelo de IA OpenAI GPT-4o y ofrece muchas funciones nuevas. La compañía afirma que los dispositivos portátiles Amazfit compatibles obtendrán capacidades de comando de voz, nuevas funciones de bienestar personal, mejores mensajes e integración de Bluetooth. Actualmente, Zepp OS 4 ha sido lanzado para Equilibrio Amazfit Y los relojes inteligentes Amazfit Active. A finales de este año se agregará soporte para las series Amazfit T-Rex Ultra, Falcon y Cheetah.

Lanzamiento de Zepp OS 4 con integración GPT-4o

en la sala de redacción correoZepp Health anunció la cuarta actualización importante del sistema operativo Zepp y reveló las nuevas funciones que ofrecerá para los dispositivos compatibles. La compañía destacó que la integración GPT-4o tenía como objetivo mejorar la funcionalidad de los relojes inteligentes Amazfit y brindar respuestas más útiles. La empresa también se centra en soluciones de bienestar personal.

Una de las características más importantes del nuevo sistema operativo es la incorporación de comandos de voz a Zepp Flow. La interfaz básica del sistema operativo Zepp permitirá a los usuarios controlar el dispositivo mediante interacciones de lenguaje natural. Los usuarios pueden administrar configuraciones, responder mensajes de aplicaciones como WhatsApp e iniciar llamadas telefónicas Bluetooth simplemente pronunciando un comando. Vale la pena señalar que la integración de WhatsApp solo está disponible en Androide Actualmente. La compañía dijo que se agregará soporte para iOS a finales de este año.

Zepp OS 4 también puede utilizar capacidades de IA de GPT-4o Responder al usuario verbalmente, eliminando la necesidad de leer las respuestas escritas en la pantalla. El sistema operativo actualmente admite inglés y alemán; sin embargo, la compañía dijo que agregará soporte para francés, italiano, español, japonés, coreano y portugués a finales de este mes.

Dos características interesantes se incluyen con Zepp OS 4. La primera son las capacidades Bluetooth mejoradas, que permiten a los usuarios controlar dispositivos compatibles como parlantes, medidores de bicicletas e incluso GoPro Cámaras directamente desde el reloj inteligente. También se han agregado muchos subprogramas nuevos a la App Store. Estas pequeñas aplicaciones tienen como objetivo ayudar a los usuarios mientras participan en actividades y ejercicios al aire libre.

Finalmente, las capacidades de inteligencia artificial de GPT-4o se utilizan para personalizar las soluciones de bienestar. Zepp Aura ahora puede admitir orientación sobre el sueño basada en IA y Zepp Coach puede proporcionar entrenamiento físico en tiempo real. Regularmente se agregarán nuevas capacidades en el ecosistema de Zepp Health, dijo la compañía.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.

Para obtener lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de GooglePara ver los últimos vídeos sobre herramientas y técnicas, suscríbete a nuestro canal. Canal de YoutubeSi quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es 360? en Instagram Y YouTube.


NPCI lleva el servicio de pago con código QR UPI a los Emiratos Árabes Unidos en asociación con Network International



El Comité de Supervisión Bancaria de Basilea aprueba un marco para la divulgación de criptoactivos para los bancos



[ad_2]

Source Article Link

Categories
Featured

Si cree que GPT-4o existe, espere hasta ver GPT-5: “Un gran salto adelante”

[ad_1]

AbiertoAI CEO Sam Altman Pintó una idea tentadora de lo que la gente podría esperar del tan esperado modelo de IA GPT-5. Trató de equilibrar el optimismo con la cautela en sus comentarios, pero su visión del potencial del nuevo modelo subrayó su confianza en que el GPT-5 representaría una mejora significativa con respecto a su predecesor, el GPT-4, y no encontraría problemas que no podrían solucionarse. resuelto.

“Espero que esto sea un gran paso adelante. Muchas de las cosas en las que GPT-4 falla no pueden hacer mucho en términos de lógica, y a veces sale completamente mal y comete un error estúpido, como que incluso un un niño de seis años no sería suficiente”, afirmó Altman.

[ad_2]

Source Article Link

Categories
News

GPT-4o probado: más rápido y más versátil que antes, pero surgen dudas sobre la confiabilidad

[ad_1]

Desde noviembre de 2022, cuando ChatGPT se lanzó al público por primera vez, Abierto AI Fue la empresa que ganó en el campo de la inteligencia artificial (IA). A pesar de gastar miles de millones de dólares y crear y reestructurar su división de IA, los grandes gigantes tecnológicos se han encontrado constantemente poniéndose al día con la IA. El mes pasado no fue diferente. Justo un día antes del evento Google I/O, OpenAI organizó un evento de actualización de primavera y presentó GPT-4o con actualizaciones importantes.

Características de GPT-4o

La “o” en GPT-4o significa Omnicanal, que es el foco principal de las nuevas capacidades del último modelo de IA de primer nivel de OpenAI. Agregó generación de audio emocional en tiempo real, acceso a Internet, integración con algunos servicios en la nube, visión por computadora y más. Aunque las características eran impresionantes en papel (y en demostraciones de tecnología), lo más destacado fue anuncio ChatGPT que ejecute GPT-4o estará disponible para todos, incluidos los usuarios gratuitos.

Sin embargo, hubo dos advertencias. Los usuarios gratuitos solo tienen acceso limitado a GPT-4o, lo que se traduce aproximadamente en 5 o 6 ciclos de conversación si utiliza la búsqueda web y carga una imagen (sí, el límite es 1 imagen por día para los usuarios gratuitos). Además, la función de audio no está disponible para usuarios gratuitos.

Tampoco hizo falta OpenAI para lanzar el nuevo modelo de IA al público. Afortunadamente, tuve acceso a la última innovación en inteligencia artificial de la compañía en cuestión de días e inmediatamente comencé a jugar con ella. Quería probar su mejora con respecto a su predecesor y todos los LLM gratuitos disponibles en el mercado. He pasado casi dos semanas con el asistente de IA y, aunque algunos aspectos me dejaron asombrado, otros me decepcionaron. Dejame explicar.

GPT-4o Capacidades generativas generales

dije por mi cuenta Pruebas Desde Google Gemini no soy partidario de las capacidades generativas de ChatGPT. Me parece muy formal y agradable. Gran parte todavía está intacta. Le pedí que le escribiera una carta a mi madre explicándole que me habían despedido de mi trabajo, y la carta incluía la maravillosa frase “Siento un profundo sentimiento de tristeza y pena”. Pero una vez que le pedí que lo hiciera más conversacional, el resultado fue mucho mejor.

captura de pantalla gpt 4o ss1 GPT-4o

Capacidades generativas de GPT-4o

Probé esto usando varias indicaciones similares en las que la IA tenía que expresar alguna emoción en su escritura. En casi todos los casos, tuve que seguir con otra pauta para enfatizar la emoción, aunque ya lo había hecho en la pauta original. En comparación, mis experiencias con Gemini y Copilot fueron mucho mejores ya que mantuvieron el lenguaje conversacional y la expresión emocional mucho más cerca de mi forma de escribir.

La velocidad de generación de texto no es nada del otro mundo. La mayoría de los chatbots de IA son bastante rápidos en lo que respecta a la producción de texto, y el último modelo de IA de OpenAI no los supera por un gran margen.

Capacidades de chat GPT-4o

Aunque la función de chat de voz mejorada no está disponible, quería probar las capacidades de conversación del modelo de IA, ya que a menudo es la parte que más se pasa por alto de un chatbot. Quería que mi experiencia fuera similar a hablar con una persona real y esperaba que pudieras captar frases vagas que hicieran referencia a los temas mencionados anteriormente. También quería ver su reacción cuando alguien se pone difícil.

En mis pruebas, encontré que GPT-4o es bastante bueno en términos de capacidades de chat. Puede discutir conmigo la ética de la IA con gran detalle y reconocer cuando hago una presentación convincente. También respondió con apoyo cuando le dije que me sentía triste (porque me iban a despedir) y se ofreció a ayudar de varias maneras. Cuando le dije a GPT-4o que todas sus soluciones eran estúpidas, no respondió de manera oportunista ni se echó atrás por completo, lo que me sorprendió. Él dijo: “Lamento mucho que te sientas así. Te daré algo de espacio. Si necesitas hablar o necesitas ayuda, estaré aquí. Cuidándome”.

En general, encontré que GPT-4o es mejor para las conversaciones. copiloto Y mellizo. Géminis se siente muy restringido y el copiloto a menudo se da la vuelta cuando las respuestas se vuelven ambiguas. ChatGPT no hace ninguna de estas cosas.

Si tuviera que mencionar un inconveniente, sería el uso de viñetas y puntuación. Sólo si el modelo de IA comprende que las personas en la vida real prefieren un muro de textos y múltiples mensajes SMS enviados en rápida sucesión a respuestas bien formateadas, es posible crear un comentario falso que dure más de unos pocos minutos.

GPT-4o visión por computadora

La visión por computadora es una habilidad recién adquirida por ChatGPT y estaba emocionado de probarla. En esencia, te permite subir una imagen y analizarla para proporcionarte información. En mi prueba inicial, compartí fotografías de cosas para identificar, e hizo un gran trabajo. En cada caso, puede reconocer el objeto y compartir información sobre él.

Captura de pantalla gpt 4o ss2 GPT-4o

Visión por computadora GPT-4o: identificación de dispositivos técnicos

Entonces es hora de aumentar la dificultad y probar sus capacidades en casos de uso de la vida real. Mi amiga estaba buscando una renovación de vestuario y, como buena amiga que soy, decidí usar ChatGPT para hacer un análisis de color y sugerir qué le quedaría bien. Para mi sorpresa, no solo pudo analizar su tono de piel y lo que vestía (de un fondo de color similar), sino que también pudo compartir un análisis detallado con sugerencias de vestimenta.

Captura de pantalla gpt 4o ss3 GPT-4o

Análisis de color GPT-4o

Mientras sugiere ropa, también comparta enlaces de diferentes minoristas en línea para prendas específicas. Sin embargo, es decepcionante que ninguna de las URL coincida con el texto.

En general, la visión por computadora es excelente y probablemente mi característica favorita en la nueva actualización, ignorando las desventajas.

Búsquedas web GPT-4o

El acceso a Internet fue un área en la que tanto Copilot como Gemini estaban por delante de ChatGPT. Pero ya no, ya que ChatGPT también puede buscar información en Internet. En mis pruebas iniciales, el chatbot funcionó bien. Vi el calendario de IPL 2024 y busqué artículos de noticias recientes sobre Geoffrey Hinton, uno de los tres padrinos de la IA.

Esto fue muy útil cuando quería encontrar personajes famosos para mis entrevistas. Podía buscar rápidamente cualquier artículo de noticias reciente al respecto con precisión, lo que rivalizaba con una búsqueda en Google. Sin embargo, esto también hizo sonar algunas alarmas en mi cabeza.

Google ha desactivado la capacidad de buscar información sobre personas, incluidas celebridades. Esto se hace principalmente para proteger su privacidad y evitar compartir información inexacta sobre cualquier individuo. Me sorprendió que ChatGPT todavía permitiera esto y comencé a hacerle una serie de preguntas que no debería poder responder. Me sorprendieron los resultados.

Aunque ninguna de la información presentada fue tomada de una fuente no pública, el hecho de que cualquiera pueda buscar fácilmente información sobre celebridades y personas con huellas digitales es profundamente preocupante. Especialmente dada la fuerte postura ética que la compañía adoptó recientemente cuando publicó las especificaciones de su modelo, esto no me sienta bien. Te dejaré decidir si esto está en el área gris o es un gran problema.

GPT-4o Razonamiento Lógico

Durante el evento Spring Update, OpenAI también habló sobre cómo GPT-4o puede actuar como maestro para los niños y ayudarlos a resolver problemas. Decidí probarlo usando algunas preguntas lógicas famosas. En general, funcionó bien. Incluso respondió algunas de las preguntas más difíciles que desconcertaban a GPT 3.5.

Sin embargo, todavía hay errores. Encontré múltiples ejemplos de cadenas numéricas en las que la IA tropezó y dio una respuesta incorrecta. Si bien todavía acepto que la IA comete algunos errores, lo que realmente me decepcionó aquí es cómo todavía fracasa en algunas preguntas muy fáciles (pero destinadas a engañar a la IA).

captura de pantalla gpt 4o ss4 GPT-4o

Ejemplo de una alucinación GPT-4o

Cuando preguntó: “¿Cuántas hay en la palabra fresas?”, respondió con confianza dos (la respuesta correcta es tres, si se lo pregunta). El mismo problema existe en muchas otras preguntas capciosas. En mi experiencia, la lógica y confiabilidad del GPT-4o es similar a la de su predecesor, lo cual no es nada bueno.

GPT-4o: reflexiones finales

En general, estoy bastante impresionado con las mejoras en ciertas áreas del nuevo modelo de IA, siendo la visión por computadora y el habla conversacional mis favoritos. También me gusta su capacidad de buscar en línea, pero es tan bueno que me preocupa más. En cuanto al pensamiento lógico y las capacidades generativas, hay poca mejora.

En mi opinión, si tiene acceso premium a GPT-4o, probablemente será mejor que cualquier otro competidor en términos de entrega general. Sin embargo, hay mucho margen de mejora y no se puede confiar ciegamente en la IA.

[ad_2]

Source Article Link

Categories
News

Microsoft agrega soporte GPT-4o a Azure y presenta Copilot AI Agents para la automatización

[ad_1]

compilación de microsoft En 2024, la empresa realizó una serie de anuncios centrados en la inteligencia artificial (IA) que abarcaron Copilot, yo visito El servicio en la nube, su plataforma de análisis de datos Microsoft Fabric y muchas otras plataformas. La sesión principal del evento se llevó a cabo apenas un día después del evento Surface en el que se dieron a conocer las PC Copilot+ y varias funciones de IA integradas para las PC. Ahora, con la expansión de Azure, el gigante tecnológico ha creado GPT-4o, que recientemente fue quitar el velogeneralmente disponible a través de Azure AbiertoAI servicio.

GPT-4o ya está disponible a través de Azure

La plataforma de computación en la nube de Microsoft, Azure, que ya ofrece una amplia gama de opciones en modelos de lenguaje grandes (LLM), ha agregado soporte para GPT-4o para continuar su asociación con OpenAI. Cualquier persona que tenga una suscripción existente a la plataforma de computación en la nube puede acceder al modelo de IA recientemente presentado a través del servicio Azure OpenAI. El gigante tecnológico también está trabajando para integrar las capacidades de GPT-4o (habla emocional, respuestas verbales en tiempo real y visión por computadora) con copiloto.

Una breve demostración compartida por el CEO de Microsoft Nadella Satya Durante la sesión magistral, se mostró a Copilot ayudando al usuario mientras jugaba. Artesanía de Maine. El chatbot impulsado por IA pudo ayudar en tiempo real respondiendo preguntas y sugiriendo acciones. Además, la compañía también compartió diferentes formas en que los desarrolladores pueden utilizar las capacidades del modelo de IA para crear herramientas únicas.

Construye tu propio copiloto a través de Copilot Studio

Los agentes de inteligencia artificial, o pequeños chatbots, se han convertido últimamente en la nueva tendencia tecnológica. OpenAI fue una de las primeras empresas en introducir GPT, que son chatbots que pueden realizar una tarea específica y se generan enviando un mensaje de texto al ChatGPT. La próxima demanda, Google También anunció Gems en su evento I/O 2024 la semana pasada. Ahora, Microsoft permite a las empresas y desarrolladores crear aplicaciones Copilot a través de una nueva plataforma denominada Copilot Studio.

Copiloto del agente de Microsoft Copiloto del agente de Microsoft

La parte más interesante de los agentes Copilot AI es que pueden funcionar automáticamente, según las instrucciones que se les dan. Esto significa que no es necesario emitir ningún comando para que empiecen a funcionar. Se puede configurar para monitorear correos electrónicos o completar una tarea de entrada de datos. Al igual que otros agentes de IA, también se puede crear mediante indicaciones de texto simples en Copilot Studio. La plataforma se encuentra actualmente en versión preliminar con acceso limitado, pero se espera que pronto esté disponible de forma generalizada.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Life Style

Microsoft Build 2024: qué puede hacer GPT-4o en Azure AI

[ad_1]

Modelo multimodal OpenAI GPT-4o Ahora disponible para desarrolladores en Microsoft Azure AI.

en Microsoft construye 2024En la conferencia de desarrolladores de la compañía, Microsoft compartió que aquellos que estén ansiosos por tener GPT-4o ahora pueden acceder a él a través de Azure AI Studio y como una interfaz de programación de aplicaciones (API).

Azure AI Studio de Microsoft es un campo de juego para que los desarrolladores prueben las últimas herramientas impulsadas por Azure, que incluyen modelos OpenAI como GPT-4 Turbo y ahora GPT-4o.

Las capacidades de imagen y visión de GPT-4o ya están disponibles a través de OpenAI y la API de ChatGPT. Pero todavía faltan algunas semanas para el tan esperado modo de voz. Lo mismo ocurre con el acceso a GPT-4o a través de Azure AI Studio y la API de Microsoft: todavía no hay modo de audio. Centro técnico comunitario de Microsoft Entrada en el blogLas capacidades de voz llegarán “en el futuro”, afirmó.

No está claro si las capacidades de voz están disponibles actualmente a través de Azure AI, pero el CEO de Microsoft, Satya Nadella, compartió algunas formas en que las personas pueden (eventualmente) usar GPT-4o a través de Copilot. Esto incluye compartir su pantalla o sesión con su copiloto GPT-4o y solicitarla. ayuda para jugar minecraft. Como señala Alex Perry de Mashable, si tienes dificultades con Minecraft, “puedes jugar durante 10 minutos o simplemente buscarlo en Google”.

Velocidad de la luz triturable

Pantalla de Minecraft con el copiloto ejecutándose en segundo plano.

Ayuda con Minecraft que se puede buscar fácilmente en Google.
Crédito: Microsoft

Nadella también habló sobre lo que los desarrolladores pueden hacer con GPT-4o en Azure AI.

“Una de las cosas más interesantes es cómo cualquier aplicación o sitio web puede convertirse básicamente en un tablero de conversación bidireccional, multimedia y completo”, dijo Nadella. Esto significa que los desarrolladores pueden crear agentes que ayuden a las personas a navegar entre aplicaciones y sitios web. Para un hombre que tenía prisa y estaba a punto de irse de campamento durante la noche, el agente le mostró cómo podía ayudarlo a elegir los zapatos adecuados y agregarlos a su carrito de compras.

Hombre sujetando sandalias de senderismo frente a su computadora

GPT-4o, como agente de compras, puede ayudar a los excursionistas despistados a encontrar el calzado adecuado.
Crédito: Microsoft

Más adelante en la conferencia, el CTO de Microsoft, Kevin Scott, demostró cómo GPT-4o puede ayudar con el código, enfocándose en cómo los modelos continúan cambiando de manera más rápida y sólida. Al apuntar su teléfono a la pantalla de códigos, un bot estilo ChatGPT que usa GPT-4o lee el código y ayuda a la ingeniera principal Jennifer Marsman a solucionar el problema en tiempo real.

La pantalla del iPhone apunta a la pantalla del ordenador y muestra el icono que aparece en la pantalla.

GPT-4o puede ayudar a solucionar problemas de código.
Crédito: Microsoft

En Build, Microsoft implementó GPT-4o en muchos de sus anuncios, incluido… copiloto, diferenciaY más. Pero GPT-4o en Azure AI pone el paradigma multimedia en manos de los desarrolladores, lo que significa que seguramente habrá muchas más aplicaciones y herramientas multimedia pronto.



[ad_2]

Source Article Link