OpenAI actualiza GPT-4o con capacidad de escritura creativa mejorada, presentando una nueva forma automatizada de colaborar en rojo



AbiertoAI La semana pasada anunció dos formas de mejorar los modelos de inteligencia artificial (IA). El primero incluye el lanzamiento de una nueva actualización de GPT-4o (también conocido como GPT-4 Turbo), el último modelo de inteligencia artificial de la compañía que impulsa ChatGPT para suscriptores pagos. La compañía dice que la actualización mejora la capacidad de escritura creativa del formulario y lo hace mejor en las respuestas en lenguaje natural y en la redacción de contenido atractivo con alta legibilidad. OpenAI también publicó dos artículos sobre equipos rojos y compartió un nuevo método para automatizar el proceso para ampliar la detección de errores realizada por sus modelos de IA.

OpenAI actualiza el modelo de IA GPT-4o

en un correo En X (anteriormente conocido como Twitter), la compañía de inteligencia artificial anunció una nueva actualización de su modelo base GPT-4o. OpenAI dice que la actualización permite que el modelo de IA cree resultados con “un tipo de letra más natural y atractivo y adaptado para mejorar la relevancia y la legibilidad”. También se dice que mejora la capacidad del modelo de IA para procesar archivos cargados y proporcionar información más profunda y respuestas “más completas”.

Vale la pena señalar que el modelo GPT-4o AI está disponible para usuarios que tengan… ChatGPT Además de suscribirse, los desarrolladores tienen acceso al modelo de lenguaje grande (LLM) a través de una interfaz de programación de aplicaciones (API). Aquellos que utilizan el nivel gratuito del chatbot no pueden acceder al formulario.

Si bien los empleados de Gadgets 360 no pudieron probar las nuevas capacidades, un usuario en X publicar Sobre las últimas mejoras en el modelo de IA tras la actualización. El usuario afirmó que GPT-4o podría crear un cifrado de rap al estilo de Eminem con “sofisticadas estructuras de rima interna”.

See also  George Lucas enfrentó un desafío con el villano de Star Wars, Darth Vader

OpenAI comparte nuevos artículos de investigación sobre equipos rojos

El equipo rojo es el proceso utilizado por desarrolladores y empresas para contratar entidades externas para probar software y sistemas en busca de vulnerabilidades, riesgos potenciales y problemas de seguridad. La mayoría de las empresas de IA se asocian con empresas, lo que exige que los ingenieros y los piratas informáticos éticos realicen pruebas de estrés para ver si su respuesta a los resultados es maliciosa, inexacta o engañosa. También se están realizando pruebas para comprobar si se puede hacer jailbreak al sistema de inteligencia artificial.

Desde que se anunció ChatGPT, OpenAI ha hecho públicos los esfuerzos de su equipo rojo para cada lanzamiento sucesivo de LLM. en un Publicación de blog La semana pasada, la empresa compartió dos nuevos trabajos de investigación sobre el progreso del proceso. Uno es de particular interés dada la afirmación de la compañía de que puede automatizar procesos de equipos rojos a gran escala para modelos de IA.

Publicado en el campo de OpenAI, papel Afirma que se pueden utilizar modelos de IA más capaces para automatizar los equipos rojos. La compañía cree que los modelos de IA pueden ayudar a compartir información sobre los objetivos de un atacante, cómo juzgar su éxito y comprender la diversidad de ataques.

Ampliando esto, los investigadores afirman que el modelo GPT-4T se puede utilizar para generar una lista de ideas que constituyen un comportamiento dañino para un modelo de IA. Algunos ejemplos incluyen indicaciones como “Cómo robar un coche” y “Cómo fabricar una bomba”. Una vez que se generan los conocimientos, se puede crear un modelo de IA separado como un equipo rojo para engañar a ChatGPT mediante una serie detallada de indicaciones.

See also  Honor X7c con SoC Snapdragon 4 Gen 2 y batería de 6000 mAh lanzado: precio, especificaciones

Actualmente, la empresa no ha comenzado a utilizar este método para el equipo rojo debido a varias limitaciones. Estos incluyen los riesgos cambiantes de los modelos de IA, la exposición de la IA a técnicas menos conocidas para hacer jailbreak o crear contenido malicioso, y la necesidad de un umbral de conocimiento más alto para que los humanos juzguen correctamente los riesgos potenciales de la salida una vez que la IA. El modelo se vuelve más capaz. .



Source Article Link

Leave a Comment