microsoft Lanzar nuevo inteligencia artificial Azure ha anunciado el lanzamiento de una nueva función llamada “Corrección” que identificará y corregirá los casos en los que el modelo de IA produce información incorrecta. Esta característica, denominada “Depuración”, está integrada en el sistema de detección de autenticidad del contenido de Azure AI Content Safety. Dado que esta característica sólo está disponible a través de Azure, es probable que esté dirigida a los clientes empresariales del gigante tecnológico. La empresa también está trabajando en otras formas de reducir los casos de alucinaciones de IA. En particular, la función también puede ofrecer una explicación de por qué una parte del texto está marcada como información incorrecta.
Lanzamiento de la función “Parches” de Microsoft
en BlogEl gigante tecnológico con sede en Redmond anunció la nueva característica que, según afirma, combate las alucinaciones inducidas por la IA, un fenómeno en el que la inteligencia artificial responde a una consulta con información incorrecta y no reconoce su falsedad.
Esta característica está disponible a través de los servicios Azure de Microsoft. El sistema Azure AI Content Safety tiene una herramienta conocida como detección de conexión a tierra. Esta herramienta determina si la respuesta resultante se basa en la realidad o no. Si bien la herramienta en sí funciona de muchas maneras diferentes para detectar alucinaciones, la función de corrección funciona de una manera específica.
Para que la depuración funcione, los usuarios deben estar conectados a Azure Core Documents, que se usa para el resumen de documentos y escenarios de preguntas y respuestas basados en recuperación, generación y aumento (RAG). Una vez conectados, los usuarios pueden habilitar la función. Luego, cada vez que se genere una oración incorrecta o no esencial, la función activará una solicitud de corrección.
En pocas palabras, los documentos básicos pueden entenderse como pautas que un sistema de IA debe seguir al generar una respuesta. Puede servir como material fuente para una consulta o una base de datos más grande.
Luego, la función evaluará la declaración con respecto al documento subyacente y, si se detecta que es información engañosa, se filtrará. Sin embargo, si el contenido es coherente con el documento subyacente, la función puede reescribir la oración para garantizar que no se malinterprete.
Además, los usuarios también tendrán la opción de habilitar heurísticas al configurar la habilidad por primera vez. Al habilitar esto, la función de IA agregará una explicación de por qué cree que la información es incorrecta y debe corregirse.
Portavoz de la empresa el dijo The Verge informó que la función de depuración utiliza modelos de lenguaje pequeño (SLM) y modelos de lenguaje grande (LLM) para alinear la salida con los documentos básicos. “Es importante tener en cuenta que la detección de puesta a tierra no resuelve el problema de la 'precisión', pero ayuda a alinear las salidas generativas de la IA con los documentos de puesta a tierra”, dijo el portavoz según citó la revista.