Servicios web de Amazon (Os) lanzó un nuevo servicio en su conferencia en curso, re:Invent, que ayudará a las organizaciones a reducir los casos de alucinaciones de inteligencia artificial (IA). La herramienta de verificación de inferencia automatizada lanzada el lunes está disponible para vista previa y se puede encontrar en Amazon Bedrock Guardrails. La compañía afirmó que la herramienta verifica matemáticamente la precisión de las respuestas generadas por grandes modelos de lenguaje (LLM) y evita errores de alucinaciones en la vida real. Es similar a la función Grounding with Google Search disponible tanto en la API de Gemini como en Google AI Studio.
Comprobaciones de inferencia automatizadas de AWS
Los modelos de IA suelen generar respuestas incorrectas, engañosas o ficticias. Esto se conoce como alucinación de IA y el problema afecta la credibilidad de los modelos de IA, especialmente cuando se utilizan en el ámbito empresarial. Si bien las empresas pueden mitigar el problema hasta cierto punto entrenando un sistema de IA con datos regulatorios de alta calidad, los datos previos al entrenamiento y las fallas arquitectónicas aún pueden hacer que la IA alucine.
AWS detalló su solución a las alucinaciones de IA en un documento Publicación de blog. El verificador heurístico automatizado se introdujo como una nueva protección y se agregó en una versión preliminar dentro de Amazon Bedrock Guardrails. Amazonas Explicó que utiliza “procesos de inferencia y verificación algorítmica basados en lógica” para verificar la información generada por los LLM.
El proceso es claro y directo. Los usuarios deberán cargar documentos relevantes que describan las reglas de la organización en la consola de Amazon Bedrock. Bedrock analizará automáticamente estos documentos y creará una política de inferencia automática inicial, que convertirá el texto en lenguaje natural a un formato matemático.
Una vez hecho esto, los usuarios pueden ir al menú Inferencias automáticas en la sección Medidas preventivas. Allí se puede crear una nueva política y los usuarios pueden agregar documentos existentes que contienen la información que la IA debería aprender. Los usuarios también pueden configurar los parámetros de procesamiento y el objetivo de la política manualmente. Además, también se pueden agregar preguntas y respuestas de muestra para ayudar a la IA a comprender la interacción típica.
Una vez hecho todo esto, la IA estará lista para implementarse y el verificador heurístico automatizado comprobará automáticamente si el chatbot da alguna respuesta incorrecta. Actualmente, la herramienta está disponible para versión preliminar en la región de AWS Oeste de EE. UU. (Oregón). La empresa planea extenderlo pronto a otras regiones.