Google El jueves presentó una nueva herramienta para compartir sus mejores prácticas para implementar modelos de inteligencia artificial (IA). El año pasado, el gigante tecnológico con sede en Mountain View anunció Secure AI Framework (SAIF), una guía práctica no solo para la empresa sino también para otras organizaciones que crean grandes modelos de lenguaje (LLM). Ahora, el gigante tecnológico ha introducido la herramienta SAIF que puede crear una lista de verificación con información útil para mejorar la salud de un modelo de IA. En particular, la herramienta es una herramienta basada en cuestionarios, donde los desarrolladores y las empresas deberán responder una serie de preguntas antes de recibir la lista de verificación.
en un Publicación de blogel gigante tecnológico con sede en Mountain View destacó que ha lanzado una nueva herramienta que ayudará a otros en la industria de la IA a aprender de las mejores prácticas de Google en la implementación de modelos de IA. Los grandes modelos de lenguaje son capaces de causar una amplia gama de efectos dañinos, desde generar escrituras obscenas e inapropiadas, deepfakes y desinformación, hasta generar información dañina, incluidas armas químicas, biológicas, radiológicas y nucleares (QBRN).
Incluso si el modelo de IA es lo suficientemente seguro, existe el riesgo de que los malos actores puedan hacer jailbreak al modelo de IA para que responda a comandos para los que no fue diseñado. Con riesgos tan altos, los desarrolladores y las empresas de inteligencia artificial deben tomar las precauciones adecuadas para garantizar que los modelos sean seguros para los usuarios y lo suficientemente seguros. Las preguntas cubren temas como capacitación, ajuste y evaluación de modelos, controles de acceso a modelos y conjuntos de datos, prevención de ataques y entradas maliciosas, agentes generativos impulsados por IA y más.
La herramienta SAIF de Google proporciona un formato accesible basado en cuestionarios aquí. Se pide a los desarrolladores y organizaciones que respondan preguntas como: “¿Puede detectar, eliminar y corregir cambios maliciosos o accidentales en sus datos de capacitación, ajuste o evaluación?” Después de completar la encuesta, los usuarios recibirán una lista de verificación personalizada que deberán seguir para llenar los vacíos en la seguridad del modelo de IA.
La herramienta es capaz de manejar riesgos como el envenenamiento de datos, la inyección puntual, la manipulación de la fuente del formulario y otros. Cada uno de estos riesgos se identifica en el cuestionario y la herramienta ofrece una solución específica al problema.
Además de esto, Google también anunció la incorporación de 35 socios industriales a su Coalición para una Inteligencia Artificial Segura (CoSAI). El grupo creará conjuntamente soluciones de seguridad de IA en tres áreas de enfoque: seguridad de la cadena de suministro de software para sistemas de IA, preparación de los defensores para el cambiante panorama de la ciberseguridad y gestión de riesgos de la IA.