Investigadores de seguridad han descubierto una vulnerabilidad que podría permitir a los actores de amenazas almacenar instrucciones maliciosas en la configuración de la memoria de un usuario. chat gbt Aplicación Mac OS.
A un informe De Johan Ripperger en Abraza el color rojo Tenga en cuenta cómo un atacante podría activar una inyección rápida para tomar el control de ChatGPT, insertando así memoria en el mecanismo de persistencia y almacenamiento a largo plazo. Esto da como resultado que la conversación de ambas partes se filtre directamente al servidor del atacante.
A partir de ese momento, el mensaje se almacena como “persistente en la memoria”, por lo que cualquier conversación futura con… robot de chat Se enfrentará a la misma vulnerabilidad. Dado que ChatGPT recuerda cosas sobre sus usuarios, como nombres, edades, ubicaciones, favoritos, disgustos y búsquedas anteriores, este exploit representa un riesgo significativo para los usuarios.
Mantenerse seguro
En respuesta, AbiertoAI La compañía introdujo una API que significa que la explotación ya no es posible a través de la interfaz web de ChatGPT y también lanzó una solución para evitar que los recuerdos se utilicen como vector de fuga. Sin embargo, los investigadores dicen que el contenido de terceros que no es de confianza aún puede inyectar afirmaciones que puedan explotar la herramienta de memoria.
La buena noticia es que, aunque la Utilidad de Memoria está activada automáticamente de forma predeterminada en ChatGPT, el usuario puede desactivarla. Esta característica es ideal para aquellos que quieren más. Experiencia personal usando un chatbot Puede escuchar sus deseos y necesidades y hacer sugerencias basadas en la información, pero obviamente existen riesgos.
Para mitigar los riesgos resultantes de esto, los usuarios deben estar alerta cuando utilicen un chatbot y, en particular, buscar mensajes de “agregar nueva memoria”. Al revisar periódicamente los recuerdos almacenados, los usuarios pueden detectar posibles recuerdos implantados.
Esta no es la primera vulnerabilidad que los investigadores descubren en ChatGPT, con preocupaciones sobre los complementos que permiten a los actores de amenazas Tomar el control de las cuentas de otros usuarios y acceso a datos potencialmente confidenciales.
Más de TechRadar Pro