- Los expertos advierten que la IA puede ser manipulada por diferencias en el canal alfa de las imágenes
- Esto podría suponer riesgos para el diagnóstico médico y la conducción autónoma.
- El reconocimiento de imágenes debe adaptarse a la posibilidad de este ataque.
mientras Amnistía Internacional Debido a que tiene la capacidad de analizar imágenes, una nueva investigación ha revelado un descuido significativo de las plataformas modernas de reconocimiento de imágenes.
El canal alfa, que controla la transparencia de la imagen, se ignora con frecuencia, lo que podría abrir la puerta a ciberataques con consecuencias potencialmente graves para las industrias de conducción autónoma y de gama media, afirmaron investigadores de la Universidad de Texas en San Antonio (UTSA).
El equipo de investigación de UTSA, dirigido por la profesora adjunta Jennifer Chen, desarrolló un método de ataque especial llamado “AlphaDog” para explotar esta vulnerabilidad pasada por alto en los sistemas de inteligencia artificial. El canal alfa, parte de los datos de imagen RGBA (rojo, verde, azul, alfa), controla la transparencia de las imágenes y desempeña un papel crucial en la visualización de imágenes compuestas, y puede causar una desconexión entre cómo los humanos y los sistemas de IA perciben el misma imagen.
Vulnerabilidad en automoción, imágenes médicas y reconocimiento facial.
El ataque AlphaDog está diseñado para atacar sistemas humanos y de inteligencia artificial, pero de diferentes maneras. Para los humanos, las imágenes manipuladas pueden parecer relativamente naturales. Sin embargo, cuando son procesadas por sistemas de IA, estas imágenes se interpretan de manera diferente, lo que lleva a conclusiones o decisiones incorrectas.
Los investigadores crearon 6.500 imágenes y las probaron en 100 modelos de IA, incluidos 80 sistemas de código abierto y 20 plataformas de IA basadas en la nube, como ChatGPT. Sus pruebas revelaron que AlphaDog funcionó bien al apuntar a regiones de imágenes en escala de grises.
Uno de los hallazgos más preocupantes del estudio es la debilidad de los sistemas de inteligencia artificial utilizados en los vehículos autónomos. Las señales de tráfico, que a menudo contienen elementos en escala de grises, se pueden manipular fácilmente con la tecnología AlphaDog, lo que lleva a una mala interpretación de las señales de tráfico, lo que puede tener consecuencias peligrosas.
La investigación también destaca una cuestión crítica en el ámbito de las imágenes médicas, un campo que depende cada vez más de la inteligencia artificial para el diagnóstico. Con AlphaDog se pueden procesar radiografías, resonancias magnéticas y tomografías computarizadas, que a menudo contienen imágenes en escala de grises. En las manos equivocadas, esta vulnerabilidad puede llevar a un diagnóstico erróneo.
Otra área de preocupación es la posible manipulación de los sistemas de reconocimiento facial, lo que aumenta la posibilidad de eludir los sistemas de seguridad o identificar erróneamente a las personas, abriendo la puerta a preocupaciones sobre la privacidad y riesgos de seguridad.
Los investigadores están colaborando con importantes empresas de tecnología, incluidas… Google, Amazonasy microsoftAbordar la vulnerabilidad de seguridad en las plataformas de inteligencia artificial. “La IA fue creada por humanos, y las personas que escribieron el código se centraron en el RGB pero dejaron de lado el canal alfa. En otras palabras, escribieron código para que los modelos de IA leyeran archivos de imágenes sin un canal alfa”, dijo Chen. .
“Este es el punto débil”, añadió Chen. “Excluir el canal alfa en estas plataformas conduce al envenenamiento de los datos… La IA es importante. Está cambiando nuestro mundo y tenemos muchas preocupaciones”.
a través de Explorar tecnología