inteligencia artificial Las herramientas de inteligencia artificial pronto podrían comenzar a predecir y manipular a los usuarios a partir de la gran cantidad de “datos de intención” a su disposición, según afirma un estudio. El trabajo de investigación de la Universidad de Cambridge también destaca que en el futuro podría formarse una “economía de intención” que podría crear un mercado para vender “señales digitales de intención” a una gran base de usuarios. El periódico advirtió que esos datos podrían usarse de varias maneras, desde crear anuncios personalizados en línea hasta usar chatbots con tecnología de inteligencia artificial para persuadir a los usuarios a comprar un producto o servicio.
Es innegable que los chatbots impulsados por IA, como ChatGPT, mellizo, CopilotoOtros tienen acceso a un enorme conjunto de datos que provienen de los usuarios con los que conversan. Muchos usuarios expresan sus opiniones, preferencias y valores utilizando estas plataformas de IA. Los investigadores del Centro Leverhulme para el Futuro de la Inteligencia (LCFI) de Cambridge afirman que estos big data podrían utilizarse de forma peligrosa en el futuro.
El documento describe la economía de la intención como un nuevo mercado para “señales de intención digitales”, donde los robots y herramientas de inteligencia artificial pueden comprender, predecir y guiar las intenciones humanas. Los investigadores afirman que estos datos también se venderán a empresas que puedan beneficiarse de ellos.
Los investigadores detrás de este artículo creen que la Economía de la Intención será la sucesora de la actual “economía de la atención” explotada por las plataformas de redes sociales. En la economía de la atención, el objetivo es mantener al usuario apegado a la plataforma y al mismo tiempo poder recibir una gran cantidad de publicidad. Estos anuncios se orientan en función de la actividad de los usuarios en la aplicación, lo que revela información sobre sus preferencias y comportamiento.
El documento afirma que la economía de intención podría estar más extendida en su alcance y explotación, ya que puede obtener información sobre los usuarios hablando directamente con ellos. Como tales, pueden aprender sobre sus miedos, deseos, inseguridades y opiniones.
“Debemos comenzar a considerar el impacto potencial de dicho mercado en las aspiraciones humanas, incluidas elecciones libres y justas, una prensa libre y una competencia justa en el mercado antes de que seamos víctimas de sus consecuencias no deseadas”, dijo el Dr. Johnny Penn, historiador de tecnología de LCFI. . el dijo El guardián.
El estudio también afirmó que con un volumen tan grande de “datos intencionales, conductuales y psicológicos”, también se podría enseñar a los grandes modelos de lenguaje (LLM) cómo utilizar esta información para predecir y manipular a las personas. El periódico afirmó que los futuros chatbots podrían recomendar a los usuarios que vean una película y podrían utilizar el acceso a sus emociones como medio para convencerlos de que la vean. “Mencionaste que te sentías cansado, ¿puedo comprarte esa entrada al cine de la que hablamos?”, por ejemplo.
Ampliando esta idea, el artículo argumenta que en una economía de intención, los LLM también podrían crear perfiles psicológicos de los usuarios y luego venderlos a los anunciantes. Estos datos pueden incluir información sobre el ritmo de un usuario, inclinaciones políticas, vocabulario, edad, género, preferencias, opiniones y más. Luego, los anunciantes podrán crear anuncios en línea altamente personalizados para ver qué puede alentar a una persona a comprar un producto en particular.
En particular, el documento ofrece una perspectiva sombría sobre cómo se utilizarán los datos privados de los usuarios en la era de la inteligencia artificial. Sin embargo, dada la postura proactiva de varios gobiernos de todo el mundo al limitar el acceso de las empresas de IA a dichos datos, la realidad puede ser más brillante de lo que predice el estudio.