La Inteligencia Artificial es el último monstruo tecnológico que asusta a la gente sobre el futuro. Las preocupaciones legítimas sobre aspectos como la formación ética, el impacto medioambiental y el fraude de la IA se convierten fácilmente en pesadillas de Skynet y Matrix. A menudo se plantea la posibilidad de que la inteligencia artificial se vuelva consciente y derroque a la humanidad, pero como dijo el jefe de IA de Meta, Yann LeCun… el dijo El diario de Wall StreetLa idea es “una completa tontería”. LeCun describió a la IA como menos inteligente que un gato e incapaz de planificar o incluso desear nada en absoluto, y mucho menos la caída de nuestra especie.
LeCun tiene razón en que la IA no planeará matar a la humanidad, pero eso no significa que no haya nada de qué preocuparse. Me preocupa más que la gente dependa de la IA para ser más inteligente de lo que lo es ahora. La IA es sólo otra tecnología, lo que significa que no es ni buena ni mala. Pero la ley de las consecuencias no deseadas sugiere que confiar en la IA para tomar decisiones importantes que cambian la vida no es una buena idea.
Piense en los desastres y los cuasi desastres causados por confiar en la tecnología por encima de la toma de decisiones humana. El rápido comercio de acciones utilizando máquinas mucho más rápidas que los humanos ha causado más de un casi colapso de parte de la economía. Casi se produjo un colapso más literal cuando el sistema de detección de misiles soviético falló y afirmó que estaban en camino ojivas nucleares. En este caso, sólo una persona valiente evitó la catástrofe global.
Ahora imaginemos que la IA tal como la conocemos hoy continúa cotizando en el mercado de valores porque los humanos le han otorgado un control más amplio. Luego imagine que la IA acepta la falsa alerta de misil y le permite activar los misiles sin intervención humana.
Se ha evitado el apocalipsis de la IA
Sí, parece descabellado que la gente confíe en una tecnología famosa por sus realidades alucinógenas como responsable de las armas nucleares, pero no es tan descabellado de lo que realmente está sucediendo. Es posible que la voz de IA en el teléfono del servicio de atención al cliente haya decidido si recibirá un reembolso antes de que haya tenido la oportunidad de explicar por qué se lo merece, y ningún ser humano está escuchando o puede cambiar de opinión.
La IA solo hará aquello para lo que la hemos entrenado y utilizará datos proporcionados por humanos para hacerlo. Esto significa que refleja nuestras mejores y peores cualidades. El lado que surja depende de las circunstancias. Sin embargo, entregar demasiado del proceso de toma de decisiones a la IA es un error en cualquier nivel. La IA puede ser de gran ayuda, pero no debería decidir si contratar a alguien o si una póliza de seguro pagará una operación. Deberíamos preocuparnos de que los humanos puedan hacer un mal uso de la IA, accidental o no, para reemplazar el juicio humano.
microsoftMarcar a los asistentes de IA como copilotos es genial porque trae a alguien que está ahí para ayudarte a alcanzar tus objetivos pero que no los define ni toma más iniciativa de la que tú dejas ver. LeCun tiene razón en que la IA no es más inteligente que un gato, pero un gato con la capacidad de sacarte a ti, o a toda la humanidad, del mostrador metafórico no es algo que debamos apoyar.