James W.Marshall W. ChatGPT 3.5 Tienen una cosa en común. Ambos provocaron una “subidón” y cambiaron el mundo. Mientras Marshall encontró la primera pepita de oro en enero de 1848, lo que envió a 300.000 personas a California, el lanzamiento de ChatGPT 3.5 en noviembre de 2022 generó revuelo entre los usuarios y los inversores en tecnología. Inteligencia artificial y grandes modelos de lenguaje (Maestría en Derecho) de repente se volvió popular, con millones de usuarios apresurándose a usar chatbots, cambiando el mundo para siempre.
Las desventajas del auge de la IA están empezando a hacerse evidentes, ya sea en relación con los derechos de autor, los prejuicios, la ética, la privacidad, la seguridad o el impacto en los empleos. Es por eso que la intención de la UE de considerar cuestiones éticas y morales regulando la tecnología a través de la ley de IA es oportuna y apropiada. Mientras tanto, todas las empresas importantes del planeta probablemente hayan pensado en cómo integrar inteligentemente la IA en sus sitios web, productos y servicios para aumentar productividadmejorando la satisfacción del cliente y, en última instancia, mejorando ventas.
No hagas la vista gorda ante los riesgos y efectos secundarios.
Al igual que la fiebre del oro, el auge de la IA también generó una rápida afluencia de personas que se subieron al carro para no perder la oportunidad que presentaba. Sin embargo, el uso de la IA en las empresas no debería realizarse en una fiebre del oro al estilo del “Salvaje Oeste”; En cambio, debería venir con una advertencia clara similar a un anuncio de nicotina porque ignorar los riesgos y efectos secundarios de la IA podría, en circunstancias extremas, tener consecuencias nefastas.
Los riesgos más comunes van desde que los departamentos de desarrollo compartan inadvertidamente diseños o líneas de código con titulares de títulos de LLM generales hasta cambiar las expectativas de los clientes sobre cómo las empresas utilizan la IA y los datos en el proceso. Pero estos riesgos pueden aumentar dramáticamente y causar daño; Por ejemplo, en 2016 cuando, microsoftTai publicó casi 95.000 tweets durante 16 horas, muchos de los cuales eran racistas y misóginos. Según un estudio de Cohesity, más de las tres cuartas partes de los consumidores (78 por ciento) tienen serias preocupaciones sobre el uso irrestricto o no supervisado de sus datos por parte de la IA.
Pero ¿cómo se puede domesticar la inteligencia artificial? Ya se ha implementado en varias empresas sin que nadie establezca reglas para su uso o supervise su cumplimiento, de forma similar a cómo se “apresura” Computación en la nube Lo que llevó a que muchas empresas reiniciaran desde cero y perdieran tiempo y dinero. Para evitar que esto cause todo tipo de problemas, cualquier organización que quiera utilizar la IA de manera responsable durante el próximo año debe regular esta proliferación internamente, controlar el acceso y tener políticas estrictas de IA. Recientemente, muchas empresas, incluidas Amazonas Y el gigante financiero, JPMC, restringió el uso de ChatGPT por parte de sus empleados para lograr un alto nivel de control antes de abrir las compuertas y planea reintroducir suavemente el acceso apropiado cuando existan políticas de uso y controles técnicos.
También es importante que las empresas definan claramente cuáles son cuáles. Datos Sus proyectos de IA tienen acceso a él y cómo pueden procesarlo. Los controles de acceso clásicos basados en roles que vinculan roles y tareas a fuentes de datos son una buena opción para controlar esto de manera escalable. Sólo aquellos con los privilegios necesarios pueden abrir fuentes de datos. Estos roles también deben reflejar que una persona a la que no se le permite abrir fuentes de datos específicas por razones legales no puede hacerlo. Las restricciones geográficas, como la soberanía de los datos, están sujetas a un estricto control.
Lo que actualmente rara vez se investiga, y puede convertirse en un problema en el futuro, es si, cómo y en qué orden se rastrearán exactamente los modelos de IA que fueron alimentados (entrenados). Este punto ciego puede tener consecuencias legales, morales y éticas. Si la IA toma una decisión fatal en el futuro, tendrá consecuencias nefastas en al menos una o, en el peor de los casos, en todas estas áreas. Un juez estricto querrá saber cómo se entrenaron los modelos de IA para lograr el desenlace fatal. También se le pedirá que mantenga un registro completo de su período de capacitación típico durante el período especificado.
Haga que los procesos de aprendizaje sean transparentes e instale un botón de “atrás”.
Por lo tanto, es crucial clasificar los datos que se ingresan y documento Proceso de aprendizaje. Esto permitirá a las empresas crear más transparencia para los clientes y mejorar la calidad del proceso de aprendizaje. También es correcto abordar esto de manera organizada y responsable, utilizando únicamente datos aprobados apropiadamente, garantizando que la IA y su elemento humano tengan el nivel correcto de acceso a los datos y que no puedan modificarlos o acceder a ellos de manera inapropiada. datos que no quieren. Permitido ver: los controles de acceso basados en roles garantizan ambas privacidadpero también se controla adecuadamente el acceso a la inteligencia artificial.
Sin embargo, al mismo tiempo, el proceso de aprendizaje de la IA sigue siendo un misterio; Se lleva a cabo mediante algoritmos matemáticamente complejos y, sobre todo, lleva mucho tiempo. Durante años, Tesla ha entrenado su IA para conducir de forma autónoma en situaciones de tráfico reales. Pero, ¿cómo se puede proteger el núcleo de años de aprendizaje de pérdidas y aportes incorrectos? ¿Cómo puede proteger este aprendizaje de sus competidores o actores de amenazas, que pueden querer influir negativamente en los comportamientos? ¿Cómo protege su propiedad intelectual para que no se incluya ilegalmente en la formación en IA? Un buen ejemplo de esto último es la demanda del New York Times. Abierto AI y Microsoft por el uso no autorizado de artículos del NYT para capacitar a los LLM de GPT. Esto nos lleva a abordar la inteligencia artificial de manera responsable y disciplinada.
Hasta ahora, ninguna startup ha ideado cómo un motor de IA puede registrar los bits y bytes que se modifican en el proceso de aprendizaje después de que se ingresan nuevos datos. Cualquiera que quiera restablecer una IA a un estado anterior porque la alimentó incorrectamente (con contenido legalmente protegido, por ejemplo) no podrá hacerlo directamente en el motor de IA. Necesitan una solución alternativa que ya se haya creado en otras áreas de TI. En el ámbito de la seguridad informática, los métodos probados también pueden resultar útiles para proteger mejor los modelos de IA. Algunas soluciones permiten tomar instantáneas de todo el sistema y luego volver a la versión anterior en caso de emergencia. Luego perderá días entre la creación de instantáneas y cuestiones de tiempo específicas, pero no todos los conocimientos funcionan. Las empresas deben tener esto en cuenta y aprovecharlo al considerar los riesgos de la IA.
Hemos compilado una lista extensa de las mejores herramientas de inteligencia artificial.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro