Categories
Featured

AWS tiene una nueva herramienta que quiere detener para siempre las alucinaciones de la IA

[ad_1]


  • AWS revela comprobaciones de inferencia automatizadas
  • La nueva herramienta buscará reducir las alucinaciones de la IA comparando las respuestas con los datos de los clientes.
  • Los clientes recibirán respuestas de IA para ver qué tan precisas son

Las empresas lo utilizan cada vez más Herramientas de inteligencia artificial Dadas sus operaciones y misiones clave, las alucinaciones han demostrado ser cada vez más desafiantes.

Para tratar de abordar esto, Amazonas AWS ha anunciado una nueva herramienta para abordar las alucinaciones.

[ad_2]

Source Article Link

Categories
News

Amazon Web Services (AWS) lanza comprobaciones lógicas automatizadas en versión preliminar para combatir las alucinaciones de la IA

[ad_1]

Servicios web de Amazon (Os) lanzó un nuevo servicio en su conferencia en curso, re:Invent, que ayudará a las organizaciones a reducir los casos de alucinaciones de inteligencia artificial (IA). La herramienta de verificación de inferencia automatizada lanzada el lunes está disponible para vista previa y se puede encontrar en Amazon Bedrock Guardrails. La compañía afirmó que la herramienta verifica matemáticamente la precisión de las respuestas generadas por grandes modelos de lenguaje (LLM) y evita errores de alucinaciones en la vida real. Es similar a la función Grounding with Google Search disponible tanto en la API de Gemini como en Google AI Studio.

Comprobaciones de inferencia automatizadas de AWS

Los modelos de IA suelen generar respuestas incorrectas, engañosas o ficticias. Esto se conoce como alucinación de IA y el problema afecta la credibilidad de los modelos de IA, especialmente cuando se utilizan en el ámbito empresarial. Si bien las empresas pueden mitigar el problema hasta cierto punto entrenando un sistema de IA con datos regulatorios de alta calidad, los datos previos al entrenamiento y las fallas arquitectónicas aún pueden hacer que la IA alucine.

AWS detalló su solución a las alucinaciones de IA en un documento Publicación de blog. El verificador heurístico automatizado se introdujo como una nueva protección y se agregó en una versión preliminar dentro de Amazon Bedrock Guardrails. Amazonas Explicó que utiliza “procesos de inferencia y verificación algorítmica basados ​​en lógica” para verificar la información generada por los LLM.

El proceso es claro y directo. Los usuarios deberán cargar documentos relevantes que describan las reglas de la organización en la consola de Amazon Bedrock. Bedrock analizará automáticamente estos documentos y creará una política de inferencia automática inicial, que convertirá el texto en lenguaje natural a un formato matemático.

Una vez hecho esto, los usuarios pueden ir al menú Inferencias automáticas en la sección Medidas preventivas. Allí se puede crear una nueva política y los usuarios pueden agregar documentos existentes que contienen la información que la IA debería aprender. Los usuarios también pueden configurar los parámetros de procesamiento y el objetivo de la política manualmente. Además, también se pueden agregar preguntas y respuestas de muestra para ayudar a la IA a comprender la interacción típica.

Una vez hecho todo esto, la IA estará lista para implementarse y el verificador heurístico automatizado comprobará automáticamente si el chatbot da alguna respuesta incorrecta. Actualmente, la herramienta está disponible para versión preliminar en la región de AWS Oeste de EE. UU. (Oregón). La empresa planea extenderlo pronto a otras regiones.

[ad_2]

Source Article Link

Categories
Life Style

Los misteriosos tesoros de las rutas de la seda y el amanecer de las “alucinaciones”: libros breves

[ad_1]

El maestro de Einstein

Lee Phillips Asuntos publicos (2024)

Los principales estudios sobre las obras de Albert Einstein contienen poca o ninguna referencia al papel de la matemática alemana Emmy Noether. Sin embargo, jugó un papel crucial en la resolución de la paradoja de la relatividad general con su teoría que vincula las leyes de la simetría y la conservación de la energía, publicada en 1918. Cuando Noether murió en 1935, Einstein la describió como “el genio matemático creativo más importante jamás producido”. .” Ahora desde la educación superior.” Las mujeres comenzaron”. En este libro sobre ella para el lector general, el físico Lee Phillips da vida a Noether.

Rutas de la Seda

Sue Bruning et al. Prensa del Museo Británico (2024)

La primera pieza analizada en el libro de exposición profusamente ilustrado del Museo Británico revela la naturaleza misteriosa y de gran alcance de las Rutas de la Seda. Es una estatua de Buda, excavada en Suecia en un yacimiento que data aproximadamente del año 800 d.C., y probablemente fue creada en Pakistán dos siglos antes. Nadie sabe cómo llegó a Europa ni su importancia allí. Como admiten los autores, tres de los cuales son curadores, “es imposible capturar toda la extensión y complejidad de las Rutas de la Seda en una sola publicación”, incluso limitando su marco temporal a sólo cinco siglos.

El último trabajo humano

Allison Pugh Universidad de Princeton. el presiona (2024)

Hace un siglo, señala la socióloga Allison Pugh, las personas que compraban alimentos proporcionaban listas a los trabajadores de las tiendas, quienes recuperaban la mercancía y luego negociaban los precios. Ella resume este proceso como lo que ella llama trabajo conectivo, que implica “comprenderse emocionalmente con otra persona para crear resultados que creemos que son importantes”. Una sociedad sana requiere más trabajo conectado, no más automatización, afirma en su interesante estudio, en el que observa y entrevista a médicos, profesores, pastores, peluqueros y otros.

convertirse en la tierra

Ferris Jabr casa aleatoria (2024)

Según el periodista científico Ferris Gebre, su intrigante libro sobre la Tierra –dividido en tres secciones sobre rocas, agua y aire– es “una exploración de cómo la vida transforma el planeta y una meditación sobre lo que significa decir que la Tierra misma está viva”. .” . Si esta definición suena similar a la hipótesis de Gaia desarrollada por el químico James Lovelock y la bióloga Lynn Margulis, es bienvenida para Gebre, quien admira a Lovelock como pensador y figura. También reconoce cómo la hipótesis de la década de 1970, que ha evolucionado durante décadas, todavía divide a los científicos.

En el cielo azul claro

Rob Jackson escribano (2024)

El científico terrestre Rob Jackson dirige el Proyecto Global de Carbono, que trabaja para reducir las emisiones de gases de efecto invernadero y mejorar la calidad del aire y el agua. Es de esperar que su libro comience con una visita a Roma, donde los conservadores de los Museos Vaticanos discuten la “asombrosa” restauración del cielo azul en el fresco de Miguel Ángel. Sentencia finaldañada por siglos de suciedad y exhalaciones de visitantes. Pero termina con una nota muy pesimista en un barco de investigación en el Amazonas, azotado por inundaciones e incendios: “Alucinógeno”.

Intereses en competencia

El autor no declara intereses en competencia.

[ad_2]

Source Article Link

Categories
News

Microsoft lanza Corrección, una función de IA que puede detectar y corregir alucinaciones

[ad_1]

microsoft Lanzar nuevo inteligencia artificial Azure ha anunciado el lanzamiento de una nueva función llamada “Corrección” que identificará y corregirá los casos en los que el modelo de IA produce información incorrecta. Esta característica, denominada “Depuración”, está integrada en el sistema de detección de autenticidad del contenido de Azure AI Content Safety. Dado que esta característica sólo está disponible a través de Azure, es probable que esté dirigida a los clientes empresariales del gigante tecnológico. La empresa también está trabajando en otras formas de reducir los casos de alucinaciones de IA. En particular, la función también puede ofrecer una explicación de por qué una parte del texto está marcada como información incorrecta.

Lanzamiento de la función “Parches” de Microsoft

en BlogEl gigante tecnológico con sede en Redmond anunció la nueva característica que, según afirma, combate las alucinaciones inducidas por la IA, un fenómeno en el que la inteligencia artificial responde a una consulta con información incorrecta y no reconoce su falsedad.

Esta característica está disponible a través de los servicios Azure de Microsoft. El sistema Azure AI Content Safety tiene una herramienta conocida como detección de conexión a tierra. Esta herramienta determina si la respuesta resultante se basa en la realidad o no. Si bien la herramienta en sí funciona de muchas maneras diferentes para detectar alucinaciones, la función de corrección funciona de una manera específica.

Para que la depuración funcione, los usuarios deben estar conectados a Azure Core Documents, que se usa para el resumen de documentos y escenarios de preguntas y respuestas basados ​​en recuperación, generación y aumento (RAG). Una vez conectados, los usuarios pueden habilitar la función. Luego, cada vez que se genere una oración incorrecta o no esencial, la función activará una solicitud de corrección.

En pocas palabras, los documentos básicos pueden entenderse como pautas que un sistema de IA debe seguir al generar una respuesta. Puede servir como material fuente para una consulta o una base de datos más grande.

Luego, la función evaluará la declaración con respecto al documento subyacente y, si se detecta que es información engañosa, se filtrará. Sin embargo, si el contenido es coherente con el documento subyacente, la función puede reescribir la oración para garantizar que no se malinterprete.

Además, los usuarios también tendrán la opción de habilitar heurísticas al configurar la habilidad por primera vez. Al habilitar esto, la función de IA agregará una explicación de por qué cree que la información es incorrecta y debe corregirse.

Portavoz de la empresa el dijo The Verge informó que la función de depuración utiliza modelos de lenguaje pequeño (SLM) y modelos de lenguaje grande (LLM) para alinear la salida con los documentos básicos. “Es importante tener en cuenta que la detección de puesta a tierra no resuelve el problema de la 'precisión', pero ayuda a alinear las salidas generativas de la IA con los documentos de puesta a tierra”, dijo el portavoz según citó la revista.

[ad_2]

Source Article Link

Categories
Featured

Una startup respaldada por Dropbox y Figma presenta una tecnología avanzada que podría resolver uno de los mayores problemas de la IA: BFF Lamini de AMD promete reducir las alucinaciones en un 90 % mediante un proceso similar a un mapa mental

[ad_1]

Cualquiera que haya utilizado IA generativa durante un período de tiempo estará más que familiarizado con las alucinaciones. Estos casos ocurren cuando los sistemas de IA generan información falsa o engañosa, una falla que a menudo tiene su origen en limitaciones en los datos de entrenamiento o en el diseño del modelo. Estos errores pueden aparecer de forma impredecible y variar ampliamente en su gravedad: desde errores menores hasta distorsiones importantes que pueden sesgar significativamente los procesos de toma de decisiones.

El programa Lamini Memory Tuning tiene como objetivo reducir las alucinaciones de forma significativa, del 50% al 5%, que es el 90%. Esta tecnología permite incorporar datos precisos al MBA, logrando tasas de precisión de hasta el 95%, un salto significativo con respecto al 50% de precisión proporcionado por los métodos anteriores.

[ad_2]

Source Article Link

Categories
News

Descripción general de la IA de Google Se dice que está experimentando alucinaciones de IA y se le recomienda usar pegamento en la pizza.

[ad_1]

Google Una nueva herramienta de búsqueda impulsada por IA, AI Overviews, se enfrenta a reacciones negativas por proporcionar respuestas inexactas y algo extrañas a las consultas de los usuarios. En un incidente reportado recientemente, un usuario recurrió a Google porque el queso no se pegaba a la pizza. Mientras esperaban una solución práctica a sus problemas culinarios, Google Amnistía Internacional La función de descripción general proporcionó una solución algo complicada. Según publicaciones recientes en X, este no fue un incidente aislado ya que la herramienta de inteligencia artificial también sugiere respuestas extrañas a otros usuarios.

Queso, pizza y alucinaciones IA

El problema salió a la luz cuando un usuario lo denunció. libros Google “el queso no se pega a la pizza”. Para abordar el problema de la cocción, la función AI Overviews del motor de búsqueda sugirió varias formas de hacer una barra de queso, como mezclar la salsa y dejar enfriar la pizza. Sin embargo, una solución resultó ser realmente extraña. Según la captura de pantalla compartida, sugirió al usuario “agregar ⅛ de taza de pegamento no tóxico a la salsa para hacerla más pegajosa”.

Después de una mayor investigación, se encontró la fuente y resultó ser Reddit. comentario Hace 11 años, lo que parecía más una broma que un consejo de expertos culinarios. Sin embargo, la función AI Overviews de Google, que todavía tiene una etiqueta “La IA generativa es experimental” en la parte inferior, la presentó como una sugerencia seria para la consulta original.

Otra respuesta inexacta de AI Overviews surgió hace unos días cuando un usuario lo informó Solicitado Google: “¿Cuántas piedras debo comer?”. Citando a geólogos de UC Berkeley, la herramienta sugería que “se recomienda comer al menos una roca por día porque las rocas contienen minerales y vitaminas que son importantes para la salud digestiva”.

El problema detrás de las respuestas falsas

Estos problemas han surgido regularmente en los últimos años, especialmente desde que despegó el auge de la inteligencia artificial (IA), dando lugar a un nuevo problema conocido como alucinaciones por IA. Mientras las empresas lo afirman Amnistía Internacional Los chatbots pueden cometer errores y estas herramientas se utilizan cada vez más para distorsionar los hechos y proporcionar respuestas inexactas e incluso extrañas.

Sin embargo, Google no es la única empresa cuyas herramientas de inteligencia artificial han proporcionado respuestas inexactas. ChatGPT de OpenAI y Microsoft copilotoy el chatbot automatizado de Perplexity han experimentado alucinaciones de IA.

En más de un caso, se descubrió que la fuente era una publicación o comentario de Reddit realizado hace años. Las empresas detrás de las herramientas de inteligencia artificial también son conscientes de esto, incluido el director ejecutivo de Alphabet, Sundar Pichai. Dice The Verge: “Este es el tipo de cosas en las que tenemos que seguir mejorando”.

Hablando sobre la alucinación de la inteligencia artificial durante un evento celebrado en el Instituto Internacional de Tecnología de Delhi en junio de 2023, Sam Altman, [OpenAI](“Nos llevará alrededor de un año perfeccionar el modelo”, dijo el director ejecutivo y cofundador. “Es un equilibrio entre creatividad y precisión y estamos tratando de minimizar el problema). [At present,] Confío en las respuestas que provienen de ChatGPT no menos que cualquier otra persona en este mundo.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.



[ad_2]

Source Article Link