Categories
News

Google DeepMind integra Gemini 1.5 Pro en robots capaces de navegar en entornos del mundo real

[ad_1]

Google Mente profunda Nvidia compartió el jueves los últimos avances en robótica y modelos de lenguaje de visión (VLM). El departamento de investigación de IA del gigante tecnológico está trabajando con modelos de visión avanzados para desarrollar nuevas capacidades en robótica. En un nuevo estudio, DeepMind destaca que el uso de Gemini 1.5 Pro y su larga ventana de contexto ahora ha permitido al departamento lograr avances en la navegación en el mundo real y la comprensión de sus robots. A principios de este año, NVIDIA también anunció el lanzamiento de Gemini 1.5 Pro. ha sido detectado Nueva tecnología de inteligencia artificial que mejora las capacidades avanzadas de robots con apariencia humana.

Google DeepMind utiliza Gemini AI para mejorar los robots

en correo En X (anteriormente conocido como Twitter), Google DeepMind reveló que estaba entrenando a sus bots usando mellizo 1.5 Ventana contextual con 2 millones de tokens. Las ventanas de contexto pueden entenderse como la ventana de conocimiento visual de un modelo de IA, que utiliza para procesar información indirecta sobre el tema a consultar.

Por ejemplo, si un usuario le pregunta a un modelo de IA “sabores de helado más populares”, el modelo de IA comprobará la palabra clave “helado” y “sabores” para encontrar información sobre esa pregunta. Si esta ventana de información es demasiado pequeña, la IA sólo podrá responder con los nombres de diferentes sabores de helado. Sin embargo, si fuera más grande, la IA también podría ver la cantidad de artículos sobre cada sabor de helado para encontrar los más mencionados e inferir el “factor de popularidad”.

DeepMind aprovecha esta larga ventana contextual para entrenar a sus robots en entornos del mundo real. La sección tiene como objetivo descubrir si el robot es capaz de recordar detalles del entorno y ayudar a los usuarios cuando se les pregunta sobre el entorno utilizando términos contextuales o ambiguos. En un vídeo compartido en InstagramEl departamento de IA demostró que el robot era capaz de dirigir a un usuario a una pizarra cuando le preguntaba dónde podía dibujar.

“Con el contexto de 1 millón de caracteres en 1.5 Pro, nuestros robots pueden usar instrucciones humanas, recorridos en video y sentido común para encontrar con éxito su camino a algún lugar”, dijo Google DeepMind en una publicación de blog.

en Estancia Un artículo publicado en arXiv (una revista en línea no revisada por pares) en el que DeepMind explica la tecnología detrás de este truco. Además de Géminis, ella también es Usar Su Transformador Automático Modelo 2 (RT-2). Es un modelo de visión, lenguaje y acción (VLA) que aprende de datos web y bots. Utiliza visión por computadora para procesar entornos del mundo real y utilizar esta información para crear conjuntos de datos. Este conjunto de datos puede ser procesado posteriormente por IA generativa para analizar comandos contextuales y producir los resultados deseados.

Hoy en día, Google DeepMind utiliza esta arquitectura para entrenar robots en una categoría amplia conocida como navegación instructiva multimodal (MIN), que incluye exploración del entorno y navegación guiada por instrucciones. Si la demostración de la empresa es legítima, la tecnología podría ayudar a que la robótica avance aún más.

[ad_2]

Source Article Link

Categories
News

Empleados de OpenAI y Google DeepMind advierten sobre los riesgos de la IA y exigen mejores políticas para proteger a los denunciantes

[ad_1]

AbiertoAI Y Google DeepMind Se encuentra entre las principales empresas de tecnología a la vanguardia de la construcción de sistemas y capacidades de inteligencia artificial. Sin embargo, varios empleados actuales y anteriores de estas organizaciones han firmado una carta abierta afirmando que hay poca supervisión sobre la construcción de estos sistemas y que no se presta suficiente atención a los principales riesgos que plantea esta tecnología. La carta abierta fue respaldada por dos de los tres “padrinos” de Amnistía Internacional, Geoffrey Hinton y Yoshua Bengio, y busca implementar mejores políticas para proteger a los denunciantes frente a los empleadores.

Los empleados de OpenAI y Google DeepMind exigen el derecho a advertir sobre la IA

el Carta abierta Afirma que fue escrito por empleados actuales y anteriores de las principales empresas de IA que creen en el potencial de la IA para ofrecer beneficios sin precedentes a la humanidad. También señala los riesgos que plantea la tecnología, que incluyen aumentar la desigualdad social, difundir información errónea y manipulación, e incluso perder el control de los sistemas de inteligencia artificial que podrían conducir a la extinción humana.

La carta abierta destaca que la estructura de autogestión implementada por estas gigantescas empresas tecnológicas es ineficaz para garantizar el control de estos riesgos. También afirmó que los “fuertes incentivos financieros” incentivan a las empresas a pasar por alto el peligro potencial que pueden causar los sistemas de IA.

La carta abierta afirmaba que las empresas de IA ya son conscientes de las capacidades, limitaciones y niveles de riesgo de los diferentes tipos de daño de la IA, y la carta abierta cuestiona su intención de tomar medidas correctivas. “Actualmente sólo tienen compromisos débiles para compartir parte de esta información con los gobiernos, no con la sociedad civil. No creemos que se pueda confiar en que todos la compartan voluntariamente”.

La carta abierta planteaba cuatro exigencias a los empresarios. En primer lugar, los empleados quieren que las empresas no celebren ni hagan cumplir ningún acuerdo que prohíba sus críticas sobre preocupaciones de riesgo. En segundo lugar, exigían un proceso anónimo y verificable para que los empleados actuales y anteriores plantearan sus preocupaciones sobre riesgos a la junta directiva de la empresa, a los reguladores y a una organización independiente adecuada.

El personal también insta a las organizaciones a desarrollar una cultura de crítica abierta. Finalmente, la carta abierta destaca que los empleadores no deben tomar represalias contra empleados actuales y anteriores que compartan públicamente información confidencial relacionada con riesgos después de que otras operaciones fracasen.

Un total de 13 empleados actuales y anteriores de OpenAI y Google DeepMind firmaron la carta. Además de los “padrinos” de la IA, el informático británico Stuart Russell también apoyó la medida.

Un ex empleado de OpenAI habla sobre los riesgos de la IA

Uno de los ex empleados de OpenAI que firmó la carta abierta, Daniel Cocotaylo, también hizo una serie de Soportes en X (antes Twitter), destacando su experiencia en la empresa y los riesgos de la inteligencia artificial. Afirmó que cuando renunció a la empresa le pidieron que firmara una cláusula de no menosprecio para impedirle decir algo crítico hacia la empresa. También afirmó que la empresa amenazó a Kokotaglo con retirarle sus acciones adquiridas por negarse a firmar el acuerdo.

Cocotaylo afirmó que las redes neuronales para sistemas de inteligencia artificial crecen rápidamente a partir de los grandes conjuntos de datos que reciben. Agregó que no existen procedimientos suficientes para monitorear los riesgos.

“Hay muchas cosas que no entendemos sobre cómo funcionan estos sistemas y si seguirán siendo compatibles con los intereses humanos a medida que se vuelvan más inteligentes y tal vez superen el nivel de inteligencia humana en todos los ámbitos”, añadió.

En particular, OpenAI también es edificio Model Spec, un documento a través del cual pretende guiar mejor a la empresa en la construcción de tecnología de IA ética. Últimamente también criatura Comité de Seguridad y Vigilancia. Cocotaylo elogió estas promesas en una publicación.

[ad_2]

Source Article Link

Categories
Life Style

Los expertos de OpenAI y Google DeepMind tienen serias advertencias sobre la IA

[ad_1]

Para OpenAI, las últimas semanas han sido así para hacer varios titulares -Y no por las mejores razones. La historia no termina ahí: muchos empleados actuales y anteriores de OpenAI, junto con empleados de Google DeepMind, ahora critican a sus principales empresas de IA por la censura, una cultura de crítica asfixiante y una falta general de transparencia.

en Carta abierta, los denunciantes esencialmente han defendido el derecho a criticar públicamente la tecnología de inteligencia artificial y los riesgos asociados con ella. Debido a la falta de obligación de compartir información con agencias gubernamentales y reguladores, “los empleados actuales y anteriores se encuentran entre las pocas personas que pueden conservar su información”, escribieron. [these corporations] “Responsables con el público”, y dijo que muchos de ellos “temen diversas formas de represalias” por hacerlo.

Los firmantes exigieron que las empresas de inteligencia artificial avanzada se adhieran a ciertos principios, incluida la facilitación de un proceso anónimo para que los empleados planteen preocupaciones sobre riesgos y que las empresas apoyen una “cultura abierta de crítica”, siempre que los secretos comerciales estén protegidos por la ley. la operacion. También pidieron a las empresas que no tomen represalias contra quienes “compartan públicamente información confidencial de riesgo después de que otras operaciones fracasen”.

Velocidad de la luz triturable

En la carta, el grupo también abordó los riesgos de la IA de los que son conscientes: desde afianzar las desigualdades existentes hasta exacerbar la desinformación y el potencial de extinción humana.

Daniel Kokotaglo, ex investigador de OpenAI y uno de los organizadores del grupo, Le dijo al New York Times Que OpenAI está “corriendo precipitadamente” hacia la cima del juego de la IA. La empresa se ha enfrentado a un escrutinio por sus operaciones de seguridad. Lanzamiento reciente del equipo de seguridad interno También es sorprendente que esto sea cierto. Sam Altman, director ejecutivo Él se sienta sobre su cabeza.



[ad_2]

Source Article Link

Categories
News

Google DeepMind usa SynthID para marcar el contenido generado por la IA de Gemini y Veo

[ad_1]

Google Él hizo muchas inteligencia artificial (IA) anuncios basados ​​​​en la noche del martes durante la sesión magistral de I/O 2024. Esto incluye nuevos modelos de IA, actualizaciones de los modelos principales existentes, integración de funciones de IA en los productos de Google y más. El gigante tecnológico también se centró en la seguridad de la IA y amplió el uso de su tecnología nativa de marca de agua para contenido generado por IA, llamada SynthID. Este nuevo conjunto de herramientas ahora incluirá marcas de agua para el texto creado por mellizo Aplicación, cliente web y vídeos creados por Veo.

SynthID fue el primero quitar el velo Por Google Mente profunda en agosto de 2023 como proyecto piloto destinado a clasificar correctamente el contenido generado por IA. La necesidad de una solución de este tipo se ha sentido debido a la aparición de casos en los que estos medios creados artificialmente se han compartido como reales. Se han utilizado para difundir información errónea y delitos cibernéticos como el phishing. El gigante tecnológico utilizó la tecnología por primera vez en noviembre de 2023, cuando se utilizó para marcar con agua el audio generado por IA a través de su modelo Lyria. El conjunto de herramientas agregó marcas de agua como formas de onda al audio para hacerlo imperceptible pero detectable.

Ahora, Google está ampliando el uso de SynthID para incluir la creación de texto y vídeo. El texto creado con la aplicación y el sitio web de Gemini ahora tendrá una marca de agua. Para ello, el conjunto de herramientas se centrará en el propio proceso de creación. Cada modelo de IA basado en texto utiliza tokens (que pueden ser palabras, clips de audio o frases) para el entrenamiento. El proceso de capacitación también incluye comprender el flujo de uso de estos tokens o el orden que deben seguir los tokens para generar la respuesta más consistente.

SynthID proporciona “información adicional en la distribución del token en el punto de creación ajustando la probabilidad de creación del token”. De esta forma, a determinadas palabras de un bloque de texto generado se les asigna un número. Cuando detecta si se utilizó IA para crear el texto, compara la puntuación con puntuaciones de probabilidad ajustadas para determinar si la fuente podría ser un modelo de IA. DeepMind fue destacado en un correo Esta técnica es útil cuando la IA crea texto creativo largo, ya que es más fácil para los modelos probabilísticos verificar cómo se generó. Sin embargo, para respuestas realistas más cortas, la detección puede no ser tan precisa.

La compañía también está ampliando SynthID para presentar recientemente videos Veo generados por IA. Google dijo que la tecnología incorporará marcas de agua directamente en los píxeles de cada fotograma de vídeo, que serán imperceptibles para el ojo humano pero que aparecerán cuando se utilice el sistema de detección.

En los próximos meses, Google planea abrir marcas de agua de texto de código abierto con SynthID a través de su kit de herramientas de IA responsable. También se publicará un artículo de investigación detallado que explica la tecnología de marcas de agua en textos.

[ad_2]

Source Article Link

Categories
News

Google I/O 2024: DeepMind muestra la interacción de IA basada en visión por computadora en tiempo real con el Proyecto Astra

[ad_1]

E/S de Google La sesión magistral de 2024 permitió a la empresa mostrar su impresionante gama de inteligencia artificial (Inteligencia Artificial) Modelos y herramientas en los que llevas un tiempo trabajando. La mayoría de las funciones introducidas aparecerán en vistas previas públicas en los próximos meses. Sin embargo, la tecnología más interesante mostrada en el evento no estará aquí por un tiempo. Desarrollado por Google DeepMindeste nuevo asistente de IA se llamó Proyecto Astra y mostraba interacción de IA basada en visión por computadora en tiempo real.

Project Astra es un modelo de IA que puede realizar tareas muy avanzadas de chatbots existentes. Google Sigue un sistema en el que utiliza los modelos de IA más grandes y potentes para entrenar sus modelos listos para producción. Destacando un ejemplo de un modelo de IA que se está entrenando actualmente, el cofundador y director ejecutivo de Google DeepMind, Demis Hassabis, presentó el proyecto Astra. Al presentarlo, dijo: “Hoy tenemos algunos avances nuevos e interesantes que compartir sobre el futuro de los asistentes de IA que llamamos Proyecto Astra. Hace tiempo que queremos construir un agente de IA universal que pueda ser verdaderamente útil en la vida cotidiana.

Hassabis también enumeró una serie de requisitos que la compañía ha establecido para estos agentes de IA. Necesitan comprender y responder a un entorno complejo y dinámico del mundo real, y necesitan recordar lo que ven para desarrollar el contexto y tomar medidas. Además, también debe ser enseñable y personalizado para que uno pueda aprender nuevas habilidades y tener conversaciones sin demora.

Con esta descripción, el CEO de DeepMind mostró un video de demostración donde se puede ver al usuario sosteniendo un teléfono inteligente con la aplicación de cámara abierta. El usuario habla usando la IA y la IA responde instantáneamente, respondiendo varias consultas basadas en la visión. La IA también pudo utilizar información visual para contextualizar y responder preguntas relevantes que requerían habilidades creativas. Por ejemplo, el usuario le mostró a la IA algunos crayones y le pidió que los describiera con aliteraciones. Sin demora, el chatbot dice: “Los crayones creativos son deliciosamente coloridos. Definitivamente hacen creaciones coloridas.

Pero eso no fue todo. En el vídeo, el usuario señala hacia una ventana a través de la cual se pueden ver algunos edificios y carreteras. Cuando se le pregunta sobre el vecindario, la IA inmediatamente da la respuesta correcta. Esto muestra el poder de procesamiento de visión por computadora del modelo de IA y el enorme conjunto de datos visuales que habría requerido para entrenarlo. Pero quizás la presentación más interesante fue cuando se le preguntó a la IA sobre las gafas del usuario. Ella apareció en la pantalla brevemente durante unos segundos y ya había abandonado la pantalla. Sin embargo, la IA puede recordar su ubicación y guiar al usuario hasta ella.

Project Astra no está disponible en versión preliminar pública o privada. Google todavía está trabajando en el modelo y tiene que descubrir los casos de uso de la función de IA y determinar cómo ponerla a disposición de los usuarios. Esta demostración podría haber sido la hazaña de IA más ridícula hasta el momento, pero el evento de actualización de primavera de OpenAI hace un día eliminó parte del ruido. Durante sus actividades, Abierto AI La presentación de GPT-4o mostró habilidades y sonidos emocionales similares que hicieron que la IA pareciera más humana.

[ad_2]

Source Article Link

Categories
News

AGI development explained by DeepMind Founder

AGI development explained by DeepMind Founder

Imagine a world where machines can think, learn, and understand like us. Shane Legg, a key player at Google DeepMind, sheds light on the journey toward creating such intelligent machines, known as Artificial General Intelligence (AGI). AGI is not just a sophisticated computer; it’s about crafting a machine that can handle any intellectual task as well as, or even better than, we can.

Understanding how close we are to achieving Artificial General Intelligence is not straightforward. Intelligence is a vast concept, much more than a simple measure like the height a high jumper can clear. It’s about more than solving puzzles quickly; it involves grasping stories, learning from what happens to us, and making sense of the world. To truly gauge our machines’ intelligence, we need a range of cognitive benchmarks that reflect the full scope of human cognition, not just the narrow tests we often use now.

Take, for instance, episodic memory. This is our ability to remember past events and learn from them, which is a key part of intelligence. However, our current AI struggles with this. They find it hard to remember and use specific experiences in the way we do. This is where the idea of sample efficiency comes into play. It’s about learning a lot from very little—like a child who learns to stay away from a hot stove after just one touch. Our machines need to get better at this.

AGI DeepMind

Here are some other articles you may find of interest on the subject of artificial intelligence :

Another hurdle is understanding streaming video. We can watch a video and understand the story, the emotions, and the subtle details. But current AI systems often can’t do this. They struggle to put together the narrative threads in the seamless way that we can.

Artificial General Intelligence

Large language models (LLMs) like GPT-3 have made waves for their ability to generate text that looks like it was written by a human. But they have their limits. They don’t really understand what they’re writing about. To get past these limits, we might need to rethink how we build AI models. This could mean creating systems that can search through information creatively, not just repeat what they’ve been fed.

As we move forward, it’s crucial to have a deep understanding, consider ethics, and ensure robust reasoning. We have to make sure AI systems align with human values. This is more than just avoiding mistakes; it’s about guiding AI to make choices that are good and fair for everyone.

Interpretability is also key. If we can’t understand how an AI makes decisions, how can we trust it? We need to supervise these systems, use red teams to test them, and set up rules for how they operate. These are all important safety steps we must take with these intelligent systems.

DeepMind AI

DeepMind has played a big role in pushing AI forward, but with great power comes great responsibility. The impact AGI could have on our economy and society is huge. It could change industries, the way our economy works, and our daily lives. But we have to handle it with care.

Looking ahead, AI will go beyond just dealing with text. Multimodality—combining text, images, sound, and other types of data—is the next big thing. This will open the door to new AI uses, from virtual assistants that are easier to talk to, to machines that see the world a bit more like we do.

As you explore the changing landscape of AI, remember that progress isn’t just about making smarter machines. It’s about building systems that make our lives better and stick to our values. With Shane Legg and his team at DeepMind at the forefront, the future of AI promises to be as exciting as it is complex and Artificial General Intelligence could be just around the corner. You can also listen to the podcast over on Apple.

Filed Under: Guides, Top News





Latest timeswonderful Deals

Disclosure: Some of our articles include affiliate links. If you buy something through one of these links, timeswonderful may earn an affiliate commission. Learn about our Disclosure Policy.