Categories
News

Lanzamiento del modelo Google Gemini 2.0 Flash Thinking AI con capacidades avanzadas de pensamiento lógico

[ad_1]

Google El jueves lanzó un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0 que se centra en la visión de futuro. El nuevo modelo de lenguaje grande (LLM), llamado Gemini 2.0 Thinking, aumenta el tiempo de inferencia para permitir que el modelo dedique más tiempo a resolver el problema. El gigante tecnológico con sede en Mountain View afirma que puede resolver tareas complejas de pensamiento, matemáticas y programación. Además, se dice que LLM realiza tareas a mayor velocidad, a pesar del mayor tiempo de procesamiento.

Google lanza un nuevo modelo de inteligencia artificial que se centra en la inferencia

en un correo En Actualmente está disponible en Google AI Studio y los desarrolladores pueden acceder a él a través de la API de Gemini.

Reflejo de flash Gemini g360 Reflejo de flash gemini 2

Modelo de IA de pensamiento flash Gemini 2.0

Los empleados de Gadgets 360 pudieron probar el modelo de IA y descubrieron que el modelo Gemini, que se centra en el razonamiento avanzado, resuelve con facilidad preguntas complejas que son demasiado difíciles para el modelo 1.5 Flash. En nuestras pruebas, descubrimos que el tiempo de procesamiento típico oscilaba entre tres y siete segundos, lo que supone una mejora significativa con respecto a AbiertoAI o1 cadena que puede tardar hasta 10 segundos en procesar la consulta.

el mellizo Flash Thinking 2.0 también muestra su proceso de pensamiento, donde los usuarios pueden comprobar cómo el modelo de IA llegó al resultado y los pasos que tomó para llegar allí. Descubrimos que LLM pudo encontrar la solución correcta ocho de cada 10 veces. Dado que es un modelo experimental, es de esperar que se produzcan errores.

Aunque Google no reveló detalles sobre la arquitectura del modelo de IA, sí destacó sus limitaciones centradas en los desarrolladores. Publicación de blog. Actualmente, Gemini 2.0 Flash Thinking tiene un límite de entrada de 32.000 tokens. Sólo puede aceptar texto e imágenes como entrada. Solo admite texto como salida y tiene un límite de 8000 tokens. Además, la API no viene con una herramienta integrada como búsqueda o ejecución de código.

[ad_2]

Source Article Link

Categories
News

Lanzamiento del modelo de IA DeepSeek-R1 de China con capacidades de pensamiento avanzadas, que puede competir con OpenAI o1

[ad_1]

Chino inteligencia artificial (AI) fue lanzado el miércoles y pretende tomar el modelo de IA o1 de OpenAI en términos de razonamiento avanzado. Se dice que el modelo de lenguaje grande (LLM) llamado DeepSeek-R1-Lite-Preview superó al modelo o1 en varios puntos de referencia. En particular, el modelo de IA está disponible para probar en la web de forma gratuita, aunque su función de inferencia avanzada solo se puede utilizar un número específico de veces. Además, el modelo de IA también proporciona un proceso de razonamiento transparente que los usuarios pueden ver para evaluar cómo se tomó la decisión de salida.

Se presenta el modelo de IA DeepSeek-R1

El razonamiento avanzado es una habilidad relativamente nueva en los MBA que les permite tomar decisiones a través de procesos de razonamiento de varios pasos. Esto tiene muchas ventajas. En primer lugar, estos modelos de IA pueden responder consultas más complejas que requieren una comprensión más profunda del contexto y un conocimiento experto del tema. Otro modelo, los modelos de IA, también pueden validar y reducir el riesgo de alucinaciones.

Sin embargo, hasta ahora, no existen muchos modelos básicos capaces de permitir un pensamiento avanzado. Si bien algunos modelos combinados de agentes (MoE) pueden hacer esto, se basan en varios modelos más pequeños. En el espacio convencional, la serie OpenAI o1 Modelos Conocido por esta habilidad.

Pero el miércoles, DeepSeek, una empresa china de inteligencia artificial, publicar On X (anteriormente conocido como Twitter) anuncia el lanzamiento del modelo DeepSeek-R1-Lite-Preview. La compañía afirma que puede superar al modelo de vista previa o1 en los puntos de referencia AIME y MATH. Vale la pena señalar que ambos ponen a prueba las habilidades matemáticas y de pensamiento del Maestro en Derecho.

Los empleados de Gadgets 360 obtuvieron acceso al chatbot y descubrieron que el modelo de IA también muestra toda la línea de pensamiento después de enviar la consulta. Esto permite a los usuarios comprender la conexión lógica que establece el modelo y detectar cualquier defecto. En nuestras pruebas, descubrimos que el modelo de IA es capaz de responder preguntas complejas.

El tiempo de respuesta también fue corto, lo que hizo que la conversación fluyera de manera eficiente. Actualmente, los usuarios sólo reciben 50 mensajes para probar el modo “Pensamiento profundo” que demuestra el proceso de pensamiento del modelo. Además, este es actualmente el único modelo de IA gratuito que presenta inferencia avanzada. Las personas interesadas pueden probar el chatbot impulsado por IA en la web. aquí.

En particular, la compañía afirmó que abrirá el código fuente de la versión completa del modelo de IA DeepSeek-R1 en un futuro próximo, lo que será una novedad para un estudiante de LLM de esta categoría.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Oferta del Black Friday de Samsung: descuentos en Galaxy Watch Ultra, Galaxy Watch 7, Galaxy Buds 3 Series y más



[ad_2]

Source Article Link

Categories
News

Una nueva interfaz cerebro-computadora mejora el control de las prótesis de manos mediante el pensamiento únicamente

[ad_1]

Un logro reciente logrado por investigadores del Centro Alemán de Primates, dirigidos por Andrés Agudelo Toro, científico del Centro Alemán de Primates Neurobiología El laboratorio ha avanzado significativamente en el campo de las interfaces cerebro-computadora. El estudio, realizado en monos rhesus, dio como resultado un protocolo de entrenamiento que permite un control preciso de las prótesis de manos únicamente a través de señales cerebrales. Este nuevo enfoque se centra en las señales neuronales responsables de las diferentes posiciones de las manos, que son esenciales para el control. Industrial dispositivos, en lugar de las señales de velocidad previamente asumidas.

La importancia de la motricidad fina

La capacidad de manipular objetos cotidianos, como cargar bolsas de la compra o insertar una aguja, depende de nuestra motricidad fina, que muchos dan por sentado. Las personas con afecciones como hemiplejia o enfermedades como la esclerosis lateral amiotrófica (ELA) pueden experimentar profundas limitaciones en el movimiento debido a la parálisis muscular. Como resultado, los investigadores han invertido décadas en el desarrollo de prótesis neuronales:Miembros artificiales Diseñado para restaurar la movilidad.

Proceso de estudio

durante el estudiaInicialmente, los monos fueron entrenados para mover la mano de un avatar virtual en la pantalla. Una vez que entendieron esta tarea, pasaron a controlar el avatar a través de imágenes mentales, un método que mide la actividad de las neuronas responsables de los movimientos de las manos. Los investigadores adaptaron su algoritmo para incorporar tanto el punto final de un movimiento como el camino seguido para alcanzarlo, mejorando la precisión de los movimientos del avatar.

La importancia de los resultados.

Los resultados de este estudio subrayan el papel fundamental de las señales posturales de las manos en el funcionamiento eficiente de las prótesis neuronales, según Hansjörg Scherberger, jefe del Laboratorio de Neurobiología y autor principal del estudio. Esta investigación podría allanar el camino para mejorar el desempeño laboral en el futuro Interfaces cerebro-computadoraLo que, en última instancia, conduce a mejorar la motricidad fina de las manos protésicas y devolver la movilidad a quienes la necesitan.

[ad_2]

Source Article Link

Categories
Life Style

Cómo tu cerebro detecta patrones en la vida cotidiana: sin pensamiento consciente

[ad_1]

Micrografía óptica de neuronas del hipocampo sobre fondo negro.

Las neuronas del hipocampo ayudan a detectar patrones en la avalancha de información que fluye por el cerebro.Crédito: Arthur Sheen/Biblioteca de imágenes científicas

La mente humana capta constantemente patrones de las experiencias cotidianas y puede prescindir de ellos. pensamiento conscienteencontrar un estudio1 De la actividad de las células nerviosas en personas a las que se les han implantado electrodos en el tejido cerebral por razones médicas.

El estudio muestra que las neuronas en regiones clave del cerebro recopilan información sobre lo que sucede y cuándo, lo que permite al cerebro detectar patrones de eventos a medida que se desarrollan en el tiempo. Los investigadores dicen que esto ayuda al cerebro a predecir eventos venideros. El trabajo fue publicado hoy en naturaleza.

“El cerebro hace muchas cosas de las que no somos conscientes”, dice Edward Moser, neurocientífico de la Universidad Noruega de Ciencia y Tecnología en Trondheim. “Esta no es una excepción”.

Una tormenta de datos

Para comprender el mundo que nos rodea, el cerebro debe procesar una avalancha de información sobre lo que está sucediendo, dónde está sucediendo y cuándo está sucediendo. Los autores del estudio querían explorar cómo el cerebro organiza esta información a lo largo del tiempo, lo cual es un paso crucial en este sentido. Aprendizaje y memoria.

Lección de equipo 17 Personas con epilepsia a las que se les han implantado electrodos en el cerebro En preparación para el tratamiento quirúrgico. Estos electrodos permitieron a los autores capturar directamente la actividad de neuronas individuales en múltiples regiones del cerebro.

Estaba entre esas áreas Hipocampo y corteza entorrinalque está involucrado en la memoria y navegación. Estas áreas contienen células espacio-temporales que actúan como reloj interno y sistema de posicionamiento global (GPS) del cuerpo, y codifican el tiempo y las ubicaciones. “Todo el mundo exterior que llega a nuestro cerebro tiene que filtrarse a través de este sistema”, dice el coautor del estudio Isaac Farid, neurocirujano y neurocientífico de la Universidad de California en Los Ángeles.

Desfile de caras

En preparación para el experimento principal, los investigadores mostraron a cada participante una variedad de imágenes de rostros. Para cada participante, los científicos identificaron seis de Caras que provocaron que se activara una neurona individual en el cerebro del participante fuertemente. Por ejemplo, un participante podría tener una neurona de “hombre con gafas de sol”, junto con una neurona de “mujer con sombrero” y otras cuatro neuronas, cada una de las cuales prefiere una cara en particular.

El equipo organizó las seis fotografías de cada participante en un triángulo que contenía una foto en cada esquina y una en cada lado. Cada imagen está vinculada a sus vecinas más cercanas mediante líneas que recorren los lados y el interior del triángulo.

En un experimento piloto, los participantes vieron una serie de imágenes faciales. Había una regla simple que dictaba la secuencia de imágenes: cada cara iba seguida de una cara relacionada en el triángulo (ver 'Reconocimiento de patrones'). Por ejemplo, si la primera cara es la cara en la esquina inferior izquierda del triángulo, entonces la segunda cara será una de sus vecinas inmediatas: la cara en el medio de la base del triángulo o la cara en el medio de la lado izquierdo del triángulo. Los experimentadores no revelaron esta regla a los participantes. Es más, distrajeron a los participantes haciéndoles preguntas sobre el contenido de las imágenes durante cada prueba.

Reconocimiento de patrones. El dibujo muestra el modelo de estudio de los investigadores.

Fuente: Referencia. 1

Durante el experimento, las neuronas en el hipocampo y la corteza entorrinal de cada participante comenzaron a responder gradualmente no solo a la cara que se presentaba, sino también a las caras directamente asociadas con ella en el triángulo. Cuando se les preguntó si habían notado algún patrón en la disposición de las imágenes, los participantes dijeron que no. Pero sus células cerebrales aún aprendieron el patrón, lo que demuestra que el cerebro puede reconocer patrones sin ser consciente. En los descansos entre las pruebas, las neuronas “de la cara” de los participantes repetían lo que habían aprendido, navegando a través de los patrones por sí mismas sin ser estimuladas para hacerlo.

“Esto no es explícito, sino implícito. “El cerebro lo capta, básicamente, muy rápidamente, y podemos ver esos cambios en células individuales”, dice Fried.

Neuronas de cara al futuro

Los investigadores descubrieron que las neuronas también pueden predecir qué imágenes aparecerán a continuación, lo que sugiere que el cerebro puede aprender a predecir eventos futuros basándose en patrones aprendidos.

“El hecho de que esto ocurra sin ningún estímulo externo es realmente interesante”, afirma Matt Jones, neurocientífico de la Universidad de Bristol en el Reino Unido. “Muchos de los hallazgos son notablemente consistentes con las predicciones del trabajo con roedores, destacando cómo los circuitos del hipocampo han evolucionado para construir nuestros mapas cognitivos”, añade.

Comprender cómo el cerebro organiza la información sobre secuencias de eventos podría tener importantes aplicaciones clínicas. Por ejemplo, Tratamientos para mejorar la memoria. “Los investigadores podrían centrarse en mejorar patrones neuronales específicos que representan recuerdos importantes”, dice Fried. “En última instancia, se trata de unir las cosas en el tiempo. Esa es realmente la esencia de la memoria”.

[ad_2]

Source Article Link

Categories
Featured

El modelo de pensamiento ChatGPT o1-mini ya se lanzó para los usuarios gratuitos. ¿Eres uno de los afortunados?

[ad_1]

chat gbtEl nuevo prototipo de IA o1-mini de O1, anteriormente conocido como “Project Strawberry”, llegó la semana pasada y ya está disponible para los usuarios de forma gratuita.

o1-mini y o1-preview son dos nuevos modelos de IA con un asombroso poder de razonamiento que pueden resolver acertijos, responder ecuaciones e incluso mostrar el proceso de pensamiento detrás de sus decisiones rápidamente. Si desea saber qué pueden hacer o1-mini y o1-preview, consulte la prueba de Eric Hall Schwartz que mostró El modelo de IA fue increíble resolviendo incluso los acertijos más difíciles.



[ad_2]

Source Article Link

Categories
News

Lanzamiento de modelos de IA de la serie OpenAI o1 con capacidades de pensamiento avanzadas

[ad_1]

Abierto AI Uber lanzó el jueves nuevos modelos de IA de la serie O1. La empresa de inteligencia artificial denominó a estos modelos modelos de inferencia por sus capacidades avanzadas para resolver problemas matemáticos complejos basados ​​en la inferencia. Hay dos modelos: el o1, que está disponible en versión preliminar, y el o1-mini. La compañía dijo que estos modelos de IA han sido entrenados para dedicar tiempo a pensar antes de responder, de manera similar a los humanos. En particular, se cree que este es el mismo modelo de IA que se decía que era Strawberry.

Lanzamiento de los modelos de IA de la serie OpenAI o1

En una publicación en su blog, la compañía de inteligencia artificial dijo pie Nuevos modelos de inteligencia artificial con capacidades de pensamiento avanzadas. Estos modelos se diferencian de la IA generativa estándar porque no procesan toda la solicitud de una vez, sino que analizan el problema de forma sistemática, de forma similar a como lo hacen los humanos. Esto también permite que el modelo de IA pruebe diferentes estrategias y corrija cualquier error potencial. OpenAI destaca que estos modelos son más lentos que el modelo GPT-4o porque necesitan un momento extra para pensar.

Entonces, ¿qué significa esto para el usuario medio? Los usuarios podrán realizar consultas complejas a la IA que a menudo requieren pensamiento en múltiples niveles y evaluación crítica. Por ejemplo, una pregunta como “Mira esta serie: 12, 11, 13, 12, 14, 13,… ¿qué número debería ser el siguiente?” Lo que requiere un pensamiento de varios pasos, ahora puede resolverse con precisión mediante inteligencia artificial.

Un hombre entra a una biblioteca y le pide un libro al bibliotecario. El bibliotecario señala un estante específico. El hombre le agradece y se marcha sin llevarse un libro. ¿Por qué?

OpenAI afirma que el modelo o1-preview funciona a un nivel similar al de los estudiantes de doctorado al responder consultas sobre temas de física, química y biología. El modelo también muestra resultados similares en la resolución de problemas matemáticos. “En una prueba de clasificación para la Olimpiada Internacional de Matemáticas (OMI), GPT-4o resolvió correctamente sólo el 13 por ciento de los problemas, mientras que el modelo de inferencia obtuvo un puntaje del 83 por ciento”, agrega la publicación.

Sam Altman, CEO de OpenAI, aparece en X (anteriormente conocido como Twitter) correo Añadió que los modelos o1 pudieron obtener 78,3 puntos en el estándar GPQA Diamond para el nivel de Doctor en Ciencias. Sin embargo, añadió que el Modelo de Lenguaje Grande (LLM, por sus siglas en inglés) todavía tiene fallas porque es la versión emergente del modelo. OpenAI planea implementar actualizaciones para mejorarlo continuamente.

Por ahora, estarán disponibles los modelos de IA de la serie o1 chat gbt Usuarios Plus y Team en vista previa. Sin embargo, existe un límite de velocidad semanal de 30 mensajes para o1 y 50 mensajes para o1-mini. La empresa destacó que estos límites pueden aumentar en el futuro. Una de las razones por las que se imponen límites de velocidad es que el funcionamiento de los modelos es más caro en comparación con las arquitecturas estándar basadas en conmutadores.

Los desarrolladores elegibles también podrán utilizar los nuevos modelos de IA a un máximo de 20 solicitudes por minuto (RPM). Sin embargo, los desarrolladores no podrán usar esto para llamar a funciones, transmisiones en vivo, mensajes del sistema de soporte y más. Además, los usuarios de ChatGPT Enterprise y Edu podrán acceder a los modelos la próxima semana.

Los usuarios del nivel gratuito de ChatGPT pronto tendrán acceso al modelo de IA o1-mini, pero también se espera que alcance un límite de velocidad más bajo que GPT-4o.



[ad_2]

Source Article Link

Categories
Life Style

La pierna biónica se mueve como un miembro natural, sin pensamiento consciente

[ad_1]

Una secuencia animada de imágenes de vídeo de un participante caminando utilizando una extremidad robótica.

Los participantes del experimento que utilizaron el sistema robótico pudieron caminar más rápido que aquellos que utilizaron piernas robóticas estándar.Copyright: H. Canción et al/medicina natural

Siete personas que perdieron la parte inferior de sus piernas pudieron caminar a una velocidad equivalente a la de los no amputados, gracias a una pierna robótica que puede ser controlada completamente por el cerebro y la médula espinal.

La prótesis utiliza una interfaz de computadora que amplifica las señales nerviosas de los músculos de la parte restante de la pierna y permite al usuario mover la prótesis utilizando sus pensamientos y reflejos naturales.

En un ensayo clínico en el que participaron 14 personas, los participantes que utilizaron esta interfaz pudieron caminar un 41% más rápido que aquellos que utilizaron piernas robóticas estándar. También tenían mejor equilibrio y capacidad para cambiar la velocidad, subir escaleras y superar obstáculos. Los resultados fueron publicados hoy en Medicina natural1.

“Este es el primer estudio que demuestra patrones naturales de marcha con neuromodulación completa, donde el cerebro de la persona tiene el 100% de control de la prótesis biónica, no del algoritmo robótico”, dijo el coautor del estudio Hugh Hare, biofísico del MIT. Technology en Cambridge, en rueda de prensa para anunciar los resultados.

“Aunque la punta está hecha de titanio y silicona y todos estos diversos componentes electromecánicos, la punta se siente natural y se mueve naturalmente sin siquiera pensarlo conscientemente”, añadió.

A Hare le amputaron ambas piernas después de quedar atrapado en una tormenta de nieve mientras escalaba hielo en el Monte Washington en New Hampshire en 1982. Dice que considerará usar dispositivos de interfaz para sus extremidades en el futuro.

El músculo se encuentra con la máquina

La mayoría de las prótesis biónicas existentes se basan en algoritmos predefinidos para guiar el movimiento y pueden cambiar automáticamente entre modos predefinidos para diferentes condiciones de marcha. Los modelos avanzados han ayudado a personas con amputaciones a caminar, correr y subir escaleras con mayor facilidad, pero el robot, no el usuario, retiene el control del movimiento de las piernas y el dispositivo no se siente como parte del cuerpo.

Decididos a cambiar esta situación, Hoare y sus colegas desarrollaron una interfaz que controla el miembro robótico utilizando señales de los nervios y músculos que quedan después de la amputación.

Su ensayo clínico incluyó a 14 participantes que habían sufrido amputaciones por debajo de la rodilla. Antes de usar el dispositivo robótico, siete de ellos se sometieron a una cirugía para conectar pares de músculos al resto de las piernas.

Esta técnica quirúrgica, que crea lo que se llama una interfaz neuromuscular antagonista (IAM), tiene como objetivo recrear los movimientos musculares naturales de modo que la contracción de un músculo provoque la expansión de otro músculo. Ayudan a reducir el dolor, preservar la masa muscular y mejorar la comodidad con la prótesis.2.

La pierna biónica en sí incluye una prótesis de tobillo equipada con sensores, así como electrodos adheridos a la superficie de la piel. Estos captan señales eléctricas producidas por los músculos en el lugar de la amputación y las envían a una pequeña computadora para decodificarlas. La pierna pesa 2,75 kg, lo que equivale al peso medio de un miembro inferior normal.

Mejoras rápidas

Para probar el sistema, los participantes practicaron el uso de sus nuevas prótesis de piernas durante seis horas cada uno. Luego, los investigadores compararon su desempeño en diversas tareas con el de los otros siete participantes, que se sometieron a cirugía convencional y prótesis.

El IAM aumentó la frecuencia de las señales musculares a un promedio de 10,5 latidos por segundo, en comparación con aproximadamente 0,7 latidos por segundo en el grupo de control. Aunque esto equivale a sólo el 18% de las señales musculares en músculos biológicamente intactos (es decir, alrededor de 60 latidos por segundo), los participantes del IAM pudieron controlar completamente sus prótesis y caminaron un 41% más rápido que los del grupo de control. Su velocidad máxima coincidía con la de personas sin amputaciones cuando caminaban sobre terreno llano a lo largo de una pasarela de 10 metros.

“Me pareció sorprendente que con tan poco aprendizaje pudieran lograr resultados tan buenos”, dice Levi Hargrove, neuroingeniero de la Universidad Northwestern en Chicago, Illinois. “Verán más beneficios con un período de adaptación más largo y usando el dispositivo. .”

Los investigadores también probaron la capacidad de los participantes para navegar en diferentes situaciones, incluyendo caminar en una pendiente de 5 grados, subir escaleras y cruzar obstáculos. En todos los escenarios, los usuarios de AMI mostraron un mejor equilibrio y un rendimiento más rápido que las personas del grupo de control.

“Ofrece al usuario una gran flexibilidad que se acerca mucho más a cómo funciona una pierna biológica”, afirma Tommaso Lenzi, ingeniero biomédico de la Universidad de Utah en Salt Lake City.

experimento natural

Esta tecnología ofrece una nueva esperanza para las personas con amputaciones que desean recuperar una experiencia normal de caminar. “Las personas que han sufrido amputaciones quieren sentir que tienen el control de sus extremidades. Quieren sentir que sus extremidades son parte de su cuerpo”, dice Linzi. “Este tipo de interfaz neuronal es necesaria para crear eso”.

Lenzi dice que las mejoras en el diseño de la pierna pueden incluir hacerla más liviana y mejorar los electrodos de superficie, que son sensibles a la humedad y el sudor y pueden no ser adecuados para el uso diario. Se necesitarán estudios futuros para probar si el dispositivo puede soportar actividades más exigentes, como correr y saltar.

Hare dice que su equipo ya está buscando formas de reemplazar los electrodos de superficie con pequeñas bolas magnéticas implantadas que pueden rastrear con precisión los movimientos musculares.

“Este ensayo proporciona la base que necesitamos para traducir esto en tecnologías y soluciones clínicamente aplicables para todas las personas que sufren una amputación”, afirma Lenzi.

[ad_2]

Source Article Link