Categories
News

Aitomatic y AI Alliance presentan el modelo de IA de código abierto centrado en semiconductores SemiKong

[ad_1]

Aitomatic y otros colaboradores del grupo de trabajo Foundation Models de AI Alliance han presentado un nuevo modelo centrado en semiconductores. inteligencia artificial (AI) a principios de este mes. El modelo de lenguaje grande (LLM), llamado SemiKong, se basa en una arquitectura de agentes expertos en dominios (DXA) y se entrena con datos de la industria de alta calidad. Se espera que el modelo ayude a los profesionales humanos a lo largo de todo el proceso de desarrollo y proceso de dispositivos semiconductores. El modelo base de SemiKong es Llama 3.1 70B de Meta, que se optimizó utilizando documentos de la industria de semiconductores, artículos de investigación y datos anonimizados de diseño y fabricación.

SemiKong puede reducir el tiempo de diseño del chipset hasta en un 30 por ciento

El nuevo modelo de IA se detalla en un archivo Publicación de blog En muerto. Desarrollado por la empresa de inteligencia artificial Aitomatic, con sede en Palo Alto, y varios otros colaboradores de AI Alliance, SemiKong es un modelo centrado en semiconductores. Esto significa que SemiKong solo contiene datos sobre la industria específica, incluido el diseño, la fabricación, la fabricación y el desarrollo de dispositivos y procesos semiconductores.

Es un modelo de código abierto para inteligencia artificial. disponible En GitHub y Hugging Face utilizando la licencia Apache-2.0 para casos de uso individuales y comerciales. Es un modelo de lenguaje bilingüe entrenado en tres billones de códigos multilingües y está disponible en cuatro variantes: SemiKong-8B, SemiKong-70B, SemiKong-8B Instruct y SemiKong-70B Instruct.

Christopher Nguyen, director ejecutivo de Aitomatic, dijo que el modelo de IA tiene como objetivo abordar una brecha de conocimiento en la industria de los semiconductores que ha visto a muchos veteranos retirarse en los últimos años sin reemplazar adecuadamente el conocimiento. Además, Nguyen afirmó que SemiKong puede fomentar la innovación y la colaboración “en toda la industria para adoptar la IA para acelerar muchos procedimientos operativos y de fabricación de misión crítica”.

SemiKong se basa en una arquitectura de IA neuronal simbólica se llama Agentes neuronales conscientes de dominio (DANA). Se necesita un enfoque triple en el que se organiza el conocimiento especializado, la experiencia humana se aumenta con conocimiento sintético para entrenar DXA y los DXA capacitados se vinculan a los sistemas de ejecución de fabricación de las empresas de semiconductores para automatizar análisis y decisiones técnicas.

Según las pruebas internas realizadas por Aitomatic, SemiKong puede ofrecer una reducción del 20 al 30 por ciento en el tiempo de comercialización de nuevos diseños de chips. También se dice que ofrece una mejora de hasta el 25 por ciento en las tasas de “primera ejecución” en la fabricación de chips. Además, también se afirma que ayuda a los jóvenes profesionales a acelerar el proceso de incorporación entre un 40 y un 50 por ciento.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Snapdragon 8 Elite 2 puede venir con un rendimiento de GPU “significativamente mejorado”; Fugas del calendario de lanzamiento



Tether respalda el fondo Web3 de Arcanum Capital con una inversión de 2 millones de dólares



[ad_2]

Source Article Link

Categories
News

El equipo Qwen de Alibaba lanza el modelo de IA de código abierto QVQ-72B en vista previa

[ad_1]

Alibaba El equipo de investigación de Qwen ha lanzado en versión preliminar otro modelo de inteligencia artificial (IA) de código abierto. Llamado QVQ-72B, es un modelo de razonamiento basado en la visión que puede analizar información visual a partir de imágenes y comprender el contexto detrás de ella. El gigante tecnológico también compartió los resultados comparativos del modelo de IA y destacó que en una prueba específica, pudo superar al modelo o1 de OpenAI. Vale la pena señalar que Alibaba tiene Liberado Recientemente se han abierto varios modelos de IA, incluidos los modelos de lenguaje grande (LLM) centrados en el razonamiento QwQ-32B y Marco-o1.

Lanzamiento del modelo de inteligencia artificial basado en visión QVQ-72B de Alibaba

en la cara abrazando existenteel equipo Qwen de Alibaba ha detallado un nuevo modelo de IA de código abierto. Al describirlo como un modelo de investigación experimental, los investigadores enfatizaron que el QVQ-72B viene con capacidades mejoradas de razonamiento visual. Curiosamente, se trata de dos ramas distintas del rendimiento y los investigadores las combinaron en este modelo.

Abundan los modelos de IA basados ​​en la visión. Esto incluye software de codificación de imágenes y puede analizar información visual y el contexto detrás de ella. Asimismo, los modelos centrados en la inferencia, como el o1 y el QwQ-32B, vienen con capacidades de escalamiento de cálculo en el momento de la prueba que les permiten aumentar el tiempo de procesamiento del modelo. Esto permite que el modelo analice y resuelva el problema paso a paso y evalúe y corrija el resultado frente al validador.

Con el modelo preliminar QVQ-72B, Alibaba ha combinado estas dos funciones. Ahora puede analizar información de imágenes y responder consultas complejas utilizando estructuras centradas en el razonamiento. El equipo destaca que ha mejorado significativamente el rendimiento del modelo.

Al compartir calificaciones de pruebas internas, los investigadores afirmaron que el QVQ-72B pudo obtener una puntuación del 71,4 por ciento en el punto de referencia MathVista (mini), superando al modelo o1 (71,0). También se dice que obtuvo una puntuación del 70,3 por ciento en el punto de referencia de comprensión multitarea multimedia (MMMU).

Aunque se mejora el rendimiento, existen varias limitaciones, como ocurre con la mayoría de los modelos experimentales. El modelo de IA a veces mezcla diferentes idiomas o cambia entre ellos inesperadamente, informó el equipo de Quinn. La cuestión del cambio de código también es destacada en el modelo. Además, el modelo es propenso a caer en bucles de pensamiento recursivos, lo que afecta el resultado final.

[ad_2]

Source Article Link

Categories
News

DeepSeek-V3 es un modelo de IA de código abierto lanzado con una arquitectura de mezcla experta

[ad_1]

Sec profundo, chino inteligencia artificial (AI), un modelo de IA DeepSeek-V3 el jueves. El nuevo modelo de lenguaje grande (LLM) de código abierto presenta la friolera de 671 mil millones de parámetros, superando los 405 mil millones de parámetros de Meta Llama 3.1. A pesar de su tamaño, los investigadores afirmaron que el LLM se centra en la eficiencia a través de su estructura mixta de expertos (MoE). Como resultado, el modelo de IA solo puede activar parámetros específicos relevantes para la tarea en cuestión y garantizar eficiencia y precisión. Vale la pena señalar que es un modelo basado en texto y no tiene capacidades multimedia.

Lanzamiento del modelo de IA DeepSeek-V3

El modelo de IA de código abierto DeepSeek-V3 está actualmente en marcha Alojado Abrazo en la cara. Según el listado, el LLM está orientado a una heurística eficiente y una formación rentable. Por esta razón, los investigadores adoptaron diseños de Atención latente de cabezas múltiples (MLA) y DeepSeekMoE.

Básicamente, el modelo de IA solo activa parámetros relevantes para el tema del reclamo, lo que garantiza un procesamiento más rápido y una mayor precisión en comparación con los modelos típicos de este tamaño. DeepSeek-V3, previamente entrenado con 14,8 billones de códigos, utiliza técnicas como el ajuste fino supervisado y el aprendizaje por refuerzo para generar respuestas de alta calidad.

La compañía china afirmó que, a pesar de su tamaño, el modelo de IA se entrenó completamente en 2.788 millones de horas utilizando una GPU Nvidia H800. La arquitectura DeepSeek-V3 también incluye tecnología de equilibrio de carga para reducir la degradación del rendimiento. Esta tecnología se utilizó por primera vez en su predecesor.

En términos de rendimiento, los investigadores compartieron evaluaciones de pruebas internas del modelo y afirmaron que supera a los modelos Meta Llama 3.1 y Qwen 2.5 en Big High Performance (BBH), comprensión lingüística multitarea (MMLU), HumanEval, MATH y varios otros puntos de referencia. Sin embargo, hasta el momento no ha sido verificado por investigadores externos.

Una de las características más importantes de DeepSeek-V3 es su enorme tamaño de 671 mil millones de parámetros. Si bien existen modelos más grandes, p. mellizo La versión 1.5 Pro tiene un billón de parámetros, un volumen que es poco común en el espacio del código abierto. Antes de eso, era el modelo de IA de código abierto más grande. muerto Llama 3.1 con 405 mil millones de parámetros.

En la actualidad, se puede acceder al código DeepSeek-V3 a través del menú Hugging Face bajo la licencia MIT para uso personal y comercial. Además, el modelo de IA también se puede probar a través de la plataforma de chatbot en línea de la empresa. Aquellos que quieran construir con el modelo AI también pueden acceder a la API.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Precio de las criptomonedas hoy: Bitcoin está experimentando una caída de precios, uniéndose a la mayoría de las criptomonedas en una corrección en todo el mercado



Los mejores teléfonos inteligentes de gama media de 2024: Redmi Note 14 Pro+, OnePlus Nord 4, Realme 13 Pro+ y más



[ad_2]

Source Article Link

Categories
Life Style

Revisión de Amazon Kindle (2024): no hay nada decepcionante en este modelo económico

[ad_1]

Tabla de contenido

Hay muchos Kindle. Al menos más de lo que crees. Cuando alguien menciona Kindle de Amazonpodrías pensar que se refieren a algo realmente genial. lector electrónico De Amazon. Hasta que inicias sesión y descubres que hay cuatro dispositivos Kindle diferentes. Lo he comentado mucho Kindle Paperwhitepero es hora de volver a lo básico y discutir el modelo central de Amazon, el viejo Kindle.

El Kindle estándar de Amazon es difícil de diferenciar del resto, ya que no tiene un nombre elegante como Paperwhite o Scribe para diferenciar los modelos. El Amazon Kindle es el lector electrónico original de la marca y ahora es una opción más pequeña pero menos costosa. Aunque otros dispositivos Kindle ofrecen funciones más avanzadas, el Kindle básico sigue en aumento.

Precio y especificaciones del Kindle

Kindle a la izquierda y Kindle Paperwhite a la derecha.

El Amazon Kindle (izquierda) es más pequeño que el Amazon Kindle Paperwhite (derecha).
Crédito: Samantha Mangino/Mashable

Aquí está el resumen completo del precio y las especificaciones de Amazon Kindle:

  • $109.99 para Kindle con pantalla de bloqueo con publicidad ($10 más que el modelo anterior)

  • $ 129,99 para Kindle sin anuncios en la pantalla de bloqueo

  • Pantalla de 6 pulgadas, brillo de hasta 94 nits, resolución 300 ppp

  • Puerto de carga USB-C con hasta seis semanas de duración de la batería

  • 16 GB de almacenamiento

  • Viene en negro y matcha.

El mejor lector electrónico de su tamaño.

Probé lectores electrónicos de todas las formas y tamaños, empezando por el cuadrado. color libra kobo demasiado grande Escritor Kindle. El Kindle de Amazon es el más pequeño del grupo, con una pantalla de 6 pulgadas, que puede ser mi tamaño favorito.

A pesar de su pequeño tamaño, no me perdí la pantalla extra. Todavía hay mucho espacio para páginas y, además, es perfectamente compacto y cabe en mi bolso pequeño mientras viajo. Además, es el e-reader más ligero; Podrás sostenerlo cómodamente durante horas sin que tu muñeca se canse.

Tiene un error de diseño fatal: un botón de encendido mal ubicado en la parte inferior del dispositivo que provoca una gran cantidad de pulsaciones accidentales. Sin embargo, esto no es exclusivo del Kindle; El Paperwhite también adolece de este diseño defectuoso.

Procesamiento más rápido y excelente visualización

Un Kindle de Amazon junto a un MacBook Pro.

La pantalla del Kindle tiene un alto contraste y mantiene un acabado mate.
Crédito: Samantha Mangino/Mashable

Tendrás que hacer sacrificios en algunas áreas al elegir un presupuesto, pero la velocidad de procesamiento no es una de ellas. Amazon anuncia un aumento de velocidad del 25 por ciento con respecto a la generación anterior. Si bien no podemos verificar estas afirmaciones, podemos verificar que el Kindle pasa las páginas rápidamente y navega entre libros sin demoras.

La pantalla del Kindle ha logrado la mejora más destacada. Todavía tiene el aspecto del papel mate, pero tiene un mayor contraste. Las palabras y las imágenes aparecen más claras, lo que reduce la fatiga visual al leer. Desafortunadamente, no ofrece calidez ajustable como el Paperwhite, pero no me importó.

Lo que sacrificas por el precio.

Es el Kindle más barato a $50, y ese precio significa algunos sacrificios.

El diseño del Kindle de Amazon parece más barato que el del Paperwhite o el Scribe. Está cubierto por una capa exterior de plástico, lo que lo hace más liviano pero más frágil. No me importa porque prefiero el manejo suave de mi Kindle, principalmente porque la nueva carcasa verde matcha es de buen color. Donde el Kindle realmente decepciona es en la batería y la impermeabilidad.

El Amazon Kindle tiene hasta seis semanas de duración de la batería. A primera vista, esto suena bastante bien, especialmente si se consideran teléfonos, tabletas y computadoras portátiles. Sin embargo, Kindle Paperwhite y Paperwhite Signature Edition tienen una impresionante duración de batería de 12 semanas, algo inmejorable.

Además, el Amazon Kindle no es resistente al agua como el Paperwhite. Si le gusta leer en la bañera o quiere disfrutar de una lectura en la playa sin reflejos, visite pimienta blanca o Edición de firma De Kindle.

¿Vale la pena Kindle?

Kindle sobre una mesa de madera.

Este Kindle compacto y económico tiene una excelente relación calidad-precio por poco más de $100.
Crédito: Samantha Mangino/Mashable

El Amazon Kindle tiene un valor excepcional. Si está pensando en gastar unos 100 dólares en un lector electrónico, el Kindle ofrecerá un cambio rápido de página y 16 GB de espacio de almacenamiento para guardar miles y miles de libros. Si el Kindle de Amazon fuera resistente al agua, podría superar al Paperwhite como mi Kindle favorito. Pero, lamentablemente, no es posible tenerlo todo en nombre de la asequibilidad.

Sin embargo, no puedes equivocarte con el modelo básico de Amazon Kindle si no necesitas mucho estilo y quieres un lector electrónico confiable y un marco liviano.



[ad_2]

Source Article Link

Categories
News

Lanzamiento del modelo Google Gemini 2.0 Flash Thinking AI con capacidades avanzadas de pensamiento lógico

[ad_1]

Google El jueves lanzó un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0 que se centra en la visión de futuro. El nuevo modelo de lenguaje grande (LLM), llamado Gemini 2.0 Thinking, aumenta el tiempo de inferencia para permitir que el modelo dedique más tiempo a resolver el problema. El gigante tecnológico con sede en Mountain View afirma que puede resolver tareas complejas de pensamiento, matemáticas y programación. Además, se dice que LLM realiza tareas a mayor velocidad, a pesar del mayor tiempo de procesamiento.

Google lanza un nuevo modelo de inteligencia artificial que se centra en la inferencia

en un correo En Actualmente está disponible en Google AI Studio y los desarrolladores pueden acceder a él a través de la API de Gemini.

Reflejo de flash Gemini g360 Reflejo de flash gemini 2

Modelo de IA de pensamiento flash Gemini 2.0

Los empleados de Gadgets 360 pudieron probar el modelo de IA y descubrieron que el modelo Gemini, que se centra en el razonamiento avanzado, resuelve con facilidad preguntas complejas que son demasiado difíciles para el modelo 1.5 Flash. En nuestras pruebas, descubrimos que el tiempo de procesamiento típico oscilaba entre tres y siete segundos, lo que supone una mejora significativa con respecto a AbiertoAI o1 cadena que puede tardar hasta 10 segundos en procesar la consulta.

el mellizo Flash Thinking 2.0 también muestra su proceso de pensamiento, donde los usuarios pueden comprobar cómo el modelo de IA llegó al resultado y los pasos que tomó para llegar allí. Descubrimos que LLM pudo encontrar la solución correcta ocho de cada 10 veces. Dado que es un modelo experimental, es de esperar que se produzcan errores.

Aunque Google no reveló detalles sobre la arquitectura del modelo de IA, sí destacó sus limitaciones centradas en los desarrolladores. Publicación de blog. Actualmente, Gemini 2.0 Flash Thinking tiene un límite de entrada de 32.000 tokens. Sólo puede aceptar texto e imágenes como entrada. Solo admite texto como salida y tiene un límite de 8000 tokens. Además, la API no viene con una herramienta integrada como búsqueda o ejecución de código.

[ad_2]

Source Article Link

Categories
Featured

Investigadores chinos están reutilizando el modelo Meta Llama para aplicaciones de inteligencia militar

[ad_1]


  • Investigadores chinos han modificado el modelo Meta Lama para uso de inteligencia militar
  • ChatBIT expone los riesgos de la tecnología de inteligencia artificial de código abierto
  • Meta se distancia de aplicaciones militares no autorizadas de LAMA

El modelo Llama AI de Meta es Código abierto Es de uso gratuito, pero los términos de licencia de la empresa establecen claramente el modelo. Diseñado únicamente para aplicaciones no militares.

Sin embargo, ha habido preocupaciones sobre cómo se verifica la tecnología de código abierto para garantizar que no se utilice para fines incorrectos, y las últimas especulaciones confirman la validez de estas preocupaciones, con informes recientes que afirman que investigadores chinos con vínculos con el Ejército Popular de Liberación ( PLA) han creado un modelo de IA centrado en el ejército llamado ChatBIT usando una llama.

[ad_2]

Source Article Link

Categories
Entertainment

La próxima generación del modelo o3 de OpenAI llegará a principios del próximo año.

[ad_1]

Después de casi dos semanas de anuncios, OpenAI concluyó su serie de transmisiones en vivo de 12 días de OpenAI con una vista previa de su modelo de frontera de próxima generación. “Por respeto a los amigos de Telefónica (propietario de la red celular O2 en Europa), y en la gran tradición de que OpenAI sea realmente malo con los nombres, se llama o3”, dijo Sam Altman, director ejecutivo de OpenAI, a quienes vieron el video. . Anuncio en YouTube.

El nuevo modelo aún no está listo para su uso general. En cambio, OpenAI primero pondrá o3 a disposición de los investigadores que quieran ayudar. Prueba de seguridad. OpenAI también anunció la existencia de o3-mini. La compañía planea lanzar este modelo “hacia fines de enero”, dijo Altman, y el o3 lo seguirá “poco después”.

Como era de esperar, el o3 ofrece un rendimiento mejorado con respecto a su predecesor, pero lo que es mucho mejor que el o1 es la principal ventaja aquí. Por ejemplo, cuando se coloca durante este año Examen de matemáticas por invitación estadounidenseo3 logró una puntuación de precisión del 96,7 por ciento. Por el contrario, o1 recibió una puntuación más modesta del 83,3%. “Lo que esto significa es que o3 a menudo se equivoca en una sola pregunta”, dijo Mark Chen, vicepresidente senior de investigación de OpenAI. De hecho, o3 tuvo un desempeño tan bueno en el conjunto habitual de puntos de referencia según los cuales OpenAI coloca sus modelos que la compañía se vio obligada a encontrar pruebas más desafiantes para medirlo.

Prueba ARCO AGI.Prueba ARCO AGI.

ARCO AGI

Uno de estos es ARCO-AGIun punto de referencia que prueba la capacidad de un algoritmo de IA para aprender de forma intuitiva y al instante. Según el creador de la prueba, la organización sin fines de lucro Premio Arcaun sistema de IA que pueda superar con éxito ARC-AGI representaría “un hito importante hacia la inteligencia artificial general”. Desde su debut en 2019, ningún modelo de IA ha podido vencer a ARC-AGI. La prueba consta de preguntas de entrada y salida que la mayoría de las personas pueden resolver de forma intuitiva. Por ejemplo, en el ejemplo anterior, la respuesta correcta sería crear cuadrados de los cuatro polis usando bloques de color azul oscuro.

En configuraciones de computación bajas, el o3 obtuvo una puntuación del 75,7 por ciento en la prueba. Con la potencia de procesamiento adicional, el modelo alcanzó una calificación del 87,5 por ciento. “El desempeño humano es comparable en el umbral del 85 por ciento, por lo que superarlo es un logro importante”, dice Greg Kamradt, presidente de la Fundación Premio ARC.

Un gráfico que compara el rendimiento del O3-mini con el O1 y el coste de ese rendimiento. Un gráfico que compara el rendimiento del O3-mini con el O1 y el coste de ese rendimiento.

AbiertoAI

OpenAI también demostró el O3-mini. El nuevo modelo utiliza la API Adaptive Thinking Time recientemente anunciada por OpenAI para ofrecer tres modos de pensamiento diferentes: bajo, medio y alto. En la práctica, esto permite a los usuarios ajustar cuánto tiempo el programa “piensa” en un problema antes de dar una respuesta. Como puede ver en el cuadro anterior, o3-mini puede lograr resultados similares al modelo de inferencia o1 actual de OpenAI, pero a una fracción del costo informático. Como se mencionó anteriormente, el o3-mini llegará al uso general antes que el o3.

[ad_2]

Source Article Link

Categories
Featured

Los 12 Días de OpenAI concluyen con un nuevo modelo para el nuevo año

[ad_1]


  • OpenAI ha anunciado los próximos modelos de IA o3 y o3-mini.
  • Los nuevos modelos son modelos de IA “lógicos” mejorados que se basan en los modelos o1 y o1-mini lanzados este año.
  • Ambos modelos superan fácilmente a los modelos de IA existentes y se implementarán en los próximos meses.

último día de 12 días de apertura, repitió AbiertoAI El director ejecutivo, Sam Altman, presentará una vista previa de un nuevo conjunto de modelos de inteligencia artificial que llegará el próximo año. El o3 y el o3-mini son versiones mejoradas de los relativamente nuevos o1 y o1-mini. Están diseñados para pensar antes de hablar y deducir sus respuestas. La versión mini es más pequeña y está más orientada a realizar un conjunto limitado de tareas específicas pero con el mismo enfoque.

AbiertoAI Lo llama un gran paso hacia la inteligencia artificial general (AGI), lo cual es una afirmación bastante audaz de lo que es, en cierto modo, una pequeña mejora de un modelo que ya es poderoso. Es posible que hayas notado que falta un número entre el O1 actual y el próximo O3. Según Altman, esto se debe a que OpenAI quiere evitar cualquier confusión con la empresa británica de telecomunicaciones O2.

[ad_2]

Source Article Link

Categories
News

El modelo magnético global actualizado predice el cambio magnético del polo norte

[ad_1]

El 17 de diciembre, los Centros Nacionales de Información Ambiental (NCEI) y el Servicio Geológico Británico (BGS) publicaron una versión actualizada del Modelo Magnético Mundial (WMM). Este modelo revisado está diseñado para predecir transiciones en la tierra Se espera que durante los próximos cinco años el campo magnético garantice la precisión continua de los sistemas de navegación. La actualización se publicó como parte de un cronograma planificado y los científicos enfatizaron su importancia para aplicaciones que van desde satélites hasta operaciones espaciales. teléfono inteligente Navegación, según informes.

El campo magnético de la Tierra y sus orígenes.

De acuerdo a Para la comunidad científica, el campo magnético de la Tierra surge del movimiento del hierro fundido en su núcleo externo, ubicado aproximadamente entre 2.890 y 5.000 kilómetros bajo la superficie. Este proceso, denominado geodinamo, mantiene el campo magnético mediante la interacción de corrientes eléctricas y fuerzas magnéticas. Sin este mecanismo, señaló Bruce Buffett, geofísico de la Universidad de California en Berkeley, el campo desaparecería en 40.000 años. En los comentarios a Live Science, compare la pérdida Magnético Alcance para enfriar un objeto caliente que queda expuesto.

Sigue el polo norte magnético

El Polo Norte magnético, distinto del Polo Norte geográfico, experimenta un movimiento constante debido a la dinámica de fluidos en el núcleo externo. Se han observado cambios recientes en la posición del poste móvil de Al Kindi Polo norte Hacia Siberia. Estos cambios se atribuyen a variaciones en la fuerza y ​​la estructura del campo magnético de la Tierra, que los investigadores siguen de cerca.

Propósito del modelo actualizado

El WMM actualizado integra datos de la misión Swarm de la ESA y de observatorios terrestres. William Brown, geofísico de BGS, destacó en una entrevista con Live Science que el modelo permite que los instrumentos de navegación proporcionen direcciones confiables al tener en cuenta las fluctuaciones en el campo magnético de la Tierra. Las actualizaciones, publicadas cada cinco años, tienen como objetivo mantener la precisión a pesar de la imprevisibilidad de los cambios magnéticos.

Se espera que la última versión mantenga la confiabilidad de la navegación y es poco probable que la mayoría de los usuarios noten cambios importantes en las aplicaciones cotidianas.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


La Unión Europea aumenta la presión sobre Apple para que haga compatible iOS con dispositivos de la competencia



Se informa que Apple canceló el proyecto de servicio “Suscripción” para dispositivos iPhone



[ad_2]

Source Article Link

Categories
News

Google lanza el modelo beta avanzado Gemini 2.0 para suscriptores pagos

[ad_1]

Google Presenta un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0. Apodado Gemini 2.0 Experimental Advanced, el modelo de lenguaje grande (LLM) solo estará disponible para suscriptores pagos de Gemini. El lanzamiento del nuevo modelo se produce pocos días después del lanzamiento del gigante tecnológico con sede en Mountain View. Liberado Muestra Gemini 2.0 Flash de la aplicación Gemini para Android. En particular, actualmente solo se puede acceder a la Demostración Avanzada 2.0 a través de la versión web del chatbot con tecnología de inteligencia artificial.

Se está implementando el modelo de demostración avanzado Gemini 2.0

en un Publicación de blogEl gigante tecnológico ha anunciado el lanzamiento de su segundo modelo de IA Gemini 2.0. El nombre en clave oficial del formulario es Gemini-Exp-1206 y se puede seleccionar desde la opción de alternar formulario en la parte superior de la interfaz web del chatbot. Vale la pena señalar que actualmente solo los suscriptores de Gemini Advanced podrán elegir este modelo.

Experiencia Géminis 2 1206 Géminis 2

Nuevo modelo de IA Gemini 2.0
Crédito de la imagen: Google

Aunque Google acaba de anunciar el nuevo modelo de IA, el nombre Gemini-Exp-1206 apareció por primera vez la semana pasada cuando atrás En la tabla de clasificación LLM de Chatbot Arena (anteriormente LMSYS), ocupa el primer lugar con una puntuación de 1374. Actualmente supera a la última versión de los modelos de las series GPT-4o, Gemini 2.0 Flash y o1 de OpenAI.

Disponible sólo en la versión web de mellizoSe dice que el nuevo modelo de IA ofrece importantes mejoras de rendimiento en tareas complejas como programación, matemáticas, razonamiento y seguimiento de instrucciones. Google dijo que puede proporcionar instrucciones detalladas de varios pasos para proyectos de bricolaje, algo con lo que los modelos anteriores tuvieron problemas.

Sin embargo, el gigante tecnológico advierte que el modelo beta 2.0 avanzado está disponible en una versión preliminar y, en ocasiones, es posible que no funcione como se esperaba. Además, el modelo de IA actualmente no tendrá acceso a información en tiempo real y será incompatible con algunas funciones de Gemini. La compañía no mencionó qué funciones no funcionarán con el nuevo LLM.

Vale la pena señalar que Gemini Live es parte de la suscripción Gemini Advanced. Se puede suscribir a través del plan Google One AI Premium que cuesta Rs. 1.950 al mes, después de un mes de prueba gratuita.

[ad_2]

Source Article Link