Categories
News

Google lanza el modelo beta avanzado Gemini 2.0 para suscriptores pagos

[ad_1]

Google Presenta un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0. Apodado Gemini 2.0 Experimental Advanced, el modelo de lenguaje grande (LLM) solo estará disponible para suscriptores pagos de Gemini. El lanzamiento del nuevo modelo se produce pocos días después del lanzamiento del gigante tecnológico con sede en Mountain View. Liberado Muestra Gemini 2.0 Flash de la aplicación Gemini para Android. En particular, actualmente solo se puede acceder a la Demostración Avanzada 2.0 a través de la versión web del chatbot con tecnología de inteligencia artificial.

Se está implementando el modelo de demostración avanzado Gemini 2.0

en un Publicación de blogEl gigante tecnológico ha anunciado el lanzamiento de su segundo modelo de IA Gemini 2.0. El nombre en clave oficial del formulario es Gemini-Exp-1206 y se puede seleccionar desde la opción de alternar formulario en la parte superior de la interfaz web del chatbot. Vale la pena señalar que actualmente solo los suscriptores de Gemini Advanced podrán elegir este modelo.

Experiencia Géminis 2 1206 Géminis 2

Nuevo modelo de IA Gemini 2.0
Crédito de la imagen: Google

Aunque Google acaba de anunciar el nuevo modelo de IA, el nombre Gemini-Exp-1206 apareció por primera vez la semana pasada cuando atrás En la tabla de clasificación LLM de Chatbot Arena (anteriormente LMSYS), ocupa el primer lugar con una puntuación de 1374. Actualmente supera a la última versión de los modelos de las series GPT-4o, Gemini 2.0 Flash y o1 de OpenAI.

Disponible sólo en la versión web de mellizoSe dice que el nuevo modelo de IA ofrece importantes mejoras de rendimiento en tareas complejas como programación, matemáticas, razonamiento y seguimiento de instrucciones. Google dijo que puede proporcionar instrucciones detalladas de varios pasos para proyectos de bricolaje, algo con lo que los modelos anteriores tuvieron problemas.

Sin embargo, el gigante tecnológico advierte que el modelo beta 2.0 avanzado está disponible en una versión preliminar y, en ocasiones, es posible que no funcione como se esperaba. Además, el modelo de IA actualmente no tendrá acceso a información en tiempo real y será incompatible con algunas funciones de Gemini. La compañía no mencionó qué funciones no funcionarán con el nuevo LLM.

Vale la pena señalar que Gemini Live es parte de la suscripción Gemini Advanced. Se puede suscribir a través del plan Google One AI Premium que cuesta Rs. 1.950 al mes, después de un mes de prueba gratuita.

[ad_2]

Source Article Link

Categories
Featured

Ahora puedes probar Gemini 2.0 en modo Beta Avanzado si estás suscrito a Gemini Advanced

[ad_1]


  • Gemini 2.0 ya está disponible para los suscriptores de Gemini Advanced
  • Actualmente en modo Beta Avanzado.
  • Es más rápido que Gemini 1.5 y mejor en temas complejos

Géminis 2.0 Fue lanzado la semana pasada con una versión. Demostración Flash 2.0pero ahora la versión completa finalmente está disponible para el público a través de mellizo Inicio, siempre que esté suscrito a Gemini Advanced, GoogleServicio de suscripción de inteligencia artificial.

Todos los LLM de Gemini 2.0 que puede elegir todavía están en versión beta. Los nuevos programas Gemini 2.0 LLM disponibles son 2.0 Flash Experimental, el nuevo LLM liviano diseñado para asistencia diaria, y 2.0 Experimental Advanced, diseñado para abordar tareas complejas.

Cuando los clientes de Gemini Advanced van a Hogar Ahora obtendrán las opciones 2.0 Flash Experimental y 2.0 Experimental Advanced en el menú desplegable en la parte superior de la pantalla. Las opciones para usar la versión anterior 1.5 Pro y 1.5 Flash 1.5 Pro con Deep Research todavía están ahí.

Demostración avanzada de Gemini 2.0.

El menú desplegable en la página de inicio de Gemini ahora contiene dos opciones para Gemini 2.0. (Crédito de la imagen: Google)

Si elige Gemini 2.0 Flash Experimental o Gemini 2.0 Experimental Advanced, recibirá constantemente advertencias de que la IA “puede no funcionar como se esperaba” antes de cada respuesta, lo que indica que todavía se trata de una versión beta. Los usuarios de la aplicación móvil Gemini todavía utilizan la versión 1.5 Flash LLM.

[ad_2]

Source Article Link

Categories
Featured

NotLockBit ransomware se dirige a los usuarios de Apple con bloqueo avanzado de archivos y filtración de datos

[ad_1]

  • macOS se enfrenta a una amenaza emergente de ransomware, NotLockBit
  • El malware NotLockBit muestra capacidades de bloqueo de archivos
  • Las protecciones integradas de Apple están experimentando problemas debido a sofisticadas amenazas de ransomware

Durante años, ransomware Los ataques se dirigieron principalmente a los sistemas operativos Windows y Linux, pero los ciberdelincuentes han comenzado a centrar su atención en los usuarios de macOS, afirman los expertos.

El reciente descubrimiento de macOS.NotLockBit indica un cambio en el panorama, como se identificó recientemente malwareque lleva el nombre de la infame variante LockBit, podría marcar el comienzo de campañas de ransomware más serias contra usuarios de Mac.

[ad_2]

Source Article Link

Categories
News

Modo de audio avanzado ChatGPT con visualización de visibilidad para suscriptores pagos

[ad_1]

AbiertoAI El modo de voz avanzado con función de visibilidad se lanzó en ChatGPT el jueves. Esta función, que permite al chatbot con inteligencia artificial (IA) acceder a la cámara de un teléfono inteligente para capturar información visual sobre el entorno del usuario, estará disponible para todos los suscriptores de ChatGPT Plus, Team y Pro. Esta función se basa en las capacidades de GPT-4o y puede proporcionar respuestas de audio en tiempo real a lo que se muestra en la cámara. La visión en ChatGPT fue la primera quitar el velo En mayo durante el evento Spring Updates de la compañía.

ChatGPT obtiene capacidades de visibilidad

Era una nueva característica de ChatGPT. Arrollado En el sexto día del calendario de lanzamiento de funciones de 12 días de OpenAI. Hasta ahora, la compañía de inteligencia artificial ha lanzado la versión completa del modelo o1, el modelo de generación de video Sora y la nueva herramienta Canvas. Ahora, con el modo avanzado Voz con Visión, los usuarios pueden permitir que la IA vea su entorno y haga preguntas basadas en él.

En la demostración, los miembros del equipo OpenAI interactuaron con el chatbot mientras la cámara estaba encendida, presentando a varias personas. Luego, la IA puede responder un cuestionario para estas personas incluso cuando no están activas en la pantalla. En este se destaca que Vision Mode también viene con memoria, aunque la compañía no ha especificado cuánto durará la memoria.

Los usuarios pueden utilizar ChatGPT Función de visibilidad para mostrarle a la IA su refrigerador y pedir recetas o mostrando su guardarropa y pidiendo recomendaciones de ropa. También pueden mostrarle a la IA un punto de referencia en el exterior y hacer preguntas al respecto. Esta característica se combina con la baja latencia del chatbot y el modo de voz emocional avanzado, lo que facilita a los usuarios interactuar en lenguaje natural.

Una vez que la función se implementa para los usuarios, pueden ir a la aplicación móvil ChatGPT y tocar el ícono de audio avanzado. En la nueva interfaz, ahora verán una opción de video, al hacer clic en ella, la IA tendrá acceso a la transmisión de la cámara del usuario. Además, también hay una función para compartir pantalla a la que se puede acceder tocando el menú de tres puntos.

La función de compartir pantalla permitirá a la IA ver el dispositivo del usuario y a qué aplicación o pantalla navega. De esta manera, el chatbot también puede ayudar a los usuarios con problemas y consultas relacionadas con los teléfonos inteligentes. En particular, OpenAI dijo que todos los suscriptores del equipo podrán acceder a la función durante la próxima semana en la última versión de la aplicación móvil ChatGPT.

La mayoría de los usuarios Plus y Pro también obtendrán esta función; sin embargo, los usuarios de la región de la UE, Suiza, Islandia, Noruega y Liechtenstein no la tendrán por el momento. Por otro lado, los usuarios Enterprise y Edu podrán acceder a voz avanzada con visibilidad en ChatGPT a principios de 2025.

[ad_2]

Source Article Link

Categories
Life Style

OpenAI lleva el vídeo al modo de audio avanzado ChatGPT

[ad_1]

El modo de audio avanzado de ChatGPT ahora tiene capacidades para compartir pantalla y video.

Esta función se lanzó en mayo pasado con el lanzamiento de GPT-4opero solo se activó el método de audio. Ahora los usuarios pueden chatear con ChatGPT usando la cámara del teléfono y el modelo “verá” lo que usted ve.

En la transmisión en vivo, el director de operaciones Kevin Weil y otros miembros del equipo de OpenAI hicieron una demostración de ChatGPT para ayudar a preparar café vertido. Al apuntar la cámara a la acción, AVM demostró que entendían el principio de la máquina de café y guiaron al equipo a través del proceso de preparación de su bebida. El equipo también demostró cómo ChatGPT admite el uso compartido de pantalla al comprender un mensaje abierto en un teléfono donde Weil lleva una barba de Papá Noel.

Velocidad de la luz triturable

El tan esperado anuncio llega un día después de que Google quitar el velo La próxima generación de su modelo estrella, el Gemini 2.0. El nuevo Gemini 2.0 también puede procesar entradas visuales y de audio y tiene más capacidades de proxy, lo que significa que puede realizar tareas de varios pasos en nombre del usuario. Las funciones del agente Gemini 2.0 están actualmente disponibles como prototipo de investigación con tres nombres diferentes: Proyecto Astra para asistente global de IA, Proyecto Mariner para tareas específicas de IA y Proyecto Jules para desarrolladores.

Para no quedarse atrás, la demostración de OpenAI mostró cómo el método de visión de ChatGPT identificaba objetos con precisión e incluso era ininterrumpible. Y sí, parte de esto incluye la opción de expresar a Santa en el modo Voz, completo con una voz profunda y divertida y muchos “ho-ho-hos”. Puedes chatear con la versión OpenAI de Santa haciendo clic en el ícono del copo de nieve en ChatGPT. Aún no hay información sobre si el verdadero Papá Noel contribuyó con su voz para entrenar la IA o si OpenAI usó su voz Sin aprobación previa.

Curiosamente, al seleccionar la voz de Santa en la aplicación ChatGPT, se advierte al usuario que la voz sólo está destinada a personas mayores de 13 años.

A partir de hoy, los videos y la pantalla compartida están disponibles para los usuarios de ChatGPT Plus y Pro, y Enterprise y Edu estarán disponibles en enero.



[ad_2]

Source Article Link

Categories
News

Se anuncia el programa Beta abierta de Moto AI con un conjunto avanzado de funciones de IA: dispositivos y funciones elegibles

[ad_1]

Motorola Anunció el lanzamiento de la versión beta abierta de IA de motocicleta – ala inteligencia artificial (Inteligencia Artificial) para sus dispositivos. Está disponible en determinados teléfonos inteligentes Motorola, incluidos los últimos teléfonos de las series Razr y Edge. Los usuarios pueden registrarse en el programa beta abierto y probar funciones como resúmenes de mensajes y llamadas, herramientas para tomar notas y una función de captura de pantalla que funciona de la misma manera que Google Aplicación de captura de pantalla de píxeles.

Dispositivos elegibles para Moto AI Open Beta

Motorola el dice moto Amnistía Internacional La beta abierta está disponible globalmente para Motorola Razr 50 Ultra, razr 50y Borde 50 Ultra Como iniciativa opcional. Actualmente admite los idiomas inglés, portugués y español. La compañía dice que los usuarios recibirán una notificación en sus dispositivos para inscribirse en el programa. Alternativamente, pueden ir al sitio web oficial de la marca y registrarse.

Una vez completado, se les pedirá que instalen la aplicación Moto AI desde Google Play Store y se unan al programa beta. A continuación, al deslizar el dedo hacia arriba desde la pantalla de inicio de su teléfono inteligente Motorola se alternará la experiencia de IA.

Funciones de la beta abierta de Moto AI

Según Motorola, su suite de IA ofrece tres características clave: Atrápame, me doy cuentay recuerda esto. La primera función proporciona resúmenes de mensajes y llamadas, eliminando la necesidad de revisar cada notificación. Mientras tanto, me doy cuenta La grabación de audio comienza con capacidades adicionales de transcripción y resumen.

La última característica disponible como parte de la versión beta abierta de Moto AI es recuerda esto. Permite a los usuarios guardar información esencial de capturas de pantalla, fotografías y notas. Esta información, además de las grabaciones de me doy cuenta función, se guarda en la aplicación Journal de Motorola. Además, también puede organizar, transcribir y resumir contenido utilizando IA.

La compañía dice que los usuarios pueden enviar comentarios usando Compartir comentarios Desde el panel de configuración rápida del dispositivo. También pueden abandonar el programa beta abierto desinstalando la aplicación Moto AI de su teléfono inteligente. Esto eliminará todo el shareware del dispositivo excepto la aplicación Journal.

[ad_2]

Source Article Link

Categories
Featured

El modo de voz avanzado de ChatGPT llegará a su navegador de escritorio: un gran paso hacia el rumoreado agente de jugador

[ad_1]


  • OpenAI está implementando el modo ChatGPT Advanced Voice en el navegador
  • Sólo los suscriptores pagos tendrán acceso en este momento.
  • Es un primer paso vital hacia los agentes de inteligencia artificial basados ​​en navegador de ChatGPT

Ha sido un momento muy ocupado para ChatGPT y AbiertoAI. Tras los rumores de que el modo ChatGPT Advanced Voice (la capacidad de tener una conversación fluida con IA) está a punto de finalizar Adquirir la capacidad de “ver”y restar Aplicación ChatGPT de Windows para todos los usuarios gratuitos La semana pasada, anuncié que el modo de audio avanzado ahora está disponible en la versión de ChatGPT basada en navegador, solo para suscriptores pagos.

Entonces, si es suscriptor de ChatGPT Plus o Teams, visite ChatGPT.com (o su sitio recién adquirido) Chat.com Domain) pronto le dará acceso a la opción de modo de audio avanzado que anteriormente solo estaba disponible en las versiones de la aplicación ChatGPT.



[ad_2]

Source Article Link

Categories
Life Style

El modo de audio avanzado de ChatGPT podría tener una nueva función de “Cámara en vivo”

[ad_1]

Las muy esperadas capacidades de visibilidad de ChatGPT podrían estar disponibles pronto, según algunos investigadores perspicaces.

cuerpo de robot Se detectaron algunas líneas de código en Avanzado. Modo de sonido Parte de la última versión beta de ChatGPT v1.2024.317, que se refiere a algo llamado “cámara en vivo”. El icono parece ser una advertencia a los usuarios para que no utilicen la cámara en vivo para “navegación en vivo o decisiones que puedan afectar su salud o seguridad”.

Otra línea de código parece dar instrucciones sobre las capacidades de visión y dice: “Presione el ícono de la cámara para permitir que ChatGPT vea su entorno y charle sobre ellos”.

Velocidad de la luz triturable

Capacidades ChatGPT de vanguardia: visión, voz y más

La capacidad de ChatGPT para procesar información visualmente fue una característica clave que debutó en Evento abierto AI El pasado mes de mayo se inauguró GPT-4o. Las demostraciones del evento mostraron cómo GPT-4o puede usar una cámara móvil o de escritorio para identificar sujetos y recordar detalles sobre imágenes. Una demostración mostró a GPT-4o identificando a un perro que jugaba con una pelota de tenis y recordando su nombre como “Bowser”.

Desde el evento OpenAI y el posterior acceso temprano a algunos probadores alfa afortunados, no se ha dicho mucho sobre GPT-4o con Visibilidad. Mientras tanto, OpenAI ha enviado Modo de sonido avanzado Para usuarios de ChatGPT Plus y Team en septiembre.

Si la visibilidad de ChatGPT es tan inminente como sugiere el código, los usuarios pronto podrán probar ambos componentes de las nuevas funciones GPT-4o introducidas la primavera pasada.

OpenAI ha estado ocupado últimamente, a pesar de los informes de Rendimientos decrecientes Con futuros modelos. El mes pasado despegó Buscar ChatGPTque conecta el modelo de IA a la web, proporcionando información en tiempo real. Es Rumor Para trabajar con algún tipo de agente capaz de realizar tareas de varios pasos en nombre de un usuario, como escribir código y navegar por la web, su lanzamiento probablemente esté programado para enero.



[ad_2]

Source Article Link

Categories
News

Runway ofrece control avanzado de cámara en el generador de video AI Alpha Turbo Gen-3

[ad_1]

Pistala empresa de inteligencia artificial (IA) centrada en vídeo lanzó una nueva función el viernes. Esta función, llamada Control avanzado de cámara, permitirá a los usuarios controlar con precisión el movimiento de la cámara en un video generado por IA. Esta capacidad se está agregando al modelo Gen-3 Alpha Turbo de la compañía, que se lanzó en junio. Esta función admite entradas de texto, imágenes y video y permite a los usuarios especificar la dirección y la intensidad del movimiento de la cámara. Esta función está disponible para suscriptores gratuitos y pagos de la plataforma.

El Gen-3 Alpha Turbo de Runway obtiene control avanzado de cámara

mientras tengo un vídeo El modelaje ha recorrido un largo camino desde que llegaron a la corriente principal, y un área en la que todavía tienen dificultades es el control preciso de los movimientos de la cámara. Los usuarios pueden controlar el estilo, los objetos y el enfoque, así como los detalles finos, pero pedirle a la IA que mueva la cámara o amplíe la toma da como resultado resultados aleatorios.

En una publicación en X (anteriormente conocida como Twitter), la compañía de inteligencia artificial detalló una función avanzada de control de cámara que tiene como objetivo abordar este desafío. La compañía ha compartido varios ejemplos en vídeo de cómo esta herramienta permite a los usuarios controlar manualmente cómo se mueve la cámara en la toma.

Esta función permitirá a los usuarios acercar y alejar el sujeto u objeto en el marco. La cámara también se puede mover horizontal, vertical o diagonalmente según indicaciones específicas. Además, también se pueden crear vídeos con tomas panorámicas para revelar más contexto de la escena.

Otro aspecto interesante de la función de control avanzado de la cámara es que los usuarios también pueden controlar la intensidad del movimiento. Esto significa que los usuarios pueden elegir un movimiento lento o rápido para obtener el efecto deseado. Además, se pueden combinar múltiples movimientos para generar un efecto de fluidez.

Estas funciones solo están disponibles en el modelo Gen-3 Alpha Turbo AI. La plantilla está disponible tanto para usuarios gratuitos como para suscriptores de pago. Sin embargo, aquellos en el nivel gratuito obtendrán una cantidad limitada de tokens para probar el modelo de creación de videos. La suscripción paga de Runway comienza en $12 (alrededor de Rs 1,000) por mes por usuario.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.



[ad_2]

Source Article Link

Categories
News

El modo de audio avanzado ChatGPT ha sido lanzado para aplicaciones de escritorio para MacOS y Windows

[ad_1]

ChatGPT Modo de sonido avanzado, una característica que se introdujo por primera vez Laminación En septiembre, se agregó a las aplicaciones de escritorio del chatbot impulsado por IA. Anunciado el jueves, el chatbot nativo de OpenAI ahora ofrecerá una experiencia de chat de voz similar a la humana para usuarios de Mac y Windows. Revelada por primera vez en el evento OpenAI Spring Updates en mayo, la función puede expresar emociones, modificar la voz y responder a lo que dice el usuario. Hasta ahora, sólo los suscriptores pagos de la plataforma tienen acceso a esta función.

El modo de audio avanzado ChatGPT llega a las aplicaciones de escritorio

en un correo En La medida es interesante a medida que las principales empresas de IA comienzan a centrar su atención en el escritorio para ofrecer capacidades de IA más potentes y completas a los usuarios.

El mismo día Antropía Liberado Aplicaciones de escritorio para Mac y Windows, allanando el camino para una herramienta para PC. Google también se dice Trabajando en una nueva herramienta de navegador impulsada por IA que podrá completar tareas como reservar entradas para el cine y comprar un producto. Ahora, con Advanced Voice de OpenAI, los usuarios finalmente pueden aprovechar todo el poder de la IA basada en voz en un entorno de escritorio. Vale la pena señalar que la función hasta ahora solo estaba disponible para Androide Y aplicaciones de iOS.

Algunas formas en que los usuarios pueden aprovechar el modo de voz avanzado de ChatGPT es pedirle verbalmente a la IA que escriba código o ir y venir mientras escriben un trabajo de investigación o una tarea universitaria. Los usuarios también pueden cargar archivos de datos y luego tener una conversación bidireccional sobre análisis e información.

Los usuarios de ChatGPT encontrarán la opción de activar el modo de audio avanzado haciendo clic en el icono de forma de onda al lado del campo de texto. Al tocar el icono se activa el nuevo modo de voz. Los usuarios ahora tienen cinco nuevas voces para elegir: Vale, Spruce, Arbor, Maple y Sol. Cada uno de estos sonidos tiene un tono, un tono y un dialecto regional diferente.

Sin embargo, la función todavía está disponible solo para usuarios de ChatGPT Teams y Plus. Además, los residentes de la Unión Europea, Reino Unido, Suiza, Islandia, Noruega y Liechtenstein no recibirán la nueva función.

[ad_2]

Source Article Link