Categories
Life Style

Luchando por una traducción de voz a voz justa y de código abierto

[ad_1]

El documento en breve

• Miles de millones de personas en todo el mundo se comunican regularmente en línea en idiomas distintos al suyo.

• Esto ha creado una enorme demanda de modelos de inteligencia artificial (IA) que puedan traducir texto y voz.

• Pero la mayoría de los modelos sólo funcionan con texto, o utilizan el texto como un paso intermedio en la traducción de voz a voz, y muchos se centran en un pequeño subconjunto de los idiomas del mundo.

Escribir naturaleza-Comunicación fluida del equipo.1 Aborda estos desafíos para encontrar tecnologías subyacentes que puedan hacer realidad la traducción global rápida.

Tanil Alomai: Trucos elegantes y una mirada abierta.

Los autores de SEAMLESS han creado un modelo de IA que utiliza un enfoque de red neuronal para traducir directamente entre unos 100 idiomas (Figura 1a). El modelo puede tomar texto o voz de cualquiera de estos idiomas y traducirlo a texto, pero también puede traducirlo directamente a voz en 36 idiomas. La traducción de voz a voz es particularmente impresionante porque implica un enfoque “holístico”: el modelo puede traducir directamente, por ejemplo, el inglés hablado al alemán hablado, sin transcribirlo primero al texto en inglés y traducirlo al texto en alemán (Figura 1b). .

Figura 1

Figura 1 | Traducción automática de discurso a discurso.A-Comunicación fluida del equipo.1 Ha creado un modelo de inteligencia artificial (IA) que puede traducir el habla en unos 100 idiomas directamente al habla en 36 idiomas. paraLos modelos tradicionales de IA para la traducción de voz a voz suelen utilizar un enfoque secuencial, en el que la voz primero se transcribe y se traduce a texto en otro idioma, antes de volver a convertirse en voz. doAlgunos modelos tradicionales pueden causar alucinaciones (generar resultados incorrectos o engañosos), lo que podría resultar en un daño significativo si estos modelos se utilizan para traducción automática en entornos de alto riesgo, como la atención médica.

Para entrenar su modelo de IA, los investigadores se basaron en métodos llamados aprendizaje autosupervisado y aprendizaje semisupervisado. Estos métodos ayudan al modelo a aprender de grandes cantidades de datos sin procesar (como texto, voz y video) sin necesidad de que los humanos anoten los datos con etiquetas o categorías específicas que proporcionen contexto. Estas etiquetas pueden ser textos exactos o traducciones, por ejemplo.

La parte del modelo responsable de traducir el habla fue entrenada previamente en un conjunto de datos masivo que contiene 4,5 millones de horas de audio hablado multilingüe. Este tipo de entrenamiento ayuda al modelo a aprender patrones en los datos, lo que facilita el ajuste del modelo para tareas específicas sin requerir grandes cantidades de datos de entrenamiento personalizados.

Una de las estrategias más inteligentes del equipo SEAMLESS implicó “explorar” Internet para entrenar pares que se correspondan entre idiomas, como fragmentos de audio en un idioma que coincidan con subtítulos en otro. A partir de algunos datos que sabían que eran confiables, los autores entrenaron el modelo para reconocer cuándo dos piezas de contenido (como un video y un subtítulo coincidente) realmente coinciden en significado. Al aplicar esta técnica a cantidades masivas de datos derivados de Internet, recopilaron alrededor de 443.000 horas de audio con texto coincidente y alinearon alrededor de 30.000 horas de pares de voz, que luego utilizaron para entrenar aún más su modelo.

A pesar de estos avances, en mi opinión, la mayor virtud de este trabajo no es ni la idea ni el método propuesto. En cambio, la realidad es que todos los datos y códigos para operar y mejorar esta tecnología están disponibles públicamente, aunque el modelo en sí solo puede usarse en esfuerzos no comerciales. Los autores describen su modelo de traducción como “básico” (ver: go.nature.com/3teaxvx), lo que significa que se pueden ajustar en conjuntos de datos cuidadosamente seleccionados para propósitos específicos, como mejorar la calidad de la traducción para pares de idiomas específicos o para términos técnicos.

Meta se ha convertido en uno de los mayores defensores de la tecnología de lenguajes de código abierto. Su equipo de investigación jugó un papel decisivo en el desarrollo de PyTorch, una biblioteca de software para entrenar modelos de IA, que es ampliamente utilizada por empresas como OpenAI y Tesla, así como por muchos investigadores de todo el mundo. El modelo presentado aquí se suma al arsenal de modelos de tecnología de lenguaje central de Meta, como la familia Llama de modelos de lenguaje grandes.2El cual se puede utilizar para crear aplicaciones similares a ChatGPT. Este nivel de apertura es una gran ventaja para los investigadores que carecen de los vastos recursos computacionales necesarios para construir estos modelos desde cero.

Aunque esta tecnología es apasionante, todavía existen muchas barreras. La capacidad del modelo integrado para traducir hasta 100 idiomas es impresionante, pero la cantidad de idiomas utilizados en todo el mundo ronda los 7.000. La herramienta también tiene dificultades en muchas situaciones que los humanos manejan con relativa facilidad, por ejemplo, conversaciones en lugares ruidosos o entre personas con acento fuerte. Sin embargo, los métodos de los autores para aprovechar datos del mundo real representarían un camino prometedor hacia una tecnología del habla que rivalice con la ciencia ficción.

Alison Koeneke: Mantenga a los usuarios informados

Las tecnologías basadas en el habla se utilizan cada vez más para tareas de alto riesgo, como tomar notas durante exámenes médicos, por ejemplo, o transcribir procedimientos judiciales. Modelos como los pioneros de SEAMLESS están acelerando el progreso en este campo. Pero los usuarios de estos modelos (médicos y funcionarios de tribunales, por ejemplo) deberían ser conscientes de la falibilidad de las tecnologías del habla, al igual que los individuos cuyas voces representan la información.

Los problemas asociados con las tecnologías del habla existentes están bien documentados. La transcripción tiende a ser peor para los dialectos del inglés que se consideran no “estándar”, como el inglés afroamericano, que para varios dialectos que se utilizan más ampliamente.3. La calidad de la traducción hacia y desde un idioma es deficiente si ese idioma está subrepresentado en los datos utilizados para entrenar el modelo. Esto afecta a cualquier idioma que aparezca con poca frecuencia en Internet, desde el afrikáans hasta el zulú.4.

Se sabe que algunas formas de transcripción “alucinógena” son5 – Inventa frases completas que nunca se dijeron en la entrada de audio. Esto sucede con más frecuencia en los hablantes con problemas del habla que en los que no los tienen (Figura 1c). Este tipo de errores cometidos por máquinas tienen el potencial de causar daños reales, como recetar erróneamente un medicamento o acusar a la persona equivocada en un juicio. El daño afecta desproporcionadamente a las poblaciones marginadas, que tienen más probabilidades de ser malinterpretadas.

Los investigadores de SEAMLESS midieron la toxicidad asociada con su modelo (el grado en que sus traducciones presentaban un lenguaje dañino u ofensivo).6. Este es un paso en la dirección correcta y proporciona una base sobre la cual se pueden probar modelos futuros. Sin embargo, debido al hecho de que el rendimiento de los modelos existentes varía mucho entre idiomas, se debe tener más cuidado para garantizar que el modelo pueda traducir o replicar términos específicos en idiomas específicos de manera competente. Este esfuerzo debería ir acompañado de esfuerzos entre los investigadores de visión por computadora, que están trabajando para mejorar el bajo rendimiento de los modelos de reconocimiento de imágenes en grupos subrepresentados y disuadir a los modelos de hacer predicciones ofensivas.7.

Los autores también buscaron sesgos de género en las traducciones producidas por su modelo. Su análisis examinó si el modelo sobrerrepresenta un género al traducir frases neutrales al género a idiomas de género: ¿La frase “Soy profesor” en inglés se traduce como “masculino”?Yo soy un profesor“o a lo femenino”Yo soy un profesor“¿En español? Pero tales análisis se limitan a lenguas con formas masculinas y femeninas únicamente, y futuras auditorías deberían ampliar la gama de sesgos lingüísticos estudiados.8.

En el futuro, el pensamiento orientado al diseño será esencial para garantizar que los usuarios puedan contextualizar las traducciones proporcionadas por estos modelos, muchos de los cuales varían en calidad. Además de las señales de alerta exploradas por los autores de SEAMLESS, los desarrolladores deberían considerar cómo mostrar las traducciones de manera que muestren los límites del modelo, marcando, por ejemplo, cuando el resultado incluye el modelo simplemente adivinando el género. Esto puede incluir abandonar por completo la producción cuando su precisión esté en duda, o acompañar la producción de baja calidad con advertencias escritas o señales visuales.9. Quizás lo más importante es que los usuarios deberían poder optar por no utilizar tecnologías del habla (por ejemplo, en entornos médicos o legales) si así lo desean.

Aunque las tecnologías del habla pueden ser más eficientes y rentables a la hora de transcribir y traducir que los humanos (que también son susceptibles a sesgos y errores),10), es esencial comprender las formas en que estas tecnologías fallan, de manera desproporcionada para algunos grupos demográficos. El trabajo futuro debe garantizar que los investigadores de tecnología del habla mejoren las disparidades de rendimiento y que los usuarios estén bien informados sobre los posibles beneficios y daños asociados con estos paradigmas.

[ad_2]

Source Article Link

Categories
News

CES 2025: Se lanzan los auriculares Timekettle W4 Pro AI Interpreter con función de traducción instantánea bajo demanda

[ad_1]

Timekettle lanzó los auriculares W4 Pro AI Interpreter esta semana en el Consumer Electronics Show (CES) 2025 en Las Vegas. Los auriculares con IA presentan un diseño de oreja abierta y pueden traducir audio a pedido en tiempo real en 40 idiomas y 93 dialectos. Los auriculares son capaces de realizar traducciones de idiomas bidireccionales en tiempo real sin necesidad de entradas o indicaciones manuales. Además, la empresa también permite a los usuarios personalizar la traducción agregando traducciones específicas para palabras específicas. Timekettle también anunció un nuevo sistema operativo denominado Babel OS para el dispositivo.

Precio y disponibilidad de los auriculares para intérprete Timekettle W4 Pro AI

Los auriculares para intérprete Timekettle W4 Pro AI tienen un precio de 449 dólares (aproximadamente 38.500 rupias). Está disponible únicamente en la opción de color negro. El dispositivo salió a la venta el domingo y ahora se puede pedir gratis a través de su sitio web. Sitio web. El W4 Pro también se puede pedir desde cualquier país del mundo, pero se aplicarán cargos de envío.

Características y especificaciones de los auriculares para intérprete Timekettle W4 Pro AI

Según el sitio web oficial, los auriculares presentan un diseño de oreja abierta con unas dimensiones de 80,1×57,7×25,4 mm. Utiliza inteligencia artificial en el dispositivo para proporcionar traducción de voz instantánea y bajo demanda a los usuarios. Esta función funciona cuando el usuario está en una llamada de voz, videollamada y en una reunión en línea con varios participantes.

El traductor Timekettle W4 Pro AI puede traducir llamadas a 40 idiomas diferentes. Algunos de estos idiomas incluyen árabe, búlgaro, chino/croata, holandés, inglés, francés, alemán, griego, hindi, indonesio, japonés, coreano, polaco, ruso, español, tamil, telugu, turco, urdu y vietnamita. Además, los auriculares también pueden distinguir entre 93 dialectos.

Según la empresa, la función de traducción no requiere ninguna activación manual y la IA puede reconocer automáticamente la voz en un idioma extranjero y comenzar a traducirla. Se dice que la voz traducida es más fuerte que la del idioma original. Además, los auriculares supuestamente también pueden generar un resumen de texto de la conversación para permitir a los usuarios volver a visitarla más tarde. Además, los usuarios también pueden comparar el discurso original y la traducción posterior.

Los auriculares vienen en un estuche de carga con una batería de 800 mAh y una solución de carga USB tipo C. Se dice que los auriculares proporcionan seis horas de período de traducción con una sola carga y tardan una hora en cargarse por completo.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
Bisnis Industri

Los auriculares de traducción de idiomas EarFun se exhibieron en CES 2025

[ad_1]

Los nuevos auriculares insignia con cancelación de ruido EarFun Air Pro 4+ cuentan con traducción de idiomas impulsada por IA, dijo la compañía en CES 2025. También ofreció nuevos audífonos con clip, audífonos abiertos para hacer ejercicio y audífonos con cancelación de ruido a precios asequibles. – Auriculares y dongle Auracast USB-C que pueden permitir audio sin pérdidas para dispositivos.

Auriculares con cancelación de ruido EarFun Air Pro 4+ y traducción de idiomas por IA

El buque insignia EarFun Air Pro 4+ (en la foto de arriba) se basa en Ancestro sólido Con traducción multilingüe impulsada por IA para comunicación en tiempo real que debería adaptarse a viajeros y usuarios de negocios de todo el mundo, EarFun Dijo en materiales de prensa enviados a Culto a Mac. Utilizando arquitectura nanoacústica de armado lateral (NSAA) y tecnología BassSurge con controladores dinámicos compuestos de 10 mm, los auriculares ofrecen una calidad de sonido excepcional.

El dispositivo incluye un SoC Qualcomm QCC 3091 con aptX Lossless Audio y cancelación de ruido adaptativa QuietSmart 3.0 de hasta 50 dB. Ofrecen hasta 54 horas de duración de la batería y conectividad multipunto. El Air Pro 4+ saldrá a la venta por 99,99 dólares en mayo de 2025, dijo EarFun.

Auriculares OpenJump

Salto abierto de Irphone
Los auriculares OpenJump se colocan sobre las orejas para mayor seguridad.
Foto de : Airfon

Para los entusiastas del fitness, los auriculares inalámbricos OpenJump cuentan con un diseño ultraligero con ganchos para las orejas seguros y son resistentes al agua IPX7. Los auriculares incluyen controladores compuestos de lana de 14,2 mm y tecnología BassSurge para una calidad de sonido envolvente.

Las características notables incluyen tecnología de sonido envolvente 3D, claridad de llamadas impulsada por IA a través de cuatro micrófonos y una duración total de la batería de hasta 42 horas con el estuche de carga. OpenJump se lanza el 21 de enero por 79,99 dólares.

Auriculares EarFun Clip y Wave Life

Clip para auriculares
Los auriculares EarFun Clip se fijan a los oídos para que no se resbalen.
Foto de : Airfon

EarFun Clip ofrece una alternativa sencilla con ganchos casi invisibles y controladores compuestos de fibra de carbono de 10,8 mm. Los auriculares admiten audio de alta resolución y códec LDAC, y brindan 7,5 horas de reproducción, ampliables a 30 horas con el estuche de carga. El clip se lanzará en marzo de 2025 por 69,99 dólares.

en Clase sobre la orejaLos auriculares Wave Life actualizados cuentan con Bluetooth 5.4, entrada de audio USB y tecnología ANC híbrida. Equipados con controladores compuestos de 40 mm, estos auriculares cuentan con una impresionante duración de batería de 60 horas e incluyen capacidades de conectividad multipunto. Wave Life costará 59,99 dólares a partir de febrero de 2025.

Dispositivo USB Auracast UD100

Dongle USB para Airfone
El dongle USB-C permite que varios dispositivos reproduzcan audio sin pérdidas.
Foto de : Airfon

Completando la línea está el dongle USB UD100 Auracast. Lo alimenta un chip Qualcomm S3 QCC3086. El accesorio permite la conectividad Bluetooth 5.4 a varios dispositivos como PC, tabletas y teléfonos inteligentes a través de USB-C. Admite muchos códecs, incluido aptX Lossless. Cuenta con transmisión de audio de 96 kHz/24 bits con latencia de 20 ms. El dongle se lanzará en mayo de 2025 por 19,99 dólares.

Si asiste a CES 2025, puede recibir demostraciones de productos en el pabellón sur 1 del Centro de convenciones de Las Vegas, stand n.º 31139. La línea de productos saldrá a la venta en myearfun.com y amazon.com en su fecha de lanzamiento.



[ad_2]

Source Article Link

Categories
News

Honor Magic 6 Pro recibe la actualización MagicOS 9 con traducción AI y más funciones en India

[ad_1]

Sistema operativo mágico 9 El viernes, la compañía anunció el lanzamiento del Honor Magic 6 Pro en India. adelante quitar el velo En octubre en China y el Magic 6 Pro se convierte en el primero honor Smartphone en india para recibir sistema Android 15 para actualizar. Según el OEM chino, MagicOS 9 mejora la fluidez y la capacidad de respuesta del sistema y ofrece esquemas de color actualizados y una personalización de la pantalla de inicio más completa. inteligencia artificial Funciones (inteligencia artificial).

Actualización de MagicOS 9 para Honor Magic 6 Pro: novedades

Honor ha detallado las características incluidas en la actualización de MagicOS 9 para Honor Magic 6 Pro en un correo En el foro de su comunidad. Según la empresa, está elevando la versión del sistema operativo a 9.0.0.131 (C185E10R2P2). Se dice que MagicOS 9 introduce animaciones más duraderas que mejoran las transiciones al cambiar entre el Centro de notificaciones, el Centro de control, las tarjetas multimedia y las notificaciones de llamadas. Hay animaciones de retroalimentación háptica que entran en juego al brindar respuestas a la pantalla de inicio, la búsqueda global y otros escenarios. Honor también proporciona animaciones de inicio paralelo y animaciones de jerarquía espacial mejoradas al ingresar o salir de aplicaciones.

Otra gran parte de la actualización es el menú. Amnistía Internacional Características ofrecidas. Honor dice que MagicOS 9 es un paso adelante en la traducción con IA e incluye funciones como un modo de intérprete que puede proporcionar traducciones en tiempo real, ideal para conferencias o reuniones. Mientras tanto, la función de grabación en bucle supuestamente puede traducir conversaciones en tiempo real sin la necesidad de tocar repetidamente. También hay una función llamada Magic Portal que se puede activar haciendo clic y dibujando un círculo con la articulación. Proporciona acceso rápido a servicios como traducción de google, búsqueda de google, YouTubeY más.

Para aumentar la productividad, MagicOS 9 incorpora IA a la aplicación Notas del Honor Magic 6 Pro. Permite a los usuarios grabar notas, utilizar la conversión de voz a texto y acceder a traducciones en tiempo real. Otras adiciones de IA incluyen la reducción de ruido de doble ruta AI que reduce el ruido de fondo para una calidad de llamada más clara y una pantalla de desenfoque AI que puede reducir la miopía transitoria estimulando el desenfoque.

MagicOS 9 permite a los usuarios de Magic 6 Pro personalizar fácilmente sus dispositivos mediante gestos. Pueden tocar con dos dedos la pantalla de inicio o la pantalla de bloqueo para acceder a opciones de personalización, como cambiar temas o personalizar el estilo, color, tamaño o forma de los iconos. La compañía también ofrece diseños y combinaciones de colores actualizados para Calendario, Notas y más aplicaciones.

En términos de mejoras de la cámara, los usuarios pueden aprovechar la función de zoom en forma de abanico que, según se afirma, mejora la experiencia de zoom al hacerla más intuitiva. También hay una barra de herramientas simplificada que brinda acceso rápido a funciones como fotografía con IA y ajustes de resolución de video. Otras características de MagicOS 9 incluyen Rainproof Touch, una aplicación Smart Remote actualizada, autorreparación celular mejorada y optimización de batería multidimensional que brinda sugerencias y soluciones de ahorro de energía.

[ad_2]

Source Article Link

Categories
News

Microsoft presenta una vista previa de la traducción en tiempo real de subtítulos en vivo para PC AMD e Intel Copilot+

[ad_1]

microsoft Prueba de la función de traducción de inteligencia artificial (IA) en Live Captions para PC Copilot+ con chipsets AMD e Intel. Anunciada el miércoles, la nueva función se presenta en vista previa con lo último ventanas 11 La vista previa interna se ha creado y está disponible a través del canal de desarrollo. Además, el gigante tecnológico también está agregando mejoras a la función de traducción en tiempo real en sus computadoras Copilot+ con tecnología Snapdragon. Además, la compañía también ha corregido algunos errores para la función de invocación, que se lanzó como vista previa a principios de este año.

Microsoft está probando la traducción en tiempo real en subtítulos en vivo

En Windows Publicación de blogel gigante tecnológico anunció que la nueva función de IA se lanzó con Windows 11 Insider Preview build 26120.2705 (KB5050636) para el Dev Channel. Microsoft había lanzado previamente la traducción en tiempo real en Live Captions para PC Copilot+ con tecnología Snapdragon, pero no estaba disponible en los chipsets AMD e Intel. Con esta actualización, algunos usuarios ahora tendrán acceso para probar la función y compartir comentarios con la empresa.

Microsoft Live Translation, traducción en tiempo real en subtítulos en vivo

Traducción en tiempo real en Live Captions
Fuente de la imagen: Microsoft

Las traducciones en tiempo real permitirán a los usuarios traducir audio de más de 44 idiomas al inglés. El audio traducido será visible en la parte inferior de la pantalla como traducción. Esta función puede proporcionar traducción instantánea de videollamadas, grabaciones y contenido de transmisión. Utiliza Copilot de Microsoft y modelos nativos de lenguaje grande.

Vale la pena señalar que para utilizar esta función, los usuarios deberán configurar el idioma de su dispositivo en inglés. Aunque la función puede traducir audio de varios idiomas, no puede traducir del inglés a otros idiomas.

Hay mejoras en la función del procesador Snapdragon. Copiloto + ordenadores también. La función de traducción instantánea ahora podrá traducir audio al chino (simplificado).

Además, la función también admitirá traducciones del árabe, búlgaro, checo, danés, alemán, griego, inglés, español, inglés, estonio, finlandés, francés, hindi, húngaro, italiano, japonés, coreano, lituano, noruego, holandés. Idiomas polaco, portugués, rumano, ruso, eslovaco, esloveno y sueco.

Además, la función de invocación está recibiendo algunas mejoras. Los usuarios pueden habilitar o deshabilitar la función desde Activar o desactivar la función de Windows. Microsoft también destacó que si los usuarios ven un mensaje que dice “Asegúrese de que la recuperación guarde instantáneas”, mientras la página de configuración de la recuperación muestra el guardado de instantáneas habilitado, reiniciar el dispositivo resolverá el problema.

[ad_2]

Source Article Link

Categories
News

Las gafas inteligentes Ray-Ban Meta se han actualizado con IA en vivo y funciones de traducción en vivo

[ad_1]

Rayo meta pan Las gafas inteligentes obtuvieron el lunes dos nuevas funciones de inteligencia artificial (IA). El primero es Live AI, que agrega capacidad de procesamiento de video en tiempo real a Meta AI y permite que el chatbot vea continuamente el entorno del usuario y responda preguntas sobre él. El segundo es la traducción en vivo, que permite a la IA traducir voz en tiempo real en los idiomas admitidos. Este último también fue presentado por el CEO Mark Zuckerberg durante Connect 2024. Estos se implementarán primero para los miembros del programa de acceso temprano de Meta en Canadá y EE. UU.

Gigante tecnológico el dice Las dos nuevas funciones de IA que llegarán a las gafas inteligentes Ray-Ban Meta son parte de la actualización del software de gafas inteligentes v11 que ahora se está implementando en los dispositivos elegibles.

Live AI permitirá a Meta AI acceder a las cámaras de las gafas inteligentes y procesar la transmisión de video continuamente en tiempo real. Esto es similar a la función avanzada de voz con visión en ChatGPT que OpenAI lanzó recientemente. La empresa confirmó que durante la sesión, la inteligencia artificial puede ver continuamente lo que ve el usuario y hablar de ello de forma más natural.

Los usuarios podrán hablar con él. Metainteligencia artificial Sin decir la frase de activación “Hey Meta”. Además, los usuarios también pueden hacer preguntas de seguimiento además de hacer referencia a temas discutidos previamente en la sesión, según la empresa.

También pueden cambiar el tema y volver a temas anteriores sin problemas. “En última instancia, Live AI proporcionará, en el momento adecuado, sugerencias útiles incluso antes de que usted las solicite”, agrega la publicación.

La traducción en vivo proporciona traducción de voz en tiempo real entre inglés y español, francés o italiano. Entonces, si un usuario habla con alguien que habla uno de estos tres idiomas, Meta AI puede traducirlo en tiempo real y crear el audio traducido a través de los parlantes abiertos de las gafas. Los usuarios también pueden ver la traducción en su teléfono inteligente como una transcripción.

El gigante tecnológico advierte que es posible que estas nuevas funciones no siempre sean ciertas y que seguirá recibiendo comentarios de los usuarios y mejorando las funciones de IA. Actualmente, no hay información sobre cuándo se lanzarán estas funciones para todos los usuarios a nivel mundial. muerto Ninguna de estas funciones de IA aún no se ha lanzado en la India.

[ad_2]

Source Article Link

Categories
News

Se dice que IMAX se asociará con Camb.AI para proporcionar traducción en tiempo real de su contenido original.

[ad_1]

Según se informa, IMAX, la productora teatral canadiense, ha anunciado su asociación con Camb.AI, con sede en Dubai, para presentar su contenido en idiomas locales a nivel mundial. Según se informa, la empresa anunció el lunes que se beneficiaría inteligencia artificial Herramientas de IA para traducir su contenido original a 140 idiomas para que los espectadores puedan disfrutarlo en sus idiomas locales. En particular, esta tecnología sólo se ofrecerá a los cines de la marca IMAX, según el informe. Se cree que IMAX está apuntando a la creciente popularidad del contenido que no está en inglés en todo el mundo con este movimiento.

Se dice que IMAX utiliza inteligencia artificial para traducir el contenido original.

Según TechCrunch un informela productora teatral se asoció con Camb.AI, una empresa de inteligencia artificial que se especializa en modelos de habla. A través de esta colaboración, se dice que IMAX planea lanzar toda su biblioteca de contenido en contenido subtitulado globalmente.

Desde una perspectiva estratégica, se dice que la compañía apunta a la creciente popularidad del contenido de Corea del Sur, Indonesia y otros países del Sudeste Asiático en los países occidentales y el resto del mundo. Si bien este contenido está disponible con subtítulos en varias plataformas, el contenido doblado está menos disponible debido al mayor costo de producirlo.

Sin embargo, el doblaje impulsado por IA aún no se ha utilizado ampliamente. Por otro lado, IMAX planea introducir traducciones de voz en tiempo real con tecnología de inteligencia artificial en los cines de todo el mundo. Esto significa que las salas de cada país recibirán el contenido original de la compañía en sus idiomas nativos. El informe no especificó cómo IMAX manejaría el desafío de mostrar contenido en regiones con múltiples idiomas locales, como India.

Según se informa, Camb.AI ha implementado doblaje de IA y traducción de discursos para eventos deportivos en vivo como el Abierto de Australia, el Campeonato Deportivo de Eurovisión y la Major League Soccer. Utiliza el modelo Boli, que se especializa en traducir el habla en texto, y el modelo Mars, que simula el habla. Ambos modelos forman parte de la plataforma DubStudio de la empresa de IA, que admite 140 idiomas.

Akshat Prakash, cofundador y CTO de Camb.AI, dijo a TechCrunch que, a diferencia de empresas como Abierto AI y antrópicono está tratando de expandir su pila de tecnología de inteligencia artificial horizontalmente sino que se está enfocando en mejorar su oferta verticalmente. El director ejecutivo también destacó que algunos de sus grandes modelos de lenguaje (LLM) contienen menos de 100 millones de parámetros.

[ad_2]

Source Article Link

Categories
Life Style

Encontrado en traducción

[ad_1]

Estábamos flotando alrededor de Sweeps-04, como de costumbre, cuando una tormenta espacial nos golpeó con fuerza. Estamos completamente naufragados (mi departamento solo enseña artes reproductivas, así que no me pidas más detalles). Existe la posibilidad de que nos conviertamos en un caos. Seleccionan personas que serán modificadas para respirar en Sweeps-04. Lombard, la IA del barco, dice que debo destacar para ser seleccionado.

Lombard solía contarme historias de estrellas para ayudarme a dormir. Pero ahora el barco cruje y está loco, y es como si viviéramos en uno de esos cuentos espantosos que Lombard ha compuesto especialmente para mí.

Chica sin mangas

Abajo, fuimos criados para trabajar o reproducirnos. Yo tengo 13 años, uso camisetas sin mangas como todos los demás y soy tan simple que podría llorar.

Quiero destacar. Entonces me retendrán.

Captura tu vida a mitad de pantorrilla

Antes de todo este caos, estábamos armando una cápsula del tiempo que contenía piezas de quiénes éramos. El Capitán dice que sigamos así, para distraernos de la posibilidad de muerte. Pensé en tirar algo de mi mala poesía.

Tome la línea inmediatamente superior, el título de este párrafo. Esto significa que si vas a quedar atrapado en una nube de partículas, debes vivir el tiempo restante lo mejor que puedas. Sí, debes mejorarte a ti mismo. Como la mitad de la espinilla, si no puedes levantar la vida. Es un objetivo razonable.

Entonces estoy pensando, ¿y si me convirtiera en poeta? Esto tiene que servir para algo, ¿no?

Secciones en espiral atornilladas

Sección 45-abajo. Es donde está mi habitación. Un largo camino hacia abajo.

gris español

En cubierta, las paredes son grises. Lombard dice que se llama gris español por un país de la Tierra.

Este color no es ni frío ni cálido. Es neutral. gay.

chica de color liso

Vi a una chica de la sección 27 en adelante, lindo techo al que fue porque las cabinas de ducha estaban fuera de servicio del 28 en adelante. Esta chica tiene la piel azul. Cuando se quitó los calcetines, sus pies parecían de porcelana brillante. Totalmente no podía apartar la mirada.

Color azul claro y patas blancas: esto se nota mucho.

Chica en la roca lateral

Mi poema me dio un boleto para Sweeps-04, para visitar nuestro futuro hogar y ¿adivinen quién estaba allí? La niña de piel azul, o de pies blancos, como la llamaba en mi mente.

Mientras aterrizábamos, nuestro transbordador hizo un número sobre un pterodáctilo grande. El pájaro chilló enojado a través de nuestros sensores. Whitefoot pidió a todos que firmaran una carta dirigida al capitán sobre la protección de los animales locales. Ella no me pidió que firmara. Quizás no debería haberme escondido detrás de la última fila de asientos.

Mi amigo Lombard sugirió una “visión social más amplia”.

las chicas estan de moda

En nuestra terraza, todos son criados para verse iguales, pero algunas chicas brillan un poco más. Sólo puedo hablar en nombre de las chicas porque nunca he estado en plataformas de chicos. Sólo conozco al típico chico que te muestran en los videos instructivos.

Jersey con cuello estrecho

Lombard pensó que estaba gorda y me sugirió que usara una chaqueta biológica con un cuello que derretiera la grasa. Le dijo a Lombard dónde podía esconder sus cosas flacas. La IA no se lo tomó bien.

Personas porosas con gran capacidad cúbica.

Se seleccionan jóvenes para su modificación. Escuché que fue bueno para Whitefoot venir a este planeta y espero que yo también pueda hacerlo.

Bovino púrpura sólido sobre una uña cautiva

Estaba mirando hacia Pavilion Bay (porque dejaron que una selección de personas debajo de la cubierta subieran para echar un vistazo) cuando vi una vaca morada. Era una danza de gas ionizado envuelto alrededor de un asteroide grande y puntiagudo, al que llamamos… el clavo. Whitefoot también estaba allí, pero ni siquiera miró en mi dirección.

Me han llamado para una evaluación para viajar en las cápsulas que aterrizarán en el planeta. Tal vez me esté destacando entre la multitud (seleccionado para el vuelo del transbordador, ahora para observar las estrellas, ¿verdad?)

¿No sería algo así?

La esperanza es un gusano de neón.

¡Uno de mis poemas entró en una cápsula del tiempo!

¡Feliz baile!

Párrafo de chica vacía

La esperanza estornuda en gravedad cero.

No se ve bien para nosotros, especies no especiales. El capitán, que estaba todo sucio, dijo que deberíamos prepararnos para lo peor.

La voz de Lombard era suave y baja. Lo saqué todo antes de que pudiera continuar. Los poetas están al final de la lista.

Mi estómago se siente como un compartimento vacío.

Música música dentro de la pared.

La gente que salió a la superficie vivirá. Otros no lo harán. Estamos a punto de convertirnos en fragmentos de la nada.

Saludé y me despedí de Whitefoot y ella sonrió amablemente, pero no me reconoció porque nunca antes había hablado con ella.

No tengo con quién hablar excepto con las chicas que no pasaron el corte y están de mal humor.

Música sin palabras sale de las paredes.

Lombard tuvo un último consejo: “Vístete lo mejor posible y sonríe ampliamente para las cámaras del departamento de estudios sociales; es nuestra última escena”. Pero “mejor” no es una palabra para describir lo que tengo en mi armario. Lo único parecido era la bufanda larga que encontré en la habitación de Whitefoot.

El aire es escaso. Veo puntos negros. Mi cabeza es ligera y ligera.

Me aferro a la bufanda de Whitefoot como si fuera mi salvavidas.

(El nombre de Whitefoot es Julieta).

bufanda olvidada

Lo que me golpea. El pañuelo que tengo en la mano, el pañuelo de Julieta, no es sólo tela. Es una prueba de que Julieta ahora es parte de mi historia. Me hace sentir como si hubiera vivido más allá de mis años. Y tal vez, sólo tal vez, lo haga más fácil saber que recordaré mis palabras mucho después de que nos hayamos ido, incluso si solo están en una lata flotando entre las estrellas.

bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda-bufanda

(largo)

-S-

La historia detrás de la historia.

Gio Clerval revela la inspiración detrás de esto Encontrado en traducción.

Mientras compraba ropa en línea, me topé con traducciones automáticas de descripciones de productos chinos. Estas explicaciones surrealistas de la IA generaron una idea para la historia: ¿Qué sucede cuando los individuos verdaderamente únicos son vistos como prescindibles y su valor percibido no se ajusta a la estrecha definición de utilidad de la sociedad?

[ad_2]

Source Article Link

Categories
News

WhatsApp para Android no utilizará tecnología de Google para función de traducción instantánea: informe

[ad_1]

WhatsApp Para Android era antes Ha sido reportado Google está desarrollando una nueva función de traducción instantánea que puede aprovechar la tecnología de traducción en vivo de Google. Un nuevo informe ahora indica que mientras la función esté en desarrollo, dependerá únicamente de la tecnología interna de la plataforma de mensajería instantánea. La función se detectó nuevamente en la última versión beta, sin embargo, aún no es visible y aquellos que se registraron en el programa beta no podrán probarla. No se sabe cuándo estará disponible para los usuarios.

La función de traducción automática de WhatsApp podría no utilizar la tecnología de Google

En su última versión actualizarEl rastreador de funciones de WhatsApp, WABetaInfo, afirmó que la función todavía depende de la tecnología interna de WhatsApp y no aprovecha ninguna tecnología de terceros para respaldarla. Esto significa que todo el procesamiento de la función se llevará a cabo en el dispositivo y los mensajes permanecerán cifrados de un extremo a otro.

El rastreador de funciones también compartió una nueva captura de pantalla de la función, dando una mejor idea de cómo funciona. La captura de pantalla se encontró en la última versión beta de WhatsApp para Android 2.24.15.12. En la captura de pantalla, la función se titula “Traduce tu mensaje”. WhatsApp también destaca que “tus textos están cifrados de extremo a extremo. Nadie, incluido WhatsApp, puede leerlos”.

La función de traducción en WhatsApp wabetainfo La función de traducción en WhatsApp

Función de traducción en WhatsApp
Fuente de la imagen: WABetaInfo

Según las capturas de pantalla, los usuarios primero deberán activar la opción para traducir todos los mensajes en el chat. Luego tendrán que elegir el idioma a traducir y el idioma de salida. A continuación, WhatsApp le pedirá al usuario que descargue un paquete de idioma. Una vez descargado, todos los mensajes del chat se traducirán automáticamente. Cada mensaje traducido también tendrá una etiqueta “Traducido” en la parte inferior de la burbuja.

El rastreador de funciones afirma que el soporte inicial se limita a idiomas como inglés, árabe, hindi, español, portugués (Brasil) y ruso. Sin embargo, es probable que WhatsApp agregue soporte para más idiomas en el futuro. Según se informa, la función apareció por primera vez en la versión 2.24.15.8 de la aplicación WhatsApp para Android. El personal de Gadgets 360 no pudo verificar si la función existía o funcionaba.

[ad_2]

Source Article Link

Categories
News

Samsung agrega función de traducción en vivo impulsada por IA a aplicaciones de terceros

[ad_1]

Samsung La compañía anunció en su evento Galaxy Unpacked el miércoles que traerá la función Live Translate a WhatsApp y otras aplicaciones de terceros. Esta característica fue anunciada por primera vez por Samsung en enero con la introducción de Inteligencia artificial galaxia – un grupo de inteligencia artificial (Inteligencia Artificial) para sus dispositivos. Este desarrollo confirma una filtración anterior de un denunciante que afirmó que la función de traducción en vivo funcionará en WhatsApp.

Traducción directa en aplicaciones de terceros

Traducción directa La función es traducción de voz en tiempo real con soporte para 13 idiomas en el momento del lanzamiento. Por ahora, solo está limitado a las aplicaciones propias de Samsung, como Mensajes y Teléfono. Durante el discurso de apertura en La galaxia está desempaquetada. El miércoles, el gigante tecnológico confirmó que esta función se está ampliando y ahora admitirá llamadas de voz en aplicaciones de terceros seleccionadas.

Aunque Samsung no especificó qué aplicaciones podrían incluirse, se espera que aplicaciones de VoIP como WhatsApp y Telegram formen parte de la lista. Además de ampliarse para incluir más aplicaciones, la función también es compatible con idiomas adicionales. Samsung dice que admitirá hasta 16 idiomas en julio y 20 idiomas para fin de año.

Samsung afirma que Live Translate funciona mediante el procesamiento en el dispositivo. Esto significa almacenar datos localmente en el dispositivo, en lugar de enviarlos a un servidor en la nube para su almacenamiento. La empresa afirma traducir llamadas telefónicas, mensajes de texto y conversaciones cara a cara en tiempo real al idioma preferido del usuario. Además, también se pueden instalar paquetes de idiomas en el dispositivo para admitir idiomas adicionales.

Este desarrollo se basa en un desarrollo anterior. una fuga A través del experto Ice Universe quien sugirió que Live Translate pronto funcionará con WhatsApp. En junio, Samsung reveló que pronto ofrecería esta función también en otras aplicaciones.

Otros anuncios

En la conferencia Galaxy Unpacked, Samsung presentó un conjunto de anuncios Relacionados tanto con el hardware como con el software. Algunos lanzamientos notables incluyen Samsung Galaxy Z Fold 6 Y Galaxy Z Flip 6 teléfonos inteligentes, series Galaxy Watch Ultra, Galaxy Watch 7 y Galaxy Buds 3. Además, Galaxy AI también obtuvo nuevas funciones, incluidas Auto Zoom y Photo Assist, además de mejoras en las funciones existentes.


Los enlaces de afiliados pueden generarse automáticamente; consulte Declaración de ética Para detalles.

[ad_2]

Source Article Link