Google El jueves presentó una nueva función de actualización de inteligencia artificial (IA) llamada “Subtítulos de Emoji”. Esta función se está implementando en la función Subtítulos en vivo en Android. A través de esto, los usuarios podrán ver subtítulos en vivo de los videos reproducidos en el dispositivo en un nuevo formato para transmitir mejor el contexto detrás de los sonidos. La función de IA transmitirá emoción, gritos y volumen mientras muestra texto en letras grandes. Los subtítulos expresivos están actualmente disponibles en inglés en dispositivos con Android 14 y Android 15 en los EE. UU.
La función Emoji Captions de Google se basa en inteligencia artificial
Gigante de búsqueda Detalles compartidos Acerca de la nueva función de IA agregada a Live Captions para Android, dijo que aunque los subtítulos se hicieron populares por primera vez en la década de 1970 como una herramienta de accesibilidad para la comunidad de personas sordas y con problemas de audición, la forma en que se presentan no ha cambiado en los últimos 50 años.
Hoy en día, muchas personas utilizan subtítulos mientras transmiten contenido en línea en espacios públicos ruidosos, para comprender mejor lo que se dice, o mientras consumen contenido en un idioma extranjero. En un guiño a la popularidad de los subtítulos entre los usuarios de Android, Google dijo que ahora está utilizando inteligencia artificial para innovar la información transmitida por los subtítulos.
Con Expressive Captions, los subtítulos en vivo podrán comunicar aspectos como el tono, el volumen, las señales ambientales y el ruido humano. “Estas pequeñas cosas marcan una gran diferencia a la hora de transmitir más allá de las palabras, especialmente para contenido social y en vivo que no tiene subtítulos precargados o de alta calidad”, dijo Google.
Una forma en que Expressive Captions innovará sus subtítulos es mostrar todas las letras mayúsculas para indicar la intensidad del habla, ya sea emoción, volumen o enojo. Estos subtítulos también identificarán sonidos como suspiros, ronquidos y jadeos, lo que ayudará a los usuarios a comprender mejor los matices del habla. Además, también captará los sonidos ambientales que se reproduzcan en primer plano y en segundo plano, como aplausos y vítores.
Google dice que Expressive Captions es parte de Live Captions y que la función está integrada en el sistema operativo y estará disponible a través de Androide dispositivo, independientemente de la aplicación o interfaz que utilice el usuario. Como resultado, los usuarios pueden encontrar subtítulos de IA en tiempo real mientras miran transmisiones en vivo, publicaciones en redes sociales y recuerdos en Google Photos, así como videos compartidos en plataformas de mensajería.
Vale la pena señalar que el procesamiento de subtítulos expresivos por IA se realiza en el dispositivo, lo que significa que los usuarios los verán incluso cuando el dispositivo no esté conectado a Internet o en modo avión.