cromo En Android ahora se puede leer como Google Está implementando una nueva función de accesibilidad llamada “Escuchar esta página” para la aplicación móvil, que brinda al navegador capacidades de conversión de texto a voz.
De acuerdo con la Página de ayuda oficial de ChromeSe puede acceder a la herramienta haciendo clic en el menú de tres puntos en la esquina superior derecha y la nueva funcionalidad se puede encontrar en la cuarta sección del menú del navegador.
Al activar la función, se muestra el panel de control de audio en la parte inferior de la pantalla con una amplia gama de opciones. Tiene su conjunto estándar de widgets, como el indicador de progreso, el botón de reproducción/pausa, así como el sitio web y el nombre de la página en la parte superior junto con controles adicionales que parecen estar inspirados en YouTube.
Recibirás una opción de rebobinado de 10 segundos y una opción de avance rápido de 10 segundos, así como la posibilidad de cambiar la velocidad de reproducción. Los usuarios pueden reducir la velocidad a la mitad o hasta cuatro veces la velocidad normal.
(Crédito de la imagen: futuro)
Puede presionar el reproductor de audio hacia abajo para ocultar la mayoría de los controles. Las únicas dos cosas que quedan en la pantalla son el botón de reproducción/pausa y el nombre del sitio web. En cuanto a la duración de la tirada, depende totalmente de la extensión del artículo.
Por ejemplo, nuestro artículo reciente sobre Drones DJI Tarda unos 14 minutos, mientras que el nuestro tardó unos película de legos Dura unos siete minutos.
Repleto de funciones
Hasta ahora todo es superficial, pero encontrarás más en la lista completa. de acuerdo a 9To5GoogleEsta sección le permite desactivar las funciones de resaltado de texto y desplazamiento automático. Además, es donde puedes cambiar el idioma de la voz que habla con un total de 12 idiomas para elegir, incluidos inglés, español, hindi, francés y árabe.
Regístrese para recibir noticias de última hora, reseñas, opiniones, las mejores ofertas tecnológicas y más.
También puedes cambiar la forma en que se lee el texto para que se ajuste a un estilo específico. Por ejemplo, “Ruby” habla con una voz cálida y de tono medio, “Moss” tiene una forma tranquila de hablar en un tono bajo, mientras que “Field” tiene una voz más grave y brillante.
Las opciones también aumentan cuando se analizan otros dialectos. Con el inglés, tienes diez voces para elegir en cuatro dialectos diferentes. El acento americano tiene la mayor cantidad de opciones, con solo cuatro sonidos, mientras que el resto solo tiene dos.
Disponibilidad
Escuchar esta página seguirá funcionando incluso si pasa a otras pestañas, ya que la barra de control “permanecerá fija”. Sin embargo, existen limitaciones. Esto sólo funciona mientras Chrome esté en la parte superior. Por lo tanto, si cierra el navegador o regresa a la pantalla de inicio, la función de texto a voz se detendrá.
(Crédito de la imagen: futuro)
Esta función es parte de la última actualización de Chrome en Android, así que asegúrese de tener instalado el último parche. Es posible que no vea la opción en el menú de su navegador.
Al principio no lo encontramos, aunque puedes activarlo manualmente. Todo lo que tienes que hacer es escribir chrome://flags/#read-aloud en la barra de URL y ejecutar la herramienta en el siguiente menú.
No se sabe si hay planes para expandir la funcionalidad de texto a voz de Chrome en otros lugares, pero existe la posibilidad. Google voluntad. a Fuga de septiembre de 2023 El Chrome de escritorio reclamado algún día tendrá su propia función de lectura en voz alta.
¡Han llegado nuevos iPad! Después de ser presentados en el evento “Let Loose” de Apple la semana pasada, los nuevos modelos iPad Pro y iPad Air se lanzaron esta semana junto con el Apple Pencil Pro y el renovado Magic Keyboard, entregando las primeras actualizaciones de la línea iPad de Apple en más de 18 años. mes.
Esta semana también se lanzó iOS 17.5 y actualizaciones relacionadas del sistema operativo. Si bien Apple presentó una vista previa de algunas funciones nuevas e inteligentes de accesibilidad que llegarán a finales de este año, recibimos un rumor interesante sobre la línea de iPhone 2025, así que siga leyendo a continuación para conocer todos los detalles. historias y más!
Nuevo iPad Pro práctico: chip M4, pantalla OLED y más
el Nuevo iPad Pro Y Ipad aire Los modelos se lanzaron el miércoles después de que Apple los presentara la semana pasada.
Además del nuevo iPad Pro M4, también elegimos el iPad Air M2 para ver las novedades de la familia iPad de gama media y Compartimos nuestras primeras ideas en un vídeo práctico.. La nueva opción de tamaño de 13 pulgadas es, por supuesto, el cambio más obvio, pero el nuevo chip M2 es un aumento de especificaciones bienvenido y la cámara frontal movida es ideal para aquellos que desean usar su iPad en orientación horizontal.
El iPad Air M2 es al menos $400 más barato que el iPad Pro M4, por lo que puedes ahorrar una cantidad significativa de dinero y aun así obtener un dispositivo muy capaz que te durará años.
Se rumorea que la línea iPhone 17 presenta un modelo delgado completamente nuevo por encima del Pro Max con un 'rediseño importante'
Hemos escuchado algunos rumores sobre un teléfono “iPhone 17 Slim” que reemplazará al modelo “Plus” actual para la línea de iPhone 2025, y esta semana obtuvimos… Detalles adicionales sobre qué es este dispositivo.
de acuerdo a la informaciónApple tiene como objetivo descontinuar el modelo Plus con la línea iPhone 17, y este nuevo modelo “Slim” se ubicará en la parte superior de la línea por encima del modelo Pro Max. El nuevo modelo de gama alta tendrá un rediseño importante que podría ser mucho más delgado que los modelos de iPhone actuales y verá cambios como mover la cámara trasera a la parte media superior del dispositivo desde el ángulo en el que se encuentra desde el iPhone original. en 2007.
Así es como se comporta el nuevo iPad Pro en las pruebas de flexión
El nuevo iPad Pro de 13 pulgadas tiene solo 5,1 mm de grosor, lo que lo hace más delgado que el iPod nano de séptima generación lanzado en 2012. Cambios en el diseño de interiores. Para que el nuevo iPad Pro se mantenga fuerte.
Apple está obteniendo una vista previa de las funciones de accesibilidad para iOS 18, incluido el seguimiento ocular
iOS 17.5 también Incluye 15 parches de seguridad.Así que asegúrese de actualizar su iPhone lo antes posible para mantenerse protegido de las vulnerabilidades del software.
Emuladores de iPhone en App Store: Game Boy, N64, PS1, PSP y más
Cada semana publicamos un boletín informativo por correo electrónico como este que destaca las principales noticias de Apple, lo que lo convierte en una excelente manera de obtener un breve resumen de la semana que incluye todos los temas clave que hemos cubierto y une historias relacionadas para lograr un gran meta. Ver foto.
Google Ha ampliado su proyecto Gameface, un proyecto de código abierto que tiene como objetivo hacer que los dispositivos tecnológicos sean más accesibles. AndroideY ahora se puede utilizar para controlar la interfaz del teléfono inteligente. El proyecto fue presentado por primera vez durante E/S de Google 2023 como un mouse para juegos manos libres que se puede controlar mediante movimientos de la cabeza y expresiones faciales. Están diseñados para personas que tienen discapacidades físicas y no pueden usar las manos ni la voz para controlar dispositivos. Manteniendo el mismo rendimiento, la versión de Android agrega un cursor virtual para permitir a los usuarios controlar su dispositivo sin tocarlo.
En un anuncio realizado en su blog centrado en desarrolladores. correo“Estamos poniendo a disposición más código para Project Gameface para ayudar a los desarrolladores a crear aplicaciones de Android para que sean más accesibles para todos los dispositivos Android”, dijo Google, “y a través de la cámara del dispositivo, rastrea sin problemas las expresiones faciales y los movimientos de la cabeza, traduciéndolos”. control intuitivo y personalizado”. Además, la empresa pidió a los desarrolladores que también usaran las herramientas para agregar funciones de accesibilidad a sus aplicaciones.
Project Gameface ha colaborado con la organización india Incluzza, que apoya a personas con discapacidad. A través de la colaboración, el proyecto ha aprendido cómo se puede ampliar su tecnología para incluir diferentes casos de uso, como escribir un mensaje, buscar trabajo y más. Utilicé la API de detección de puntos de referencia faciales de MediaPipe y el servicio de accesibilidad de Android para crear un nuevo indicador virtual para dispositivos Android. El cursor se mueve siguiendo el movimiento de la cabeza del usuario después de seguirlo con la cámara frontal.
La API reconoce 52 gestos faciales que incluyen levantar una ceja, abrir la boca, mover los labios y más. Estos 52 gestos se utilizan para controlar y asignar una amplia gama de funciones en su dispositivo Android. Una característica interesante es el arrastre. Los usuarios pueden usar esto para desplazarse por la pantalla de inicio. Para crear un efecto de arrastre, los usuarios deberán especificar un punto inicial y final. Puede ser como abrir la boca y mover la cabeza, y una vez llegado al punto final, se vuelve a cerrar la boca.
Vale la pena señalar que, aunque esta tecnología está disponible en GitHub, ahora corresponde a los desarrolladores crear aplicaciones utilizando esta opción para hacerla accesible a los usuarios. Apple también introdujo recientemente una nueva función que utiliza el seguimiento ocular para controlar el iPhone.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
manzana Anunció varias características nuevas centradas en la accesibilidad de su sistema. iPhone y iPads el miércoles. La empresa introduce periódicamente nuevas funciones de accesibilidad para facilitar el uso de los dispositivos a las personas con discapacidades físicas. Este año, el gigante tecnológico presentará una nueva función de seguimiento ocular que permitirá a los usuarios controlar sus dispositivos con sólo movimientos oculares. Además, Music Haptics permitirá a los usuarios experimentar la música a través de vibraciones y Vocal Shortcuts les permitirá realizar tareas con sonidos personalizados.
Funciones anunciadas a través de A correo En la redacción de la empresa. “Cada año, abrimos nuevos caminos en lo que respecta a la accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse. , controlar sus dispositivos y navegar por el mundo.
En primer lugar, el seguimiento ocular ofrece a los usuarios una opción integrada para operar su iPhone y iPad Sólo con movimientos oculares. Energizado por inteligencia artificial (AI), esta función utiliza la cámara frontal que se puede calibrar con los ojos del usuario, y las funciones de aprendizaje automático (ML) en el dispositivo rastrean los ojos para permitir que las personas con discapacidades físicas naveguen fácilmente por el teléfono. La empresa dice que no puede acceder a los datos de los usuarios.
Music Haptics es otra característica nueva que proporciona una forma única para que los usuarios con pérdida auditiva experimenten la música. Esta función, que se encuentra en el iPhone, aprovecha Taptic Engine para activar clics, texturas y vibraciones para que coincidan con el sonido de la música. Apple dice que la función puede reproducir millones de canciones en el catálogo de Apple Music. También estará disponible como una interfaz de programación de aplicaciones (API) para que los desarrolladores la integren en sus aplicaciones de música.
A continuación, Vocal Shortcuts está diseñado para usuarios de iPhone y iPad para ayudar a las personas con discapacidades relacionadas con el habla. Permite a los usuarios establecer frases personalizadas que Siri pueda entender para activar atajos y completar tareas. Además, una nueva característica llamada Vehicle Motion Cues agrega puntos en movimiento a los bordes de la pantalla para reducir el conflicto sensorial entre lo que una persona ve y siente. Citando una investigación, Apple dijo que este conflicto es una de las principales causas del mareo por movimiento y que esta característica puede reducir estos síntomas.
Aparte de esto, CarPlay también incluye control de voz, reconocimiento de voz y filtros de color para ayudar a los usuarios con diversas discapacidades. La última línea de producción de Apple, Visión Pro También incluye una función de subtítulos en vivo en todo el sistema para personas con dificultades auditivas.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Apple mostró el miércoles algunas funciones nuevas e interesantes de accesibilidad para personas con discapacidades, incluido el seguimiento ocular, toques musicales y atajos de voz.
Las nuevas funciones, que estarán disponibles a finales de este año en dispositivos Apple, aprovechan Apple Silicon, la inteligencia artificial y el aprendizaje automático. Llegará principalmente a iPhone y iPad, aunque algunos dispositivos nuevos también aparecerán en VisionOS de Vision Pro.
“Creemos firmemente en el poder transformador de la innovación para enriquecer vidas”, dijo el director ejecutivo de Apple, Tim Cook, en un comunicado de prensa. “Es por eso que durante casi 40 años, Apple ha defendido el diseño inclusivo al incorporar la accesibilidad en el corazón de nuestros dispositivos y software. Estamos constantemente superando los límites de la tecnología, y estas nuevas características reflejan nuestro compromiso de larga data de ofrecer lo mejor posible. experiencia para todos nuestros usuarios.
Las nuevas funciones de accesibilidad de Apple incluyen seguimiento ocular, hápticos para música y atajos de voz
manzana Resalte las próximas funciones de accesibilidad Incluyendo seguimiento ocular, toques musicales y atajos de audio antes del Día Mundial de la Concientización sobre la Accesibilidad el jueves.
Seguimiento ocular, actualmente asociado con auriculares visión pro, es una forma para que los usuarios con discapacidades físicas controlen el iPad o iPhone con los ojos. Music Haptics ofrece una nueva forma para que los usuarios sordos y con problemas de audición experimenten la música utilizando Taptic Engine en iPhone. Los atajos vocales permiten a los usuarios realizar tareas creando una voz personalizada.
Además, Apple dijo que las señales de tráfico de vehículos pueden ayudar a reducir el mareo cuando se usa un iPhone o iPad en un vehículo en movimiento. Más funciones de accesibilidad estarán disponibles en VisionOS.
“Cada año, abrimos nuevos caminos en lo que respecta a accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse, controlar sus dispositivos y navegar por el mundo”.
iPad y iPhone tendrán seguimiento ocular
La nueva función de seguimiento ocular debería ser bastante sorprendente. Imagen: manzana
Imagínese navegar en su iPad o iPhone solo con sus ojos. Esto es lo que permite el seguimiento ocular. Impulsado por IA, utiliza la cámara frontal para una fácil configuración y calibración. El aprendizaje automático en el dispositivo significa que no se comparte con Apple ninguna información utilizada en la configuración.
El seguimiento ocular funciona a través de sistema operativo iPad Y aplicaciones de iOS y no requiere otros dispositivos ni accesorios. Apple dijo que permite a los usuarios “navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”.
La tecnología Music Haptics hace que las canciones sean más accesibles
Music Haptics ofrece una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música iPhone. Aquí está la descripción de Apple:
Con esta función de accesibilidad activada, Taptic Engine del iPhone reproduce toques, texturas y vibraciones mejorados al son de la música. Music Haptics funciona en millones de canciones del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.
Nuevas funciones de voz, incluidos atajos de audio
Los atajos de voz te ayudan a iniciar tareas creando sonidos personalizados. Imagen: manzana
Los atajos de voz permiten a los usuarios configurar palabras personalizadas en iPhone y iPad siri Puede entender cómo ejecutar atajos y completar tareas.
Se ha mejorado con otra característica nueva, que es escuchar discursos atípicos:
Escuchar discurso atípico… ofrece a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de habla. El software Atípico Speech Listening utiliza el aprendizaje automático en el dispositivo para reconocer los patrones de habla del usuario. Estas funciones están diseñadas para usuarios con afecciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular, y brindan un nuevo nivel de personalización y control, basándose en funciones introducidas en iOS 17 para usuarios que no hablan o corren el riesgo de perder la capacidad de hablar.
“La IA tiene el potencial de mejorar el reconocimiento de voz para millones de personas con habla atípica, por lo que estamos encantados de que Apple esté ofreciendo estas nuevas funciones de accesibilidad a los consumidores”, afirmó Mark Hasegawa Johnson, investigador principal del Proyecto de Accesibilidad del Habla en Beckman. Instituto de Ciencia y Tecnología Avanzadas de la Universidad de Illinois Urbana-Champaign.
“El Proyecto de Accesibilidad al Habla fue diseñado como un esfuerzo amplio, apoyado por la comunidad, para ayudar a las empresas y universidades a hacer que el reconocimiento de voz sea más sólido y efectivo, y Apple se encuentra entre los defensores de la accesibilidad que hicieron posible el Proyecto de Accesibilidad al Habla”, agregó.
Las señales de movimiento en el coche pueden reducir el mareo
Si alguna vez te has sentido mareado en el auto, sabes que puede ser difícil. Apple pretende reducir el mareo en los pasajeros con Car Motion Signals, una nueva experiencia para iPhone y iPad.
Aquí hay una descripción de cómo funciona:
Las investigaciones muestran que el mareo por movimiento suele ser causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede impedir que algunos usuarios utilicen cómodamente un iPhone o iPad mientras viajan en un vehículo en movimiento. Utilizando señales de movimiento del vehículo, los puntos en movimiento en los bordes de la pantalla representan cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal. Utilizando sensores integrados en el iPhone y el iPad, las señales de tráfico de vehículos reconocen la presencia del usuario en un vehículo en movimiento y responden en consecuencia. La función se puede configurar para que aparezca automáticamente en su iPhone o se puede activar y desactivar en el Centro de control.
Control por voz de CarPlay y otras actualizaciones
CarPlay agrega una función de reconocimiento de voz, que alerta a los conductores sobre sonidos como sirenas. Imagen: manzana
Las funciones de accesibilidad también llegarán carplay:
Control de voz. Permite a los usuarios navegar por CarPlay y controlar aplicaciones solo con su voz.
Reconocimiento de voz. Los conductores o pasajeros sordos o con problemas de audición pueden activar alertas para recibir notificaciones sobre las bocinas y sirenas de los automóviles.
Filtros de colores. Hace que la interfaz CarPlay sea visualmente más fácil de usar, con funciones de accesibilidad visual adicionales que incluyen texto en negrita y texto más grande.
Las funciones de accesibilidad llegarán a VisionOS
VisionOS incluye subtítulos en vivo para personas sordas y con problemas de audición. Imagen: manzana
Apple también señaló nuevas funciones de accesibilidad en el sistema operativo VisionOS para los auriculares Vision Pro.
“Apple Vision Pro es sin duda la tecnología más intuitiva que he usado”, dijo Ryan Hudson-Peralta, diseñador de productos, consultor de accesibilidad y cofundador de Equal Accessibility LLC. “Como alguien que nació sin manos y sin poder caminar, sé que el mundo no fue diseñado pensando en mí, por lo que fue sorprendente ver a VisionOS funcionar con tanta facilidad. Es un testimonio del poder y la importancia del diseño accesible e inclusivo. .”
Aquí están las nuevas características de accesibilidad en VisiónOS:
Apple dijo que Live Captions en VisionOS “ayuda a todos, incluidos los usuarios sordos o con problemas de audición, a seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones”.
Con Live Captions para FaceTime en VisionOS, más usuarios pueden disfrutar fácilmente de la experiencia única de llamar y colaborar usando su personalidad.
Apple Vision Pro agregará la capacidad de mover subtítulos usando la barra de la ventana durante la reproducción de Apple Immersive Video, así como soporte para audífonos adicionales diseñados para iPhone y procesadores auditivos cocleares.
Las actualizaciones de Accesibilidad de visión incluirán la adición de Reducir transparencia, Inversión inteligente y Luces intermitentes tenues para usuarios con mala visión o aquellos que desean evitar luces brillantes y parpadeos frecuentes.
La experiencia Live Captions en VisionOS se demuestra desde la perspectiva de un usuario de Apple Vision Pro.
VisionOS ofrecerá subtítulos en vivo, para que los usuarios sordos o con problemas de audición puedan seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones.
Antes del Día Mundial de la Accesibilidad el 16 de mayo de 2024, manzana Ha presentado una serie de nuevas funciones de accesibilidad para iPhone, iPad, Mac y Vision Pro. El seguimiento ocular encabeza una larga lista de nuevas funciones que te permitirán controlar tu iPhone y iPad moviendo los ojos.
El seguimiento ocular, la música háptica, los atajos de voz y las señales de tráfico de vehículos llegarán a los dispositivos Apple elegibles a finales de este año. Es probable que estas nuevas funciones de accesibilidad se lancen con iOS 18, iPadOS 18, VisionOS 2 y la próxima versión de macOS.
Estas nuevas funciones de accesibilidad se han convertido en un declive anual para Apple. El telón suele levantarse unas semanas antes WWDCtambién conocida como Conferencia Mundial de Desarrolladores, que comienza el 10 de junio de 2024. Este debería ser el evento en el que veamos a Apple mostrar su próxima generación de dispositivos insignia. Sistemas operativos Y chips de inteligencia artificial.
El seguimiento ocular parece realmente impresionante
(Crédito de la imagen: Apple)
El seguimiento ocular parece muy impresionante y es una forma esencial de hacer que su iPhone y iPad sean más accesibles. Como se menciona en el comunicado y se captura en un video, puedes navegar por iPadOS, así como por iOS, abrir aplicaciones e incluso controlar elementos, todo con solo tus ojos, y utiliza la cámara frontal, la inteligencia artificial y el aprendizaje automático nativo en todo momento. la experiencia.
Puede recorrer la interfaz y utilizar el “Control de permanencia” para manipular un botón o elemento. Los gestos también se manejarán únicamente mediante el movimiento de los ojos. Esto significa que primero puedes echar un vistazo a SafariO teléfono o cualquier otra aplicación, solo sigue haciendo clic en esta oferta y se abrirá.
Lo más importante es que todos los datos de configuración y uso se guardan localmente en el dispositivo, por lo que solo configurarás usando tu iPhone. No necesitarás ningún accesorio para utilizar el seguimiento ocular. Está diseñado para personas con discapacidades físicas y se basa en otras formas accesibles de controlar su iPhone o iPad.
Atajos de audio, acentos musicales y subtítulos en vivo en Vision Pro
(Crédito de la imagen: Apple)
Otra nueva característica de accesibilidad son los atajos vocales, diseñados para usuarios de iPad y iPhone con esclerosis lateral amiotrófica (ELA), parálisis cerebral, accidente cerebrovascular o “condiciones adquiridas o progresivas que afectan el habla”. Esto te permitirá configurar una voz personalizada que Siri puede aprender y reconocer para activar un atajo específico o realizar una tarea. Convive con Atípico Speech Listening, diseñado para los mismos usuarios, para abrir el reconocimiento de voz a un grupo más amplio.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
Ambas funciones se basan en algunas de las funciones introducidas en iOS 17, por lo que es genial ver que Apple continúa innovando. Específicamente con el habla atípica, Apple usa IA para aprender y reconocer diferentes tipos de habla.
Music Haptics en iPhone está diseñado para usuarios con problemas de audición o sordos para experimentar la música. El Click Engine incorporado, que potencia la háptica del iPhone, activará diferentes vibraciones, como clics y texturas, que se asemejan al sonido de una canción. En el lanzamiento, funcionará con “millones de canciones” dentro de Apple Music, y habrá una API abierta para que los desarrolladores implementen y pongan a disposición música de otras fuentes.
Además, Apple tiene vistas previas de algunas otras funciones y actualizaciones. Las señales de movimiento del vehículo estarán disponibles en iPhone y iPad y tendrán como objetivo reducir el mareo con puntos móviles en esa pantalla que cambian cuando se detecta movimiento del vehículo. Está diseñado para ayudar a reducir el mareo sin bloquear todo lo que estás viendo en la pantalla.
(Crédito de la imagen: Apple)
Una de las principales incorporaciones que llegará a VisionOS, también conocido como el software que impulsa Apple Vision Pro, serán los subtítulos en vivo en todo el sistema. Esto permitirá que los subtítulos de los diálogos hablados dentro de las conversaciones de FaceTime y el audio de las aplicaciones se vean frente a usted. La versión de Apple señala que está diseñada para usuarios sordos o con problemas de audición, pero como todas las funciones de accesibilidad, se puede encontrar en Configuración.
Dado que se trata de subtítulos en vivo en Apple Vision Pro, puede mover la ventana que contiene los subtítulos y ajustar el tamaño como cualquier otra ventana. La accesibilidad dentro de VisosOS también obtendrá una menor transparencia, inversión inteligente y funcionalidad de luz parpadeante tenue.
En cuanto a cuándo se enviarán estos dispositivos, Apple señala en el comunicado que “nuevas funciones de accesibilidad [are] “Llegará a finales de este año”. Lo seguiremos de cerca e imaginaremos que estas funciones vendrán con sistemas operativos de próxima generación como iOS 18 y iPadOS 18, lo que significa que las personas con una cuenta de desarrollador podrán probar estas funciones en próximas betas.
Dado que algunas de estas funciones funcionan con inteligencia artificial y aprendizaje automático en el dispositivo, ayudar con las funciones de accesibilidad es una forma en que Apple cree que la IA tiene el potencial de generar un impacto. Es probable que escuchemos al gigante tecnológico compartir más opiniones sobre la IA y sus funciones listas para el consumidor. Conferencia mundial de desarrolladores 2024.