Las funciones de accesibilidad de Apple incluirán seguimiento ocular y más


Apple mostró el miércoles algunas funciones nuevas e interesantes de accesibilidad para personas con discapacidades, incluido el seguimiento ocular, toques musicales y atajos de voz.

Las nuevas funciones, que estarán disponibles a finales de este año en dispositivos Apple, aprovechan Apple Silicon, la inteligencia artificial y el aprendizaje automático. Llegará principalmente a iPhone y iPad, aunque algunos dispositivos nuevos también aparecerán en VisionOS de Vision Pro.

“Creemos firmemente en el poder transformador de la innovación para enriquecer vidas”, dijo el director ejecutivo de Apple, Tim Cook, en un comunicado de prensa. “Es por eso que durante casi 40 años, Apple ha defendido el diseño inclusivo al incorporar la accesibilidad en el corazón de nuestros dispositivos y software. Estamos constantemente superando los límites de la tecnología, y estas nuevas características reflejan nuestro compromiso de larga data de ofrecer lo mejor posible. experiencia para todos nuestros usuarios.

Las nuevas funciones de accesibilidad de Apple incluyen seguimiento ocular, hápticos para música y atajos de voz

manzana Resalte las próximas funciones de accesibilidad Incluyendo seguimiento ocular, toques musicales y atajos de audio antes del Día Mundial de la Concientización sobre la Accesibilidad el jueves.

Seguimiento ocular, actualmente asociado con auriculares visión pro, es una forma para que los usuarios con discapacidades físicas controlen el iPad o iPhone con los ojos. Music Haptics ofrece una nueva forma para que los usuarios sordos y con problemas de audición experimenten la música utilizando Taptic Engine en iPhone. Los atajos vocales permiten a los usuarios realizar tareas creando una voz personalizada.

Además, Apple dijo que las señales de tráfico de vehículos pueden ayudar a reducir el mareo cuando se usa un iPhone o iPad en un vehículo en movimiento. Más funciones de accesibilidad estarán disponibles en VisionOS.

“Cada año, abrimos nuevos caminos en lo que respecta a accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse, controlar sus dispositivos y navegar por el mundo”.

iPad y iPhone tendrán seguimiento ocular

La nueva función de seguimiento ocular debería ser bastante sorprendente.
Imagen: manzana

Imagínese navegar en su iPad o iPhone solo con sus ojos. Esto es lo que permite el seguimiento ocular. Impulsado por IA, utiliza la cámara frontal para una fácil configuración y calibración. El aprendizaje automático en el dispositivo significa que no se comparte con Apple ninguna información utilizada en la configuración.

See also  Walmart Plus Prime Day está teniendo una gran oferta: aquí le mostramos cómo obtener las mejores ofertas

El seguimiento ocular funciona a través de sistema operativo iPad Y aplicaciones de iOS y no requiere otros dispositivos ni accesorios. Apple dijo que permite a los usuarios “navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”.

La tecnología Music Haptics hace que las canciones sean más accesibles

gifi

Music Haptics ofrece una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música iPhone. Aquí está la descripción de Apple:

Con esta función de accesibilidad activada, Taptic Engine del iPhone reproduce toques, texturas y vibraciones mejorados al son de la música. Music Haptics funciona en millones de canciones del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.

Nuevas funciones de voz, incluidos atajos de audio

Funciones de accesibilidad de Apple: atajos de voz
Los atajos de voz te ayudan a iniciar tareas creando sonidos personalizados.
Imagen: manzana

Los atajos de voz permiten a los usuarios configurar palabras personalizadas en iPhone y iPad siri Puede entender cómo ejecutar atajos y completar tareas.

Se ha mejorado con otra característica nueva, que es escuchar discursos atípicos:

Escuchar discurso atípico… ofrece a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de habla. El software Atípico Speech Listening utiliza el aprendizaje automático en el dispositivo para reconocer los patrones de habla del usuario. Estas funciones están diseñadas para usuarios con afecciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular, y brindan un nuevo nivel de personalización y control, basándose en funciones introducidas en iOS 17 para usuarios que no hablan o corren el riesgo de perder la capacidad de hablar.

“La IA tiene el potencial de mejorar el reconocimiento de voz para millones de personas con habla atípica, por lo que estamos encantados de que Apple esté ofreciendo estas nuevas funciones de accesibilidad a los consumidores”, afirmó Mark Hasegawa Johnson, investigador principal del Proyecto de Accesibilidad del Habla en Beckman. Instituto de Ciencia y Tecnología Avanzadas de la Universidad de Illinois Urbana-Champaign.

See also  Steve Jobs spells out new Apple strategy with OS X

“El Proyecto de Accesibilidad al Habla fue diseñado como un esfuerzo amplio, apoyado por la comunidad, para ayudar a las empresas y universidades a hacer que el reconocimiento de voz sea más sólido y efectivo, y Apple se encuentra entre los defensores de la accesibilidad que hicieron posible el Proyecto de Accesibilidad al Habla”, agregó.

Las señales de movimiento en el coche pueden reducir el mareo

gifi

Si alguna vez te has sentido mareado en el auto, sabes que puede ser difícil. Apple pretende reducir el mareo en los pasajeros con Car Motion Signals, una nueva experiencia para iPhone y iPad.

Aquí hay una descripción de cómo funciona:

Las investigaciones muestran que el mareo por movimiento suele ser causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede impedir que algunos usuarios utilicen cómodamente un iPhone o iPad mientras viajan en un vehículo en movimiento. Utilizando señales de movimiento del vehículo, los puntos en movimiento en los bordes de la pantalla representan cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal. Utilizando sensores integrados en el iPhone y el iPad, las señales de tráfico de vehículos reconocen la presencia del usuario en un vehículo en movimiento y responden en consecuencia. La función se puede configurar para que aparezca automáticamente en su iPhone o se puede activar y desactivar en el Centro de control.

Control por voz de CarPlay y otras actualizaciones

Funciones de accesibilidad de Apple: CarPlay
CarPlay agrega una función de reconocimiento de voz, que alerta a los conductores sobre sonidos como sirenas.
Imagen: manzana

Las funciones de accesibilidad también llegarán carplay:

  • Control de voz. Permite a los usuarios navegar por CarPlay y controlar aplicaciones solo con su voz.
  • Reconocimiento de voz. Los conductores o pasajeros sordos o con problemas de audición pueden activar alertas para recibir notificaciones sobre las bocinas y sirenas de los automóviles.
  • Filtros de colores. Hace que la interfaz CarPlay sea visualmente más fácil de usar, con funciones de accesibilidad visual adicionales que incluyen texto en negrita y texto más grande.
See also  Anuncio de la fecha de venta de los auriculares Apple Beats Solo Buds; Disponibilidad sin conexión confirmada

Las funciones de accesibilidad llegarán a VisionOS

Subtítulos en vivo en VisionOS
VisionOS incluye subtítulos en vivo para personas sordas y con problemas de audición.
Imagen: manzana

Apple también señaló nuevas funciones de accesibilidad en el sistema operativo VisionOS para los auriculares Vision Pro.

“Apple Vision Pro es sin duda la tecnología más intuitiva que he usado”, dijo Ryan Hudson-Peralta, diseñador de productos, consultor de accesibilidad y cofundador de Equal Accessibility LLC. “Como alguien que nació sin manos y sin poder caminar, sé que el mundo no fue diseñado pensando en mí, por lo que fue sorprendente ver a VisionOS funcionar con tanta facilidad. Es un testimonio del poder y la importancia del diseño accesible e inclusivo. .”

Aquí están las nuevas características de accesibilidad en VisiónOS:

Apple dijo que Live Captions en VisionOS “ayuda a todos, incluidos los usuarios sordos o con problemas de audición, a seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones”.

Con Live Captions para FaceTime en VisionOS, más usuarios pueden disfrutar fácilmente de la experiencia única de llamar y colaborar usando su personalidad.

Apple Vision Pro agregará la capacidad de mover subtítulos usando la barra de la ventana durante la reproducción de Apple Immersive Video, así como soporte para audífonos adicionales diseñados para iPhone y procesadores auditivos cocleares.

Las actualizaciones de Accesibilidad de visión incluirán la adición de Reducir transparencia, Inversión inteligente y Luces intermitentes tenues para usuarios con mala visión o aquellos que desean evitar luces brillantes y parpadeos frecuentes.

La experiencia Live Captions en VisionOS se demuestra desde la perspectiva de un usuario de Apple Vision Pro.

VisionOS ofrecerá subtítulos en vivo, para que los usuarios sordos o con problemas de audición puedan seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones.

Lea más sobre actualizaciones de accesibilidad adicionales y descubra cómo Puedes ayudar a Apple a celebrar el Día Mundial de la Concientización sobre la Accesibilidad.

Fuente: manzana





Source Article Link

Leave a Comment