honor Huawei presentó una innovadora tecnología de inteligencia artificial a principios de este año, que, según afirmó, podría ayudar a las personas a reducir el riesgo de desarrollar miopía. Además, la empresa también afirmó que las personas que ya padecen el trastorno pueden revertir su afección. La compañía ahora ha confirmado que la función, denominada Defocus Eye Protection, se agregó al Honor MagicPad 2 y Honor V3, que se lanzaron en 2015. fue lanzado A nivel mundial en la Feria Internacional de Música (IFA Berlín) en 2024.
Honor MagicPad 2 y Magic V3 obtienen la función de protección ocular con Defocus
Fue la primera característica Anuncio hecho En el Mobile World Congress (MWC) Shanghai 2024. La protección ocular desenfocada impulsada por IA es una tecnología de visualización. Se deriva de tecnología médica real, también llamada Defocus Eye Protection. Originalmente agregadas a los anteojos recetados, se ha observado en varios estudios que las lentes periféricas Defocus reducen y controlan la miopía entre las personas al ralentizar el proceso de alargamiento del ojo responsable del trastorno.
En hardware, Honor utiliza IA para imitar el mismo efecto en las pantallas. cierto Utiliza una pantalla que reduce la miopía temporal causada por el trabajo de cerca en el teléfono inteligente plegable Honor Magic V3 y la tableta Honor MagicPad 2.
La compañía afirma que su tecnología AI Defocus Eye Protection puede reducir la miopía temporal de los usuarios en un promedio de 13 grados después de usarla durante 25 minutos. Según una investigación, la marca dijo que algunos usuarios experimentaron una caída máxima de 75 grados.
Según Android Central un informeEstas pantallas utilizan una combinación de tecnología de pantalla OLED y detección de escenas con IA para recrear los efectos de las lentes de desenfoque. La publicación afirmó que este efecto no afectó negativamente la calidad de la imagen mostrada en la pantalla.
Se dice que el efecto es invisible a simple vista. Sin embargo, Honor dijo que tras un uso regular durante un período prolongado, la pantalla mostró una reducción temporal de la miopía de 13 grados en promedio.
Vale la pena señalar que la tableta Honor Magic V3 tiene un precio de £ 1.699,99 (aproximadamente Rs. 188.000) en el Reino Unido y EUR 1.999 (aproximadamente Rs. 186.500) en Europa para la variante de 12 GB de RAM y 512 GB de almacenamiento interno. Por otro lado, el Honor MagicPad 2 tiene un precio de £499,99 (aproximadamente 55.300 rupias) en el Reino Unido o 599 euros (aproximadamente 55.800 rupias) en Europa.
honor El lunes presentó dos nuevas innovaciones en el campo de la inteligencia artificial (IA) en el Mobile World Congress (MWC) Shanghai 2024. El fabricante de teléfonos inteligentes ha introducido la tecnología AI Defocus Eye Protection que puede reducir el riesgo de miopía o miopía que se produce como resultado de mirar la pantalla durante mucho tiempo. También mostró su tecnología de detección Deepfake impulsada por IA que puede detectar videos creados o modificados utilizando medios e inteligencia artificial. Curiosamente, la compañía dijo que ambas funciones se implementarán en el dispositivo en lugar de ejecutarse a través de servidores en la nube.
Honor presenta nuevas tecnologías de inteligencia artificial
Según la redacción correo A través del MWC Shanghai, la marca china de tecnología de consumo mostró nuevas innovaciones de IA en dispositivos destinadas a la seguridad del usuario. Los anuncios se realizaron durante la sesión magistral de Honor en el evento titulado “Sinergia entre humanos y IA: los dispositivos inteligentes empoderarán mejor a las personas”. Además de introducir nuevos avances tecnológicos, la compañía también destacó la necesidad de crear en el dispositivo funciones de IA centradas en el ser humano que se aceleren mediante hardware dedicado para proteger la privacidad del usuario.
Honre la protección ocular de IA Fuente de la imagen: MWC Shanghai/Honor
La compañía dijo que su tecnología AI Defocus Eye Protection está diseñada para abordar el aumento global de la miopía causada por el uso prolongado de pantallas. diverso estudios Se ha demostrado que las lentes de desenfoque periféricas son eficaces para controlar la miopía en individuos. Estas gafas crean una percepción visual alterada que ralentiza el proceso de alargamiento del ojo responsable del trastorno ocular. Ahora, la tecnología de Honor utiliza IA para simular gafas desenfocadas en la pantalla de un dispositivo inteligente.
Según la compañía, la tecnología AI Defocus Eye Protection puede reducir la miopía transitoria de los usuarios en un promedio de 13 grados después de usarla durante 25 minutos. Citando una investigación, la marca dijo que algunos usuarios han experimentado una caída máxima de 75 grados.
Respete la detección de deepfake mediante IA Fuente de la imagen: MWC Shanghai/Honor
Los deepfakes también han sido un gran problema en los últimos años, y este problema se ha visto acelerado por la introducción de modelos de inteligencia artificial para la generación de vídeos. Muchos científicos de IA, empresas de tecnología y organismos reguladores lo han hecho. Yo confieso Y su papel en la difusión de información errónea y la manipulación de personas. La detección Deepfake de Honor es una tecnología en el dispositivo que puede analizar videos cuadro por cuadro para verificar información como “contacto óptico, iluminación, claridad de imagen y reproducción de video que el ojo humano no puede ver”.
La tecnología de inteligencia artificial se entrenó utilizando una amplia gama de videos e imágenes relacionados con estafas en línea. La empresa afirma que puede realizar identificación, inspección y comparación en tres segundos. La función podría mostrar una advertencia de riesgo si se detecta un deepfake. Honor dice que esto puede ayudar a proteger a las personas de caer en estafas.
Función de seguimiento ocular en iOS 18: cómo usarla
Para utilizar la nueva función de seguimiento ocular, debe descargar la versión beta para desarrolladores de iOS 18. Sin embargo, tenga en cuenta que esto puede ser riesgoso. Este lanzamiento es crudo y sin refinar, y no está listo para verse en horario estelar. Tenga en cuenta que descargar la versión beta para desarrolladores conlleva el riesgo de que, en el mejor de los casos, se produzcan errores y, en el peor, de que no funcione.
Velocidad de la luz triturable
Si insistes en probar la función de seguimiento ocular en iOS 18, asegúrate de aprovecharla copia de seguridad del iPhone. Ahora que lo hemos aclarado, déjame mostrarte cómo usar el seguimiento ocular en iOS 18:
ir a Ajustes.
toque en Accesibilidad.
toque en Registro visual.
Activar “registro visual” Asegúrese de que el control deslizante se vuelva verde.
Luego recibirás un mensaje que dice: “Sigue el punto con los ojos mientras se mueve por la pantalla”.
Siga los puntos en la pantalla con los ojos hasta obtener una marca de verificación blanca.
Ahora puedes usar tus ojos para navegar tu iPhone a través de iOS 18. (El seguimiento ocular también está disponible en iPadOS 18.)
iOS 18 Se espera que llegue oficialmente a los teléfonos de los usuarios a finales de este año, y se supone que esto sucederá junto con el lanzamiento. Serie iPhone 16.
manzana Anunció varias características nuevas centradas en la accesibilidad de su sistema. iPhone y iPads el miércoles. La empresa introduce periódicamente nuevas funciones de accesibilidad para facilitar el uso de los dispositivos a las personas con discapacidades físicas. Este año, el gigante tecnológico presentará una nueva función de seguimiento ocular que permitirá a los usuarios controlar sus dispositivos con sólo movimientos oculares. Además, Music Haptics permitirá a los usuarios experimentar la música a través de vibraciones y Vocal Shortcuts les permitirá realizar tareas con sonidos personalizados.
Funciones anunciadas a través de A correo En la redacción de la empresa. “Cada año, abrimos nuevos caminos en lo que respecta a la accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse. , controlar sus dispositivos y navegar por el mundo.
En primer lugar, el seguimiento ocular ofrece a los usuarios una opción integrada para operar su iPhone y iPad Sólo con movimientos oculares. Energizado por inteligencia artificial (AI), esta función utiliza la cámara frontal que se puede calibrar con los ojos del usuario, y las funciones de aprendizaje automático (ML) en el dispositivo rastrean los ojos para permitir que las personas con discapacidades físicas naveguen fácilmente por el teléfono. La empresa dice que no puede acceder a los datos de los usuarios.
Music Haptics es otra característica nueva que proporciona una forma única para que los usuarios con pérdida auditiva experimenten la música. Esta función, que se encuentra en el iPhone, aprovecha Taptic Engine para activar clics, texturas y vibraciones para que coincidan con el sonido de la música. Apple dice que la función puede reproducir millones de canciones en el catálogo de Apple Music. También estará disponible como una interfaz de programación de aplicaciones (API) para que los desarrolladores la integren en sus aplicaciones de música.
A continuación, Vocal Shortcuts está diseñado para usuarios de iPhone y iPad para ayudar a las personas con discapacidades relacionadas con el habla. Permite a los usuarios establecer frases personalizadas que Siri pueda entender para activar atajos y completar tareas. Además, una nueva característica llamada Vehicle Motion Cues agrega puntos en movimiento a los bordes de la pantalla para reducir el conflicto sensorial entre lo que una persona ve y siente. Citando una investigación, Apple dijo que este conflicto es una de las principales causas del mareo por movimiento y que esta característica puede reducir estos síntomas.
Aparte de esto, CarPlay también incluye control de voz, reconocimiento de voz y filtros de color para ayudar a los usuarios con diversas discapacidades. La última línea de producción de Apple, Visión Pro También incluye una función de subtítulos en vivo en todo el sistema para personas con dificultades auditivas.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Apple mostró el miércoles algunas funciones nuevas e interesantes de accesibilidad para personas con discapacidades, incluido el seguimiento ocular, toques musicales y atajos de voz.
Las nuevas funciones, que estarán disponibles a finales de este año en dispositivos Apple, aprovechan Apple Silicon, la inteligencia artificial y el aprendizaje automático. Llegará principalmente a iPhone y iPad, aunque algunos dispositivos nuevos también aparecerán en VisionOS de Vision Pro.
“Creemos firmemente en el poder transformador de la innovación para enriquecer vidas”, dijo el director ejecutivo de Apple, Tim Cook, en un comunicado de prensa. “Es por eso que durante casi 40 años, Apple ha defendido el diseño inclusivo al incorporar la accesibilidad en el corazón de nuestros dispositivos y software. Estamos constantemente superando los límites de la tecnología, y estas nuevas características reflejan nuestro compromiso de larga data de ofrecer lo mejor posible. experiencia para todos nuestros usuarios.
Las nuevas funciones de accesibilidad de Apple incluyen seguimiento ocular, hápticos para música y atajos de voz
manzana Resalte las próximas funciones de accesibilidad Incluyendo seguimiento ocular, toques musicales y atajos de audio antes del Día Mundial de la Concientización sobre la Accesibilidad el jueves.
Seguimiento ocular, actualmente asociado con auriculares visión pro, es una forma para que los usuarios con discapacidades físicas controlen el iPad o iPhone con los ojos. Music Haptics ofrece una nueva forma para que los usuarios sordos y con problemas de audición experimenten la música utilizando Taptic Engine en iPhone. Los atajos vocales permiten a los usuarios realizar tareas creando una voz personalizada.
Además, Apple dijo que las señales de tráfico de vehículos pueden ayudar a reducir el mareo cuando se usa un iPhone o iPad en un vehículo en movimiento. Más funciones de accesibilidad estarán disponibles en VisionOS.
“Cada año, abrimos nuevos caminos en lo que respecta a accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse, controlar sus dispositivos y navegar por el mundo”.
iPad y iPhone tendrán seguimiento ocular
La nueva función de seguimiento ocular debería ser bastante sorprendente. Imagen: manzana
Imagínese navegar en su iPad o iPhone solo con sus ojos. Esto es lo que permite el seguimiento ocular. Impulsado por IA, utiliza la cámara frontal para una fácil configuración y calibración. El aprendizaje automático en el dispositivo significa que no se comparte con Apple ninguna información utilizada en la configuración.
El seguimiento ocular funciona a través de sistema operativo iPad Y aplicaciones de iOS y no requiere otros dispositivos ni accesorios. Apple dijo que permite a los usuarios “navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”.
La tecnología Music Haptics hace que las canciones sean más accesibles
Music Haptics ofrece una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música iPhone. Aquí está la descripción de Apple:
Con esta función de accesibilidad activada, Taptic Engine del iPhone reproduce toques, texturas y vibraciones mejorados al son de la música. Music Haptics funciona en millones de canciones del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.
Nuevas funciones de voz, incluidos atajos de audio
Los atajos de voz te ayudan a iniciar tareas creando sonidos personalizados. Imagen: manzana
Los atajos de voz permiten a los usuarios configurar palabras personalizadas en iPhone y iPad siri Puede entender cómo ejecutar atajos y completar tareas.
Se ha mejorado con otra característica nueva, que es escuchar discursos atípicos:
Escuchar discurso atípico… ofrece a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de habla. El software Atípico Speech Listening utiliza el aprendizaje automático en el dispositivo para reconocer los patrones de habla del usuario. Estas funciones están diseñadas para usuarios con afecciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular, y brindan un nuevo nivel de personalización y control, basándose en funciones introducidas en iOS 17 para usuarios que no hablan o corren el riesgo de perder la capacidad de hablar.
“La IA tiene el potencial de mejorar el reconocimiento de voz para millones de personas con habla atípica, por lo que estamos encantados de que Apple esté ofreciendo estas nuevas funciones de accesibilidad a los consumidores”, afirmó Mark Hasegawa Johnson, investigador principal del Proyecto de Accesibilidad del Habla en Beckman. Instituto de Ciencia y Tecnología Avanzadas de la Universidad de Illinois Urbana-Champaign.
“El Proyecto de Accesibilidad al Habla fue diseñado como un esfuerzo amplio, apoyado por la comunidad, para ayudar a las empresas y universidades a hacer que el reconocimiento de voz sea más sólido y efectivo, y Apple se encuentra entre los defensores de la accesibilidad que hicieron posible el Proyecto de Accesibilidad al Habla”, agregó.
Las señales de movimiento en el coche pueden reducir el mareo
Si alguna vez te has sentido mareado en el auto, sabes que puede ser difícil. Apple pretende reducir el mareo en los pasajeros con Car Motion Signals, una nueva experiencia para iPhone y iPad.
Aquí hay una descripción de cómo funciona:
Las investigaciones muestran que el mareo por movimiento suele ser causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede impedir que algunos usuarios utilicen cómodamente un iPhone o iPad mientras viajan en un vehículo en movimiento. Utilizando señales de movimiento del vehículo, los puntos en movimiento en los bordes de la pantalla representan cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal. Utilizando sensores integrados en el iPhone y el iPad, las señales de tráfico de vehículos reconocen la presencia del usuario en un vehículo en movimiento y responden en consecuencia. La función se puede configurar para que aparezca automáticamente en su iPhone o se puede activar y desactivar en el Centro de control.
Control por voz de CarPlay y otras actualizaciones
CarPlay agrega una función de reconocimiento de voz, que alerta a los conductores sobre sonidos como sirenas. Imagen: manzana
Las funciones de accesibilidad también llegarán carplay:
Control de voz. Permite a los usuarios navegar por CarPlay y controlar aplicaciones solo con su voz.
Reconocimiento de voz. Los conductores o pasajeros sordos o con problemas de audición pueden activar alertas para recibir notificaciones sobre las bocinas y sirenas de los automóviles.
Filtros de colores. Hace que la interfaz CarPlay sea visualmente más fácil de usar, con funciones de accesibilidad visual adicionales que incluyen texto en negrita y texto más grande.
Las funciones de accesibilidad llegarán a VisionOS
VisionOS incluye subtítulos en vivo para personas sordas y con problemas de audición. Imagen: manzana
Apple también señaló nuevas funciones de accesibilidad en el sistema operativo VisionOS para los auriculares Vision Pro.
“Apple Vision Pro es sin duda la tecnología más intuitiva que he usado”, dijo Ryan Hudson-Peralta, diseñador de productos, consultor de accesibilidad y cofundador de Equal Accessibility LLC. “Como alguien que nació sin manos y sin poder caminar, sé que el mundo no fue diseñado pensando en mí, por lo que fue sorprendente ver a VisionOS funcionar con tanta facilidad. Es un testimonio del poder y la importancia del diseño accesible e inclusivo. .”
Aquí están las nuevas características de accesibilidad en VisiónOS:
Apple dijo que Live Captions en VisionOS “ayuda a todos, incluidos los usuarios sordos o con problemas de audición, a seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones”.
Con Live Captions para FaceTime en VisionOS, más usuarios pueden disfrutar fácilmente de la experiencia única de llamar y colaborar usando su personalidad.
Apple Vision Pro agregará la capacidad de mover subtítulos usando la barra de la ventana durante la reproducción de Apple Immersive Video, así como soporte para audífonos adicionales diseñados para iPhone y procesadores auditivos cocleares.
Las actualizaciones de Accesibilidad de visión incluirán la adición de Reducir transparencia, Inversión inteligente y Luces intermitentes tenues para usuarios con mala visión o aquellos que desean evitar luces brillantes y parpadeos frecuentes.
La experiencia Live Captions en VisionOS se demuestra desde la perspectiva de un usuario de Apple Vision Pro.
VisionOS ofrecerá subtítulos en vivo, para que los usuarios sordos o con problemas de audición puedan seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones.
manzanaLas ofertas de accesibilidad continúan expandiéndose, con nuevas funciones como seguimiento ocular del dispositivo, escucha de música táctil mejorada y configuraciones para personas con dispositivos de movilidad sin voz.
Anunciado en medio de la celebración de un mes de duración del Día Mundial de Concientización sobre la Accesibilidad (16 de mayo), Una gama de opciones de personalización Para ayudar a los usuarios con discapacidades físicas a controlarlos e interactuar mejor con ellos iPad o iPhone.
“Estas nuevas funciones tendrán un impacto en las vidas de una amplia gama de usuarios, proporcionando nuevas formas de conectarse, controlar sus dispositivos y navegar por el mundo”, escribió Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple.
Eye Tracking hace uso del aprendizaje automático
Como era de esperar, los nuevos controles de seguimiento ocular de Apple funcionan con inteligencia artificial, que convierte la cámara frontal del dispositivo en un dispositivo de calibración para escanear y rastrear los movimientos faciales. “Con el seguimiento ocular, los usuarios pueden navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”, explica Apple.
Si bien los sistemas de seguimiento ocular para computadoras son una tecnología establecida desde hace mucho tiempo, los dispositivos móviles se están poniendo al día lentamente. manzana – y Otras empresas tecnológicas Aproveche las tecnologías de inteligencia artificial en rápida evolución: aproveche la naturaleza integrada del aprendizaje automático interno para procesar los movimientos faciales y migrar la tecnología a una oferta sin hardware ni accesorios.
Velocidad de la luz triturable
Music Haptics añade estilo a las canciones
Music Haptics, una característica muy esperada para el servicio de transmisión tecnológicamente avanzado de Apple, permite a los usuarios sordos o con problemas de audición experimentar la música en sus dispositivos a través del tacto, al convertir el Taptic Engine del iPhone en un transmisor de ritmos y vibraciones. Cuando está activada, la configuración agrega “clics, texturas y vibraciones mejoradas” a la música.
La función sólo estará disponible en el catálogo de canciones de Apple Music por ahora.
Un vídeo especial para ti.
Apple Vision Pro tiene una aplicación que puede ayudar a controlar la ansiedad
Los atajos de voz permiten que más personas simplifiquen sus vidas
Al reconocer la variedad de habilidades del habla y patrones de habla atípicos entre las personas con discapacidades, los atajos de voz permiten a los usuarios asignar acciones a expresiones personalizadas, no solo frases. La configuración se combina con la nueva configuración Escuchar el habla atípica, que utiliza el aprendizaje automático en el dispositivo para reconocer el habla única del usuario y se dirige a personas con afecciones que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular. . “, explica Apple.
VisionOS, CarPlay y más obtienen actualizaciones
Apple también introdujo mejoras en su conjunto de herramientas de accesibilidad, incluido un modo Lector para Vision Assistant de la aplicación, una nueva opción de escritura con deslizamiento para personas con baja visión, un trackpad virtual para quienes usan AssistiveTouch con alcance limitado y nuevas personalizaciones para VoiceOver y Voice Control.
La empresa agregará subtítulos en vivo a nivel del sistema para VisiónOSasí como herramientas como reducir la transparencia, inversión inteligente y luces intermitentes tenues “para usuarios con mala visión o aquellos que quieren evitar luces brillantes y parpadeos frecuentes”.
redondeando adiciones, carplay Los usuarios ahora tienen acceso a control por voz, filtros de color y reconocimiento de voz, lo que ayuda a las personas a acceder a los controles solo con su voz, ver pantallas aptas para daltónicos y recibir alertas sobre sonidos externos.