Categories
News

Los legisladores estadounidenses aprobaron el proyecto de ley de criptomonedas FIT21 que podría regular la participación de la SEC en el seguimiento del sector.

[ad_1]

Legisladores de Estados Unidos se reunieron para votar a favor de un proyecto de ley de criptomonedas, denominado Ley de Innovación y Tecnología Financiera para el Siglo XXI (FIT21). En un momento algo histórico, 279 de los 136 miembros de la Cámara de Representantes de Estados Unidos dieron luz verde a este proyecto de ley el 22 de mayo. En Estados Unidos, la Cámara de Representantes es responsable de coordinar la legislación y, junto con el Senado de Estados Unidos, constituye las dos cámaras del Congreso.

Estados Unidos finalmente se ha sumado a la lista de países junto con India, Japón, Corea del Sur y otros que están trabajando para sacar provecho de recursos volátiles y explotables. Recursos digitales El sector está bajo supervisión regulatoria. El proyecto de ley FIT21 tiene como objetivo aclarar qué autoridades tienen cuánto control sobre el sector de las criptomonedas, de modo que el sector esté asegurado pero no a costa de desacelerar su crecimiento.

factura FIT21 Decía Proporciona definiciones distintas para diferentes categorías de criptoactivos, de modo que los intercambios sepan qué activos se consideran valores. Esta aclaración evitaría intercambios de criptomonedas como binance Y Coinbase Con la Comisión de Bolsa y Valores, que incide en el crecimiento del sector de las criptomonedas.

También garantiza que la supervisión de la industria de activos digitales se divida entre la Comisión de Comercio de Futuros de Productos Básicos y la Comisión de Bolsa y Valores (SEC). Según los informes, la CFTC podría ver una mayor participación en la supervisión de las criptomonedas en comparación con la Comisión de Bolsa y Valores (SEC), a la que se ha culpado varias veces de atacar el sector de las criptomonedas bajo el liderazgo de Gary Gensler.

Gensler expresó su oposición al proyecto de ley. Decía “El historial de fracasos, fraudes y quiebras en la industria de las criptomonedas no se debe a que no tengamos reglas o a que las reglas no sean claras”, dijo. “Es porque muchos actores de la industria de las criptomonedas no siguen las reglas. “

Sin embargo, los actores y partes interesadas de la industria de las criptomonedas de EE. UU. están celebrando la aprobación del proyecto de ley FIT21. Cerebro Armstrongel CEO de Coinbase publicó con otros sobre el desarrollo de X, y muchos calificaron esta votación como “histórica” ​​para la industria de las criptomonedas.

El proyecto de ley se remitirá ahora al Senado para su aprobación, tras lo cual se convertirá en ley.

A la luz de este desarrollo, el gráfico de precios de las criptomonedas mostró ganancias junto a la mayoría de las monedas digitales el jueves 23 de mayo. CoinMarketCapBitcoin y Ether se cotizan a 69.485 dólares (aproximadamente 57,8 rupias lakh) y 3.789 dólares (aproximadamente 3,15 rupias lakh), respectivamente.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.



[ad_2]

Source Article Link

Categories
Featured

Esta aplicación de fitness de Apple muestra una mejor manera de realizar un seguimiento de mis entrenamientos

[ad_1]

Desde pequeña me ha encantado mantenerme activa. Esto continuó hasta la edad adulta y ahora hago ejercicio a diario usando la aplicación de ejercicios de mi dispositivo. reloj de manzana. Pero aunque esta aplicación es fácil de usar, tiene un problema. manzanaEl enfoque que me hace sentir frustrado: parece incapaz de darme un día libre.

Soy el tipo de persona que odia romper la línea. Duolingo? 357 días. ¿Palabras nodales? 698 días y contando. Es seguro decir que la jugabilidad me funciona muy bien.

Héroes de la pantalla de inicio

Esto es parte de una serie regular de artículos que exploran las aplicaciones sin las que no podemos vivir. Léelo todo aquí.

[ad_2]

Source Article Link

Categories
Life Style

Una herramienta de seguimiento de movimiento que se ha vuelto viral

[ad_1]

Las personas adaptan su comportamiento a su entorno de manera tan fluida que es casi inconsciente. Ajustamos nuestra zancada cuando caminamos con tenis o tacones altos, o cambiamos nuestro peso cuando aterrizamos sobre un guijarro. Como estudiante de posgrado, Mackenzie Mathis quería saber cómo nuestro cerebro y nuestras extremidades coordinan este cambio.

En 2013, Mathis, una neurocientífica que entonces estaba en la Universidad de Harvard en Cambridge, Massachusetts, pasó meses entrenando ratones para que usaran pequeños joysticks, para poder comprender cómo el cerebro procesa señales externas sutiles. Una vez que los ratones estuvieron entrenados, introdujeron fuerzas para empujar el joystick fuera de su trayectoria y observaron cómo los dedos de los animales compensaban. Pero las herramientas computacionales disponibles sólo podían rastrear el joystick o, en el mejor de los casos, las extremidades del roedor, no sus diminutas garras.

Mientras tanto, en un laboratorio cercano de la Universidad de Harvard, el neurocientífico computacional Alexander Mattes instaló una cinta de correr especial y vertió leche con chocolate sobre su superficie. Cualquier rata que siguiera el rastro del azúcar sería recompensada y las ratas no tuvieron ningún problema. Pero le costó analizar datos sobre el movimiento de las narices sensibles de los animales, especialmente porque no podía usar tintes o marcadores que pudieran alterar su sentido del olfato. No le faltaban datos, pero analizarlos para obtener resultados significativos era una tarea desalentadora.

Dos investigadores, dos conjuntos de datos y un problema: los algoritmos para rastrear la posición de partes del cuerpo generalmente requieren que los investigadores etiqueten miles de imágenes de entrenamiento antes de que el software pueda aplicarse a datos reales. “Al finalizar mi doctorado, me obsesioné un poco con la idea de poder hacer esto mejor”, dice Mackenzie Mathis. Los dos investigadores se conocieron en un pasillo de Harvard en 2013, cuando el asesor postdoctoral de Alexander los presentó. Se casaron en 2017 y colaboraron para solucionar su problema científico poco después. Desarrollaron este método en colaboración con colegas de otros laboratorios. Corte Profundoun conjunto de herramientas computacionales que combina una interfaz de usuario simple con un algoritmo de inteligencia artificial (IA) de aprendizaje profundo que los investigadores pueden usar para estudiar el movimiento y la postura de los animales en videos sin el uso de tintes y otros marcadores intrusivos (a. Matisse et al. naturaleza nerviosa. 21, 1281-1289; 2018). Luego, los investigadores pueden medir pequeñas diferencias en el movimiento en respuesta a estímulos para comprender mejor cómo el entorno del animal desencadena cambios de comportamiento. “Verlo en acción por primera vez fue nuestro '¡Eureka!'” “Un momento”, dice Mackenzie Mathis. “Fue uno de esos momentos inolvidables de la vida”.

Según los estándares científicos, DeepLabCut se ha generalizado. Aproximadamente dos semanas después de enviar el manuscrito, Mackenzie y Alexander estaban tomando un café en la sala de descanso cuando entró el asesor de Alexandre Matisse. ¿Viste las reseñas?”, recuerda Alexander Mathis. Un crítico calificó el manuscrito como “su artículo favorito de la década”, dice Mackenzie Mathis. “La broma es que probablemente nunca en mi vida recibiré mejores críticas para un artículo”.

Pero no fueron sólo los críticos los que estaban entusiasmados. Los investigadores también publicaron el manuscrito en el servidor de preimpresión bioRxiv. A los pocos días, notaron que docenas de usuarios lo probaban en bailarinas, geckos y calamares. En la plataforma de redes sociales Twitter (ahora llamada X), Mackenzie Mathis quedó encantada con los vídeos en escala de grises de animales con superposiciones esqueléticas con manchas de arcoíris. Los puntos de colores identifican puntos clave en los fotogramas de vídeo que los investigadores marcan para entrenar el algoritmo. DeepLabCut utiliza esas coordenadas para rastrear partes del cuerpo a lo largo del tiempo.

Más de cinco años después, el artículo DeepLabCut del equipo ha obtenido casi 3.000 citas. El propio DeepLabCut tiene más de 670.000 descargas. Fue cubierto, junto con el equipo de DeepLabCut en general, por una revista estadounidense. océano Atlánticoagencia de noticias Noticias de negocios de Bloomberg Y otros medios, incl. naturaleza (ser visto naturaleza 574, 137-138; 2019). El año pasado, el trabajo de la pareja fue reconocido con el premio Eric Kandel de 100.000 dólares (108.000 dólares estadounidenses) para jóvenes neurocientíficos. El jurado del premio reconoció el trabajo como un “gran avance en las ciencias de la vida”. Esta es la primera vez que el premio se otorga a una pareja y no a un individuo, dice Mackenzie Mathis. “En junio daremos juntos la Conferencia del Premio, que será nuestra primera charla conjunta”, añade.

Mackenzie Mathis sostiene un mouse y posa para una foto con Alexander Mathis parado frente a una pizarra escrita con tiza

Mackenzie y Alexandre Mathis.Crédito: Cassandra Cerrar

Para Alexandre Matisse, la publicación supuso un cambio en el enfoque de la investigación: del seguimiento de olores a la neurociencia computacional y el aprendizaje automático. “Lo curioso es que el artículo principal sobre ese experimento no se ha publicado hasta el día de hoy”, dice. “DeepLabCut descarriló mi carrera en ese sentido; en realidad, todas nuestras carreras”.

Sin embargo, el gran éxito de DeepLabCut es, en cierto modo, sólo un eco de la carrera de Mackenzie Mathis.

Buen comienzo

Mackenzie Mathis pasó sus primeros años en el Valle Central de California, a unos 250 kilómetros al sureste de San Francisco. “El clima es cálido, hermoso y está lleno de vacas y naranjas”, dice riendo. “Fue una infancia muy interesante”. Entrenar y montar a caballo de forma competitiva fue gran parte de su adolescencia. Y también los perros. “Siempre tuve muchos perros y siempre quise enseñarles trucos”, recuerda. “Creo que siempre hubo ese entrenador de animales en mí”.

Esta instalación con animales jugará un papel importante en su carrera científica. Mathis comenzó su trabajo doctoral con una pregunta de investigación en mente. Su asesor, el neurobiólogo Naoshige Uchida de Harvard, recuerda haber quedado impresionado por su madurez científica desde la primera entrevista. “No fue una conversación entre el estudiante y el profesor, fue más bien como dos científicos hablando entre sí”, dice Uchida. La capacidad de Mathis para entrenar animales también resultó útil: era uno de los pocos miembros del laboratorio que podía entrenar ratones en la tarea del joystick, dice Uchida.

En 2016, mientras Mackenzie Mathis todavía realizaba su investigación doctoral, Uchida la animó a postularse para el Programa de becas Rowland, un programa altamente competitivo que la ayudaría a establecer un laboratorio independiente, sin ninguna experiencia en investigación posdoctoral, en el Instituto Rowland de la Universidad Rowland. . Universidad de Harvard, aceptada en noviembre. Después de graduarse, Mathis pasó cuatro meses en la Universidad de Tübingen en Alemania antes de regresar a Harvard para abrir su propio laboratorio en septiembre de 2017. DeepLabCut fue producto de unos meses de trabajo creativo entre abril y agosto de ese año.

Casi inmediatamente después de eso naturaleza Al publicar, los investigadores comenzaron a hacer preguntas y posibles colaboraciones. Un científico quería rastrear guepardos en una reserva natural de Sudáfrica. Los colores de los animales y el complejo entorno supusieron un desafío para DeepLabCut: era difícil reconocer los hombros, las patas y las extremidades de los animales camuflados en los bosques. Pero con algunas modificaciones para ayudar al algoritmo a reconocer el aspecto del animal, funcionó.

Los investigadores ahora han aplicado DeepLabCut a una asombrosa variedad de especies, incluidas moscas de la fruta, anguilas, ratas y caballos. Mackenzie Mathis rara vez participa en estos estudios y sólo se entera de nuevas aplicaciones cuando se publican los artículos. Pero esos avistamientos “en la naturaleza” son especialmente estimulantes, dice, porque son “pruebas de buena documentación”. Algunos de sus ejemplos favoritos han utilizado el instrumento para estudiar el comportamiento de lagartos, geckos, calamares y pulpos. Los animales que se camuflan, como los pulpos, plantean desafíos únicos para el software de seguimiento de movimiento. “Hubo un estudiante que tuiteó algunos vídeos de un pulpo en el Mar Rojo; como ser humano, ni siquiera puedes ver el pulpo hasta que se mueve”, dice Mackenzie Mathis. “Fue increíble verlo”.

Pagalo despues

A lo largo de su carrera, Mackenzie Mathis ha sido muy consciente de cuán pocas mujeres y personas de comunidades históricamente marginadas continúan en la neurociencia computacional. Para abordar esto, en 2022, los laboratorios de Mattis, actualmente en el Instituto Federal Suizo de Tecnología en Lausana, organizaron la primera Residencia de IA DeepLabCut, un curso de ocho semanas diseñado para ayudar a los investigadores principiantes de grupos subrepresentados a adquirir experiencia en DeepLabCut.

Una de los residentes de 2022, la neurocientífica Sabrina Peñas, que enseña en la Fundación Instituto Leloir en Buenos Aires, utilizó DeepLabCut para estudiar la memoria de objetos, que los mamíferos utilizan para explorar objetos desconocidos. Ella dice que el programa le permitió enriquecer su comprensión del programa. Pero conocer a Matisse también le dio un nuevo modelo a seguir. “Su confianza es realmente asombrosa”, dice Peñas. “Yo también quiero eso.”

Otro participante, el neurocientífico Konrad Danielowski del Instituto Nienke de Biología Experimental de Varsovia, desarrolló un caso de síndrome del impostor durante su estancia en 2023, temiendo no poder seguir el ritmo de sus compañeros. Después de ser seleccionado entre cientos de candidatos, “sientes una especie de presión para hacer lo mejor que puedas, para obtener algún resultado final de la residencia”, dice. El primer día, los hermanos Mathis llevaron a los estudiantes a almorzar. En ese momento, Mackenzie Mathis enfatizó la importancia de cada contribución, grande o pequeña, al código fuente abierto de DeepLabCut. “Muchas veces, cuando trabajas en ciencia, piensas que tu trabajo va a ser en vano”, dice Danielowski. Pero trabajar con la familia Mathis le ayudó a darse cuenta de que “también se trata de ser parte de la comunidad y ayudar a la gente. Te hace querer esforzarte”.

En última instancia, esto es lo que esperan los Mathis. Para Mackenzie Mathis, la residencia en DeepLabCut fue una forma de avanzar en el apoyo que hizo posible su carrera. Mackenzie Mathis dice que Uchida y sus otros mentores la ayudaron a desarrollar su confianza durante los primeros años de su carrera. Ahora quiere hacer lo mismo con quienes la admiran. “Realmente aprecio a las personas que alientan a los demás”, explica. “También traté de hacer esto tanto como pude”.

[ad_2]

Source Article Link

Categories
News

El lanzamiento de AirTag con un nuevo chip y seguimiento de ubicación mejorado está previsto para el próximo año

[ad_1]

La próxima generación de Apple señal de aire El lanzamiento del rastreador de artículos está previsto para mediados de 2025. BloombergMark Gorman Informes.

Función de cambio de color de AirTag
En su último trabajo Boletín “Ejecutar”., Gorman habló sobre el trabajo de Apple en una versión de próxima generación de ‌AirTag‌, con nombre en código “B589”. Actualmente, Apple está completando pruebas de fabricación con socios en Asia, y el lanzamiento del nuevo rastreador de artículos aún está programado para mediados del próximo año. Obviamente, el nuevo modelo tendrá un chip actualizado y capacidades mejoradas de seguimiento de ubicación.

En octubre de 2023, un analista de Apple Ming Chi Kuo Dijo que la producción en masa del AirTag de segunda generación se pospuso a partir del cuarto trimestre de 2024. Hasta algún momento de 2025. Él cree que el nuevo ‌AirTag‌ tendrá algún tipo de Integración con los auriculares Vision Pro de ApplePero no compartió más detalles específicos. Vea nuestro Guía de Airtag 2 para más información.

historias populares

iMessage no funciona para algunos usuarios [Update: Service Restored]

El servicio iMessage que permite a los usuarios de Apple enviarse mensajes entre sí parece estar inactivo para algunos usuarios, ya que los mensajes no salen o tardan mucho en enviarse. Hay varios informes sobre el problema en las redes sociales y un aumento significativo en los informes de interrupciones en Down Detector, pero la página de estado del sistema de Apple aún no ha informado de una interrupción. Actualización: la página de estado de Apple dice…

Se ha informado que un error molesto en iOS 17.5 hace resurgir fotos antiguas eliminadas

Hay informes alarmantes en Reddit de que la última actualización de iOS 17.5 de Apple ha introducido un error que hace que fotos antiguas que fueron eliminadas, en algunos casos hace años, aparezcan en las bibliotecas de fotos de los usuarios. Después de actualizar su iPhone, un usuario dijo que se sorprendió al descubrir que las fotos antiguas NSFW que eliminaron en 2021 aparecían de repente en fotos marcadas como cargadas recientemente en iCloud. último…

El iPhone 16 Pro Max parece mucho más grande al lado del iPhone 15 Pro Max

Se espera que el iPhone 16 Pro Max que llegará este año aumente su tamaño total de 6,7 pulgadas a 6,9 pulgadas, y la nueva imagen nos da una buena idea de cómo se compara el iPhone 15 Pro Max actual con el que podría ser el más grande de Apple. alguna vez iPhone. La imagen de arriba, publicada en X por ZONEofTECH, muestra una maqueta del ‌iPhone 16 Pro‌ Max junto con el iPhone 15 Pro Max real. estúpido…

El error de iOS 17.5 también puede provocar que aparezcan fotos eliminadas en dispositivos vendidos y rooteados

Parece haber un error en iOS 17.5 que hace que reaparezcan las fotos eliminadas, y el problema parece afectar incluso a los iPhone y iPad que han sido borrados y vendidos a otras personas. Un usuario de Reddit borró un iPad siguiendo las instrucciones de Apple en septiembre de 2023 antes de vendérselo a un amigo. Este amigo actualizó su iPad a iPadOS 17.5 esta semana y comenzó a ver al antiguo usuario de Reddit…

Los usuarios de OLED iPad Pro han informado de pantallas “granuladas”, pero puede que no sea un defecto

Algunos nuevos modelos de iPad Pro M4 muestran un patrón de grano consistente visible en la pantalla OLED, según varios informes de usuarios en Reddit (1, 2, 3) y los foros de MacRumors. Crédito de la imagen: usuario de MacRumors bk215 Los usuarios que ven grano generalmente informan que es más notorio en ambientes oscuros con la pantalla configurada en brillo bajo a medio mientras ven contenido en gris o apagado…

Emuladores de iPhone en App Store: Game Boy, N64, PS1, PSP y más

En abril, Apple actualizó sus pautas para permitir emuladores de juegos más antiguos en la App Store y ya se han lanzado varios emuladores populares. Los emuladores lanzados hasta ahora permiten a los usuarios de iPhone jugar juegos lanzados para consolas más antiguas de Nintendo, Sony, SEGA, Atari y otras. Aquí hay una lista de algunos de los emuladores populares disponibles en la App Store a partir de ahora. Delta Delta fue liberado…

[ad_2]

Source Article Link

Categories
News

Algunos usuarios de iPhone dicen que la opción “Permitir que las aplicaciones soliciten seguimiento” de repente quedó atenuada [Fixed]

[ad_1]

En los últimos días, algunos usuarios de iPhone dijeron que la opción “Permitir que las aplicaciones soliciten seguimiento” en la aplicación Configuración de repente quedó atenuada en sus dispositivos. fue el caso Destacado por iDeviceHelpus en XY en A Publicado en Reddit.

Permitir que las aplicaciones soliciten seguimiento gris 1
La letra pequeña de Apple debajo del interruptor gris dice “Esta configuración no se puede cambiar porque su perfil la restringe, su ID de Apple está administrada, no cumple con los requisitos de edad mínima o le falta información de edad”. Sin embargo, muchos usuarios afectados afirman que ninguno de estos motivos se aplica a ellos.

Si bien algunos usuarios afectados dijeron que el problema comenzó después de que actualizaron sus iPhones a iOS 17.5, que se lanzó a principios de esta semana, otros dijeron que también se vieron afectados por versiones de software más antiguas, incluidas iOS 17.4.1, iOS 17.4 y iOS 16.6. La causa raíz del problema no está clara. Nos comunicamos con Apple para hacer comentarios.

Con varias versiones de iOS afectadas y algunos usuarios diciendo que el problema finalmente se resolvió por sí solo, es probable que se trate de un problema del lado del servidor.

Ubicada en la aplicación Configuración en Privacidad y seguridad → Seguimiento, la configuración “Permitir que las aplicaciones soliciten seguimiento” generalmente permite que las aplicaciones soliciten rastrear su actividad en otras aplicaciones y sitios web cuando está activada. Cuando la configuración está desactivada, todas las solicitudes de seguimiento de aplicaciones nuevas se rechazan automáticamente. La configuración es parte de Apple Seguimiento transparente de aplicaciones La función se introdujo con iOS 14.5 hace unos tres años.

actualizar: Apple dice que ha solucionado un problema que puede haber deshabilitado brevemente la configuración Permitir que las aplicaciones soliciten seguimiento para algunos usuarios de iPhone en iOS 14 y versiones posteriores. Todos los usuarios afectados verán que sus configuraciones previamente especificadas se restaurarán en los próximos días. A los usuarios afectados por la falla se les asignó de forma predeterminada el estado que preserva más la privacidad.

historias populares

Se ha informado que un error molesto en iOS 17.5 hace resurgir fotos antiguas eliminadas

Hay informes alarmantes en Reddit de que la última actualización de iOS 17.5 de Apple ha introducido un error que hace que fotos antiguas que fueron eliminadas, en algunos casos hace años, aparezcan en las bibliotecas de fotos de los usuarios. Después de actualizar su iPhone, un usuario dijo que se sorprendió al descubrir que las fotos antiguas NSFW que eliminaron en 2021 aparecían de repente en fotos marcadas como cargadas recientemente en iCloud. último…

iMessage no funciona para algunos usuarios [Update: Service Restored]

El servicio iMessage que permite a los usuarios de Apple enviarse mensajes entre sí parece estar inactivo para algunos usuarios, ya que los mensajes no salen o tardan mucho en enviarse. Hay varios informes sobre el problema en las redes sociales y un aumento significativo en los informes de interrupciones en Down Detector, pero la página de estado del sistema de Apple aún no ha informado de una interrupción. Actualización: la página de estado de Apple dice…

Apple presenta tres nuevas funciones de CarPlay que vienen con iOS 18

Apple presentó hoy una vista previa de las nuevas funciones de accesibilidad que llegarán con iOS 18 a finales de este año, y eso incluye algunas opciones nuevas para CarPlay. Apple destacó tres nuevas funciones que llegarán a CarPlay: Control por voz: esta función permitirá a los usuarios navegar por CarPlay y controlar aplicaciones solo con su voz. Filtros de color: esta función hará que la interfaz de CarPlay sea visualmente más fácil de usar…

Práctica con el nuevo iPad Pro M4 OLED

Hoy es el día de lanzamiento oficial de los nuevos modelos de iPad Pro, y estas tabletas actualizadas representan la mayor actualización de características y diseño que hemos visto en el iPad Pro en varios años. Elegimos uno de los nuevos modelos de 13 pulgadas para ver las novedades. Suscríbase al canal de YouTube MacRumors para ver más videos. Cuando se trata de diseño, Apple todavía ofrece opciones de 11 y 13 pulgadas…

El iPhone 16 Pro Max parece mucho más grande al lado del iPhone 15 Pro Max

Se espera que el iPhone 16 Pro Max que llegará este año aumente su tamaño total de 6,7 pulgadas a 6,9 pulgadas, y la nueva imagen nos da una buena idea de cómo se compara el iPhone 15 Pro Max actual con el que podría ser el más grande de Apple. alguna vez iPhone. La imagen de arriba, publicada en X por ZONEofTECH, muestra una maqueta del ‌iPhone 16 Pro‌ Max junto con el iPhone 15 Pro Max real. estúpido…

Emuladores de iPhone en App Store: Game Boy, N64, PS1, PSP y más

En abril, Apple actualizó sus pautas para permitir emuladores de juegos más antiguos en la App Store y ya se han lanzado varios emuladores populares. Los emuladores lanzados hasta ahora permiten a los usuarios de iPhone jugar juegos lanzados para consolas más antiguas de Nintendo, Sony, SEGA, Atari y otras. Aquí hay una lista de algunos de los emuladores populares disponibles en la App Store a partir de ahora. Delta Delta fue liberado…

[ad_2]

Source Article Link

Categories
Bisnis Industri

Bukele, sobre la “investigación” de las criptomonedas en El Salvador: Así es la nueva medida de seguimiento

[ad_1]

El país posee actualmente 5.750 bitcoins por valor de 354 millones de dólares, acumulados durante tres años. archivo

[ad_2]

Source Article Link

Categories
Politics

CODE capacita a miembros de la COP para realizar un seguimiento de proyectos en Yobe

[ad_1]

La Organización de Desarrollo Conectado (CODE) capacitó el miércoles a miembros de la Comunidad de Práctica en todo el estado de Yobe sobre cómo realizar un seguimiento de los proyectos/proyectos del gobierno estatal y federal.

Muazu Alhaji Mudu, comandante estatal y persona focal del proyecto fiduciario en Yobe, dijo que el proyecto era parte de los esfuerzos de CODE para generar confianza entre el gobierno y los ciudadanos.

Afirmó que el proyecto comenzó en 2021 en el estado de Kaduna, donde logró resultados positivos en cuanto a cómo los ciudadanos pudieron nominar un proyecto e implementarlo ellos mismos mientras involucraban a las partes interesadas.

Muazu confirmó que el proyecto se extiende ahora a seis estados de las seis zonas geopolíticas del país, entre los cuales Yobe es uno de los estados seleccionados en el noreste.

“El proyecto es parte del Programa de Desarrollo Conectado (CODE) para capacitar a la Comunidad de Práctica (COP) que involucra a organizaciones de la sociedad civil, medios de comunicación, personas con discapacidad y grupos de jóvenes.

“La capacitación trata sobre cómo podemos dejar la capacitación y la tendencia que escuchamos en Abuja como parte del proyecto de crédito y llevarla a los miembros de la COP para que puedan apropiarse del proyecto en el estado de Yobe como lo hacemos nosotros. Continuar nominando y persiguiendo proyectos para el mejoramiento de la comunidad”, dijo.

Mohammed Bukar, miembro de la comunidad de práctica, dijo que el objetivo del proyecto era institucionalizar la rendición de cuentas en el estado de Yobe.

[ad_2]

Source Article Link

Categories
News

Apple anuncia nuevas funciones de seguimiento ocular y accesibilidad háptica a la música impulsadas por inteligencia artificial y aprendizaje automático

[ad_1]

manzana Anunció varias características nuevas centradas en la accesibilidad de su sistema. iPhone y iPads el miércoles. La empresa introduce periódicamente nuevas funciones de accesibilidad para facilitar el uso de los dispositivos a las personas con discapacidades físicas. Este año, el gigante tecnológico presentará una nueva función de seguimiento ocular que permitirá a los usuarios controlar sus dispositivos con sólo movimientos oculares. Además, Music Haptics permitirá a los usuarios experimentar la música a través de vibraciones y Vocal Shortcuts les permitirá realizar tareas con sonidos personalizados.

Funciones anunciadas a través de A correo En la redacción de la empresa. “Cada año, abrimos nuevos caminos en lo que respecta a la accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse. , controlar sus dispositivos y navegar por el mundo.

En primer lugar, el seguimiento ocular ofrece a los usuarios una opción integrada para operar su iPhone y iPad Sólo con movimientos oculares. Energizado por inteligencia artificial (AI), esta función utiliza la cámara frontal que se puede calibrar con los ojos del usuario, y las funciones de aprendizaje automático (ML) en el dispositivo rastrean los ojos para permitir que las personas con discapacidades físicas naveguen fácilmente por el teléfono. La empresa dice que no puede acceder a los datos de los usuarios.

Music Haptics es otra característica nueva que proporciona una forma única para que los usuarios con pérdida auditiva experimenten la música. Esta función, que se encuentra en el iPhone, aprovecha Taptic Engine para activar clics, texturas y vibraciones para que coincidan con el sonido de la música. Apple dice que la función puede reproducir millones de canciones en el catálogo de Apple Music. También estará disponible como una interfaz de programación de aplicaciones (API) para que los desarrolladores la integren en sus aplicaciones de música.

A continuación, Vocal Shortcuts está diseñado para usuarios de iPhone y iPad para ayudar a las personas con discapacidades relacionadas con el habla. Permite a los usuarios establecer frases personalizadas que Siri pueda entender para activar atajos y completar tareas. Además, una nueva característica llamada Vehicle Motion Cues agrega puntos en movimiento a los bordes de la pantalla para reducir el conflicto sensorial entre lo que una persona ve y siente. Citando una investigación, Apple dijo que este conflicto es una de las principales causas del mareo por movimiento y que esta característica puede reducir estos síntomas.

Aparte de esto, CarPlay también incluye control de voz, reconocimiento de voz y filtros de color para ayudar a los usuarios con diversas discapacidades. La última línea de producción de Apple, Visión Pro También incluye una función de subtítulos en vivo en todo el sistema para personas con dificultades auditivas.


Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Bisnis Industri

Las funciones de accesibilidad de Apple incluirán seguimiento ocular y más

[ad_1]

Apple mostró el miércoles algunas funciones nuevas e interesantes de accesibilidad para personas con discapacidades, incluido el seguimiento ocular, toques musicales y atajos de voz.

Las nuevas funciones, que estarán disponibles a finales de este año en dispositivos Apple, aprovechan Apple Silicon, la inteligencia artificial y el aprendizaje automático. Llegará principalmente a iPhone y iPad, aunque algunos dispositivos nuevos también aparecerán en VisionOS de Vision Pro.

“Creemos firmemente en el poder transformador de la innovación para enriquecer vidas”, dijo el director ejecutivo de Apple, Tim Cook, en un comunicado de prensa. “Es por eso que durante casi 40 años, Apple ha defendido el diseño inclusivo al incorporar la accesibilidad en el corazón de nuestros dispositivos y software. Estamos constantemente superando los límites de la tecnología, y estas nuevas características reflejan nuestro compromiso de larga data de ofrecer lo mejor posible. experiencia para todos nuestros usuarios.

Las nuevas funciones de accesibilidad de Apple incluyen seguimiento ocular, hápticos para música y atajos de voz

manzana Resalte las próximas funciones de accesibilidad Incluyendo seguimiento ocular, toques musicales y atajos de audio antes del Día Mundial de la Concientización sobre la Accesibilidad el jueves.

Seguimiento ocular, actualmente asociado con auriculares visión pro, es una forma para que los usuarios con discapacidades físicas controlen el iPad o iPhone con los ojos. Music Haptics ofrece una nueva forma para que los usuarios sordos y con problemas de audición experimenten la música utilizando Taptic Engine en iPhone. Los atajos vocales permiten a los usuarios realizar tareas creando una voz personalizada.

Además, Apple dijo que las señales de tráfico de vehículos pueden ayudar a reducir el mareo cuando se usa un iPhone o iPad en un vehículo en movimiento. Más funciones de accesibilidad estarán disponibles en VisionOS.

“Cada año, abrimos nuevos caminos en lo que respecta a accesibilidad”, dijo Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple. “Estas nuevas características impactarán las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse, controlar sus dispositivos y navegar por el mundo”.

iPad y iPhone tendrán seguimiento ocular

Las funciones de accesibilidad de Apple incluyen el seguimiento ocular
La nueva función de seguimiento ocular debería ser bastante sorprendente.
Imagen: manzana

Imagínese navegar en su iPad o iPhone solo con sus ojos. Esto es lo que permite el seguimiento ocular. Impulsado por IA, utiliza la cámara frontal para una fácil configuración y calibración. El aprendizaje automático en el dispositivo significa que no se comparte con Apple ninguna información utilizada en la configuración.

El seguimiento ocular funciona a través de sistema operativo iPad Y aplicaciones de iOS y no requiere otros dispositivos ni accesorios. Apple dijo que permite a los usuarios “navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”.

La tecnología Music Haptics hace que las canciones sean más accesibles

gifi

Music Haptics ofrece una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música iPhone. Aquí está la descripción de Apple:

Con esta función de accesibilidad activada, Taptic Engine del iPhone reproduce toques, texturas y vibraciones mejorados al son de la música. Music Haptics funciona en millones de canciones del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.

Nuevas funciones de voz, incluidos atajos de audio

Funciones de accesibilidad de Apple: atajos de voz
Los atajos de voz te ayudan a iniciar tareas creando sonidos personalizados.
Imagen: manzana

Los atajos de voz permiten a los usuarios configurar palabras personalizadas en iPhone y iPad siri Puede entender cómo ejecutar atajos y completar tareas.

Se ha mejorado con otra característica nueva, que es escuchar discursos atípicos:

Escuchar discurso atípico… ofrece a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de habla. El software Atípico Speech Listening utiliza el aprendizaje automático en el dispositivo para reconocer los patrones de habla del usuario. Estas funciones están diseñadas para usuarios con afecciones adquiridas o progresivas que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular, y brindan un nuevo nivel de personalización y control, basándose en funciones introducidas en iOS 17 para usuarios que no hablan o corren el riesgo de perder la capacidad de hablar.

“La IA tiene el potencial de mejorar el reconocimiento de voz para millones de personas con habla atípica, por lo que estamos encantados de que Apple esté ofreciendo estas nuevas funciones de accesibilidad a los consumidores”, afirmó Mark Hasegawa Johnson, investigador principal del Proyecto de Accesibilidad del Habla en Beckman. Instituto de Ciencia y Tecnología Avanzadas de la Universidad de Illinois Urbana-Champaign.

“El Proyecto de Accesibilidad al Habla fue diseñado como un esfuerzo amplio, apoyado por la comunidad, para ayudar a las empresas y universidades a hacer que el reconocimiento de voz sea más sólido y efectivo, y Apple se encuentra entre los defensores de la accesibilidad que hicieron posible el Proyecto de Accesibilidad al Habla”, agregó.

Las señales de movimiento en el coche pueden reducir el mareo

gifi

Si alguna vez te has sentido mareado en el auto, sabes que puede ser difícil. Apple pretende reducir el mareo en los pasajeros con Car Motion Signals, una nueva experiencia para iPhone y iPad.

Aquí hay una descripción de cómo funciona:

Las investigaciones muestran que el mareo por movimiento suele ser causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede impedir que algunos usuarios utilicen cómodamente un iPhone o iPad mientras viajan en un vehículo en movimiento. Utilizando señales de movimiento del vehículo, los puntos en movimiento en los bordes de la pantalla representan cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal. Utilizando sensores integrados en el iPhone y el iPad, las señales de tráfico de vehículos reconocen la presencia del usuario en un vehículo en movimiento y responden en consecuencia. La función se puede configurar para que aparezca automáticamente en su iPhone o se puede activar y desactivar en el Centro de control.

Control por voz de CarPlay y otras actualizaciones

Funciones de accesibilidad de Apple: CarPlay
CarPlay agrega una función de reconocimiento de voz, que alerta a los conductores sobre sonidos como sirenas.
Imagen: manzana

Las funciones de accesibilidad también llegarán carplay:

  • Control de voz. Permite a los usuarios navegar por CarPlay y controlar aplicaciones solo con su voz.
  • Reconocimiento de voz. Los conductores o pasajeros sordos o con problemas de audición pueden activar alertas para recibir notificaciones sobre las bocinas y sirenas de los automóviles.
  • Filtros de colores. Hace que la interfaz CarPlay sea visualmente más fácil de usar, con funciones de accesibilidad visual adicionales que incluyen texto en negrita y texto más grande.

Las funciones de accesibilidad llegarán a VisionOS

Subtítulos en vivo en VisionOS
VisionOS incluye subtítulos en vivo para personas sordas y con problemas de audición.
Imagen: manzana

Apple también señaló nuevas funciones de accesibilidad en el sistema operativo VisionOS para los auriculares Vision Pro.

“Apple Vision Pro es sin duda la tecnología más intuitiva que he usado”, dijo Ryan Hudson-Peralta, diseñador de productos, consultor de accesibilidad y cofundador de Equal Accessibility LLC. “Como alguien que nació sin manos y sin poder caminar, sé que el mundo no fue diseñado pensando en mí, por lo que fue sorprendente ver a VisionOS funcionar con tanta facilidad. Es un testimonio del poder y la importancia del diseño accesible e inclusivo. .”

Aquí están las nuevas características de accesibilidad en VisiónOS:

Apple dijo que Live Captions en VisionOS “ayuda a todos, incluidos los usuarios sordos o con problemas de audición, a seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones”.

Con Live Captions para FaceTime en VisionOS, más usuarios pueden disfrutar fácilmente de la experiencia única de llamar y colaborar usando su personalidad.

Apple Vision Pro agregará la capacidad de mover subtítulos usando la barra de la ventana durante la reproducción de Apple Immersive Video, así como soporte para audífonos adicionales diseñados para iPhone y procesadores auditivos cocleares.

Las actualizaciones de Accesibilidad de visión incluirán la adición de Reducir transparencia, Inversión inteligente y Luces intermitentes tenues para usuarios con mala visión o aquellos que desean evitar luces brillantes y parpadeos frecuentes.

La experiencia Live Captions en VisionOS se demuestra desde la perspectiva de un usuario de Apple Vision Pro.

VisionOS ofrecerá subtítulos en vivo, para que los usuarios sordos o con problemas de audición puedan seguir el diálogo hablado en conversaciones en vivo y en audio desde aplicaciones.

Lea más sobre actualizaciones de accesibilidad adicionales y descubra cómo Puedes ayudar a Apple a celebrar el Día Mundial de la Concientización sobre la Accesibilidad.

Fuente: manzana



[ad_2]

Source Article Link

Categories
Life Style

Apple está agregando seguimiento ocular y más a sus dispositivos cada vez más accesibles

[ad_1]

manzanaLas ofertas de accesibilidad continúan expandiéndose, con nuevas funciones como seguimiento ocular del dispositivo, escucha de música táctil mejorada y configuraciones para personas con dispositivos de movilidad sin voz.

Anunciado en medio de la celebración de un mes de duración del Día Mundial de Concientización sobre la Accesibilidad (16 de mayo), Una gama de opciones de personalización Para ayudar a los usuarios con discapacidades físicas a controlarlos e interactuar mejor con ellos iPad o iPhone.

“Estas nuevas funciones tendrán un impacto en las vidas de una amplia gama de usuarios, proporcionando nuevas formas de conectarse, controlar sus dispositivos y navegar por el mundo”, escribió Sarah Herlinger, directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple.

Eye Tracking hace uso del aprendizaje automático

Como era de esperar, los nuevos controles de seguimiento ocular de Apple funcionan con inteligencia artificial, que convierte la cámara frontal del dispositivo en un dispositivo de calibración para escanear y rastrear los movimientos faciales. “Con el seguimiento ocular, los usuarios pueden navegar a través de los elementos de la aplicación y usar Dwell Control para activar cada elemento y acceder a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos”, explica Apple.

Si bien los sistemas de seguimiento ocular para computadoras son una tecnología establecida desde hace mucho tiempo, los dispositivos móviles se están poniendo al día lentamente. manzana – y Otras empresas tecnológicas Aproveche las tecnologías de inteligencia artificial en rápida evolución: aproveche la naturaleza integrada del aprendizaje automático interno para procesar los movimientos faciales y migrar la tecnología a una oferta sin hardware ni accesorios.

Velocidad de la luz triturable

Music Haptics añade estilo a las canciones

Music Haptics, una característica muy esperada para el servicio de transmisión tecnológicamente avanzado de Apple, permite a los usuarios sordos o con problemas de audición experimentar la música en sus dispositivos a través del tacto, al convertir el Taptic Engine del iPhone en un transmisor de ritmos y vibraciones. Cuando está activada, la configuración agrega “clics, texturas y vibraciones mejoradas” a la música.

La función sólo estará disponible en el catálogo de canciones de Apple Music por ahora.

Los atajos de voz permiten que más personas simplifiquen sus vidas

Al reconocer la variedad de habilidades del habla y patrones de habla atípicos entre las personas con discapacidades, los atajos de voz permiten a los usuarios asignar acciones a expresiones personalizadas, no solo frases. La configuración se combina con la nueva configuración Escuchar el habla atípica, que utiliza el aprendizaje automático en el dispositivo para reconocer el habla única del usuario y se dirige a personas con afecciones que afectan el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular. . “, explica Apple.

VisionOS, CarPlay y más obtienen actualizaciones

Apple también introdujo mejoras en su conjunto de herramientas de accesibilidad, incluido un modo Lector para Vision Assistant de la aplicación, una nueva opción de escritura con deslizamiento para personas con baja visión, un trackpad virtual para quienes usan AssistiveTouch con alcance limitado y nuevas personalizaciones para VoiceOver y Voice Control.

La empresa agregará subtítulos en vivo a nivel del sistema para VisiónOSasí como herramientas como reducir la transparencia, inversión inteligente y luces intermitentes tenues “para usuarios con mala visión o aquellos que quieren evitar luces brillantes y parpadeos frecuentes”.

redondeando adiciones, carplay Los usuarios ahora tienen acceso a control por voz, filtros de color y reconocimiento de voz, lo que ayuda a las personas a acceder a los controles solo con su voz, ver pantallas aptas para daltónicos y recibir alertas sobre sonidos externos.



[ad_2]

Source Article Link