Google Samsung está desarrollando un nuevo procedimiento que aborda el problema del sobrecalentamiento de sus teléfonos inteligentes Pixel, según un informe. Según los informes, la función, denominada 'Adaptive Thermal', se detectó durante un desmontaje del APK de la aplicación Device Health Services en el teléfono inteligente. Si bien los teléfonos inteligentes actuales vienen con medidas de seguridad de temperatura integradas, se dice que esta nueva característica muestra una nueva notificación emergente e inicia un servicio de medición de temperatura cuando detecta un sobrecalentamiento de un teléfono inteligente Pixel.
Adaptación térmica en smartphones Pixel
en un informeAndroid Authority, en colaboración con el informante Mishaal Rahman, ha revelado información sobre esta nueva característica que se dice que Google está desarrollando. Se detectaron varios hilos relacionados con la función durante el proceso de desmontaje del APK de la versión 1.27 de la aplicación Device Health Services de Pixel.
Cuando se enciende, se dice que el teléfono inteligente activa una alerta de “preemergencia” cuando la temperatura de la batería alcanza los 49 grados Celsius. Luego puede aparecer una notificación que diga “El teléfono necesita enfriarse”. También es recomendable informar al usuario que puede experimentar un “rendimiento más lento” en su dispositivo. píxel.
Para solucionar este problema, deberían “intentar evitar la luz solar directa o cerrar cualquier aplicación que consuma mucha batería”, según el informe. nuevo Ver pasos de cuidado También se dice que aparece una opción que permite a los usuarios ver qué pasos ha tomado el sistema operativo Pixel para garantizar su seguridad. También se dice que la opción ofrece consejos para enfriar el dispositivo, como mantenerlo en un lugar abierto con mejor flujo de aire, cerrar aplicaciones que consumen mucha energía de la batería y evitar su uso bajo la luz solar directa.
Hoy en día, los dispositivos Pixel, al igual que otros smartphones, cuentan con múltiples dispositivos Tallas En su lugar para combatir el sobrecalentamiento. Cuando un teléfono inteligente se calienta, la CPU se acelera, sacrificando el rendimiento para proteger el teléfono. Además, el dispositivo también puede desactivar automáticamente varias funciones como el flash LED, la cámara, la conectividad 5G e incluso ralentizar la carga. Estos pasos están implementados para garantizar que no se produzcan daños en el dispositivo en tales situaciones.
También se ha informado que la función Adaptive Thermal mide automáticamente la temperatura del teléfono inteligente Pixel cada cinco minutos. Si la temperatura supera los 52 grados centígrados, el dispositivo entra en estado de “emergencia”. Una vez que se cruza el umbral de 55 °C, puede alternar una advertencia de 30 segundos, después de lo cual el teléfono puede apagarse.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Samsung Se espera que los teléfonos inteligentes Galaxy reciban pronto la actualización One UI 6.1.1 de la compañía, y llegará con varios inteligencia artificial (AI) según un informante en X (anteriormente Twitter). Se espera que la actualización se base en las funciones introducidas con Galaxy AI, el conjunto de herramientas impulsadas por IA de la compañía que se presentó a principios de este año. Como parte de la próxima actualización, Samsung podría introducir una nueva función impulsada por IA que puede transformar selfies capturados en pinturas de diferentes estilos.
Se filtraron las características de la actualización Samsung One UI 6.1.1
en correo En X, un informante conocido como Ice Universe (@UniverseIce) compartió detalles sobre la próxima actualización de Samsung. Se espera que una de las características principales de la actualización sea la nueva función de gráficos impulsada por IA. Según las afirmaciones, los usuarios pueden utilizar inteligencia artificial para convertir los selfies que han tomado en pinturas artísticas.
En One UI 6.1.1, puedes usar IA para dibujar los selfies que tomas en diferentes estilos.
También se espera que la actualización One UI 6.1.1 traiga una nueva función de generación de graffiti a los teléfonos inteligentes Samsung Galaxy. Si bien el informante no reveló ningún detalle sobre su trabajo, es Él dijo Aprovechar el S-Pen y las capacidades de generación de imágenes de los teléfonos, lo que significa que podría traducirse en una función de texto a imagen. Puede funcionar con Samsung Gauss Image: la empresa Inteligencia artificial generativa Modelo con capacidades de generación de imágenes.
Junto con las actualizaciones de IA, también se espera que Samsung introduzca varias mejoras en la calidad de vida. Galaxia teléfonos inteligentes. El informante afirma que puede traer animaciones mejoradas y al mismo tiempo aumentar el tamaño de las animaciones del fondo de pantalla. Se espera que esto haga que la experiencia del teléfono sea “más animada”.
Compatibilidad con One UI 6.1.1
Según la pista, solo se espera que los dispositivos plegables y tabletas Samsung Galaxy reciban la actualización One UI 6.1.1. Esto puede incluir próximos Galaxy Z Fold 6 Y Z Flip 6 Modelos y sus antecesores. El programa es Decía Está en prueba y podría llegar después del evento Galaxy Unpacked, que probablemente tendrá lugar en julio.
Mientras que la Galaxia S24 También se espera que la serie obtenga las funciones de IA mencionadas anteriormente, y es posible que eso no suceda con la actualización One UI 6.1.1. De hecho, el informante sugiere que es posible que no reciba la actualización en absoluto. En cambio, la línea insignia de teléfonos inteligentes de Samsung recibirá una importante actualización One UI 6.1 en agosto que traerá las mismas características que la actualización One UI 6.1.1.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Google lanzó la actualización Android 15 Beta 3 el martes y trajo varias funciones nuevas a los teléfonos inteligentes Android, algunas de las cuales son exclusivas de los teléfonos Pixel. Según un informe, introduce una nueva función de 'Tiempo de espera adaptativo' en los teléfonos inteligentes Pixel, que permite que el dispositivo se bloquee automáticamente si no está en uso durante un período específico. Además de esta característica, la última Androide 15 La actualización beta también trae otras adiciones de calidad de vida, como un editor de fondos de pantalla rediseñado y Navegación segura de Android.
Tiempo de espera adaptativo en Android 15
Según 9to5Google un informeagrega la actualización Beta de Android 15 Plazo de adaptación opción en la configuración de pantalla junto a Pantalla de tiempo de espera opción. Supuestamente apaga la pantalla automáticamente si el dispositivo no está en uso. Actualmente no está claro si esta función será exclusiva de los teléfonos inteligentes Pixel.
Si bien los detalles sobre cómo funciona aún no están claros, el informe especula que la función de tiempo de espera adaptativo puede usar la cámara frontal y el sensor de proximidad para determinar si píxel Teléfono inteligente en uso. Dependiendo de la condición, el teléfono inteligente puede permanecer desbloqueado o bloqueado.
El informe sugiere esta característica en Androide 15 no funciona ahora. Incluso si los usuarios alternan la configuración de tiempo de espera adaptativo, se dice que el teléfono lo ignora y prefiere la configuración de tiempo de espera de la pantalla.
Android 15 presenta soporte mejorado para claves de acceso
Android versión 15 beta 3 Decía Proporcionar compatibilidad mejorada con claves de acceso, permitiendo a los usuarios iniciar sesión en diferentes aplicaciones con un solo clic. Según la última publicación del blog de Google, el proceso de inicio de sesión se simplificará mediante una tarjeta que se presentará a los usuarios, permitiéndoles conocer la opción de iniciar sesión en aplicaciones utilizando su huella digital o reconocimiento facial.
Dispositivos compatibles con Android 15 Beta 3
Google ha lanzado la actualización Android 15 Beta 3 para teléfonos inteligentes Pixel. Píxel 6 Y modelos más nuevos, hasta la última serie Pixel 8 inclusive Píxel 8a, elegible para actualización. Además, se puede instalar en otros dispositivos Pixel del ecosistema de Google, p. Doblar el píxel Y tableta de píxeles.
Google dice que la tercera versión de su próximo sistema operativo (SO) para dispositivos Android ha alcanzado la “estabilidad de plataforma”, lo que permite a los desarrolladores integrar sus aplicaciones con las nuevas funciones de Android 15. Se espera que la actualización se lance a finales de este año, comenzando con los teléfonos inteligentes Pixel.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Samsung Se ha presentado una solicitud de patente que muestra una tecnología de pantalla giratoria que se puede utilizar en diferentes formas para presentar una variedad de interfaces. La nueva patente llega después del gigante tecnológico surcoreano Otorgada Patentes para tecnologías de pantallas enrollables y trípticos en marzo. Si bien la aplicación solo indica que la pantalla se usará para “dispositivos electrónicos”, las imágenes mostradas muestran un teléfono plegable, destacando que podría usarse para el futuro Galaxy Z Flip.
Samsung presenta una patente para una pantalla flexible
el Patentado Fue visto por primera vez por The Nerd Stash en cooperación Con guía David Kowalski de xleaks7. La patente se presentó el 18 de junio ante la Oficina de Patentes y Marcas de los Estados Unidos (USPTO) y el solicitante fue nombrado Samsung Electronics. La patente describe una pantalla flexible con tres mecanismos de alojamiento diferentes.
Ilustración de la patente de pantalla flexible de Samsung Fuente de la imagen: The Nerd Dash/Samsung
Según las ilustraciones compartidas en la solicitud de patente, la pantalla se puede configurar de tres formas diferentes, que se denominan “locales”. La primera carcasa es una vista completamente desplegada y extendida, donde la pantalla giratoria aparece en la parte frontal del dispositivo y se extiende para proporcionar más espacio en la pantalla.
En la segunda carcasa, la porción extendida, que aparece cerca de la parte superior del marco, se puede plegar para crear un factor de forma de barra de chocolate más compacto. En la tercera estructura, la pantalla se dobla por la mitad para aparecer en la parte frontal y posterior del dispositivo. A juzgar por las ilustraciones, ambos lados del dispositivo parecen funcionar.
Los módulos de la cámara están colocados en el marco del teléfono. Aparecen en la parte superior del dispositivo tanto en estado plegado como desplegado. La compañía también destacó cómo se pueden utilizar los tres casos para mostrar diferentes aplicaciones e interfaces.
Samsung dijo que la lenta llegada de pantallas flexibles al mercado ha creado competencia para desarrollar dispositivos que puedan transformarse en diferentes formas y ofrecer mayor portabilidad. La compañía destacó que la principal ventaja de esta tecnología de visualización es que las tres carcasas funcionan de forma independiente entre sí y se pueden configurar en una variedad de operaciones de plegado y deslizamiento para crear diferentes formas. Cada variante ofrecerá una interfaz y una experiencia diferentes.
Cabe señalar que una solicitud de patente no es una confirmación de que un dispositivo esté en desarrollo. Samsung puede o no hacer público el diseño en los próximos años, incluso después de que se conceda la patente.
Los Objetivos de Desarrollo Sostenible de la ONU han trascendido el mundo de la política y han entrado en la conciencia pública.Crédito: Noriko Hayashi/The New York Times/Redux/Avin
Cuando un plan bien pensado no funciona, ¿cuál debería ser la respuesta? ¿Abandonar el plan por completo? ¿Ojalá sea necesario un poco más de tiempo para que funcione? ¿O reconocer por qué no funciona y realizar los cambios correspondientes?
En el caso de los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas, Rendirse no puede ser una opción. Sin embargo, está claro que este plan global para erradicar la pobreza y lograr la sostenibilidad ambiental no está funcionando. Se espera que ninguno de los 17 objetivos, que incluyen la lucha contra el cambio climático y la reducción de la desigualdad, se alcance antes de la fecha límite de la ONU de 2030. Es probable que solo se alcance alrededor del 12% de los 169 objetivos centrales. Por ejemplo, 2.200 millones de personas en todo el mundo carecen de acceso a agua potable y más de 300 millones de personas se acuestan con hambre cada noche. El objetivo declarado de los Objetivos de Desarrollo Sostenible es llevar ambos números a cero.
Ampliar los Objetivos de Desarrollo Sostenible hasta 2050 – Hoja de ruta
¿Es posible mejorar el enfoque actual? en Comentar artículo de esta semana., un grupo de investigadores de instituciones de Europa y Estados Unidos proponen un conjunto de respuestas. Los investigadores sugieren que los 17 objetivos permanecen como están, así como muchos de los objetivos e indicadores de esos objetivos. Pero también exigen una mayor ambición. El objetivo de la erradicación de la pobreza debería incluir, por ejemplo, la protección social de las personas vulnerables. El objetivo de eliminar el hambre también debe abordar la desnutrición.
En otros casos, sugieren que las medidas se alineen con acuerdos internacionales, como el compromiso del Acuerdo Climático de París de lograr emisiones netas cero para 2050, de modo que las temperaturas globales no superen los 1,5 grados Celsius por encima de los niveles preindustriales.
Los autores dicen que hay otras lecciones que aprender desde que se acordaron por primera vez los Objetivos de Desarrollo Sostenible en 2015, como los impactos potenciales de la inteligencia artificial. Un estudio encontró que la IA puede beneficiar 134 objetivos en todos los objetivos, como proporcionar mejores pronósticos meteorológicos o mejorar el diagnóstico médico, pero la IA también puede prevenir 59 objetivos, por ejemplo, alimentando la difusión de información errónea (r. Vinuesa et al. Naturaleza común.11, 233; 2020).
Su consejo es oportuno. Las conversaciones sobre el futuro de los Objetivos de Desarrollo Sostenible después de 2030 aún no han comenzado oficialmente, pero como no se pueden hacer ajustes rápidamente, cuanto antes puedan comenzar las discusiones, mejor. Cualquier nuevo indicador deberá cumplirse Estándares de la Comisión de Estadística de las Naciones Unidas Ser conceptualmente claro y contar con una metodología establecida internacionalmente y estándares acordados. Además, una gran proporción de países tiene que producir periódicamente todos los datos pertinentes.
Poco después de que se acordaran los ODS, solo alrededor del 60% de los indicadores tenían metodología y estándares acordados. Para los indicadores restantes, esto tomó cuatro años para lograrlo. En el último recuento (en 2022), todos los países todavía no podían producir datos para un tercio de los indicadores, a menudo debido a la falta de financiación u otras limitaciones (ver: 'Los datos bajaron en 100 millones de dólares').
Fuente: Naciones Unidas/París 21
Por estas y otras razones, algunas metas aún no se evalúan mediante medidas cuantitativas. Un ejemplo destacado de esto es el Objetivo de Desarrollo Sostenible 13, la meta de acción climática, que carece de un objetivo mensurable para reducir las emisiones de gases de efecto invernadero. Para ser parte de los Objetivos de Desarrollo Sostenible, las emisiones nacionales se informarán anualmente y de acuerdo con un estándar establecido por organismos expertos y luego acordado por todos los Estados miembros, como es el caso con todos los objetivos e indicadores recientemente propuestos.
Cooperación, cooperación
Hay una segunda razón por la que esta propuesta llega en el momento oportuno. El Secretario General de las Naciones Unidas, António Guterres, invitó a representantes de los líderes mundiales a reunirse en la ciudad de Nueva York el próximo mes de septiembre para asistir a una reunión denominada Cumbre del Futuro. El borrador del documento que se acordará en el evento -llamado Carta para el Futuro- se refiere a una propuesta para definir de 10 a 20 indicadores similares a los ODS para el crecimiento económico, el bienestar y la sostenibilidad. Pocos ODS tienen la prioridad, el estatus y la atención en la formulación de políticas nacionales que tiene el Objetivo 8 (Crecimiento económico). Guterres quiere cambiar esto y hacer que los responsables de las políticas se centren no sólo en indicadores económicos como el PIB, sino también en el panel de indicadores que él denomina. Más allá del PIB.
Los objetivos globales para salvar a la humanidad son muy ambiciosos, pero siguen siendo la mejor opción
Es importante que esta idea no compita con los Objetivos de Desarrollo Sostenible. Esto no sería fructífero, dado que ambos tienen objetivos similares. No es sorprendente que esto suceda, ya que las Naciones Unidas son una organización grande, compleja y muy aislada. Pero con la apertura del debate sobre la mejor manera de replicar los Objetivos de Desarrollo Sostenible, ahora existe una oportunidad de permitir que estos dos procesos converjan.
Los Objetivos de Desarrollo Sostenible deberían permanecer “en el centro de las agendas políticas globales”, dicen los autores del artículo de comentario. Luego, la comunidad internacional seleccionará sus 10 a 20 indicadores preferidos de cualquier lista actualizada. Se ha trabajado mucho para crear y mejorar los Objetivos de Desarrollo Sostenible. Los esfuerzos paralelos de Guterres se beneficiarían si se vincularan con los Objetivos de Desarrollo Sostenible, aprovechando casi una década de aprendizaje acumulado, en lugar de intentar reinventar la rueda.
La gran ganancia de los Objetivos de Desarrollo Sostenible es que han trascendido el mundo de los formuladores de políticas. Sus logotipos multicolores se pueden encontrar en todas partes, desde las aulas hasta los sitios web de las empresas. Negociaron mucho tiempo y se han hecho muchos esfuerzos para mejorarlas. Cualquier esfuerzo futuro debe basarse en lo que el mundo ha aprendido, sin perder al mismo tiempo el sentido de urgencia que conlleva el plazo actual.
Google Según un informe, Google ha comenzado a implementar una función de búsqueda inversa de números para los teléfonos inteligentes Pixel. La función, denominada “Búsqueda”, se implementó inicialmente para los propietarios de Google Pixel en Japón y parece estar llegando a otras regiones. En el Pixel Features Drop de junio de 2024, el gigante tecnológico anunció que implementará la función de búsqueda de manera más amplia, lo que permitirá a los usuarios identificar números desconocidos directamente desde su historial de llamadas.
Los teléfonos Google Pixel se han actualizado con búsqueda
Según 9to5Google un informeEsta función ahora se está implementando para los usuarios de Pixel. Según se informa, se detectó en la versión 132 de la aplicación móvil de Google, que actualmente se encuentra en versión beta. Se dice que es una función del lado del servidor, lo que significa que los usuarios no necesitan actualizar manualmente la aplicación del teléfono para obtenerla.
A principios de esta semana, Google Él dijo La función de búsqueda se implementará para los propietarios de Google Pixel como parte de la última función de envío directo. Dado que la función se detectó en una versión beta, actualmente no está claro cuándo se implementará para todos los usuarios.
Búsqueda de píxeles de Google: cómo funciona
Para usarlo, los usuarios simplemente deben ir a Recientemente en la aplicación Teléfono y toque Número desconocido. Además de las opciones existentes como Añadir contactos, mensajeY fechanuevo Buscar Se dice que el icono ahora está visible. Al hacer clic en él, el dispositivo busca automáticamente en Internet la última persona que llamó desconocida.
Función de búsqueda de Google en los teléfonos inteligentes Pixel Crédito de la imagen: Google
La ventaja fue primero. mencionado Por Tipster Assemble Debug en la versión beta 127.0.620688474 de la aplicación Google Phone en X (anteriormente Twitter) el 5 de abril. Se ha sugerido que podría permitir a los usuarios elegir entre aplicaciones que puedan buscar el número en la web mediante la búsqueda de Google. Siendo una de las opciones.
Es probable que la función de búsqueda esté destinada a números de teléfono asociados con empresas que figuran públicamente en línea, no a números personales que es poco probable que se encuentren en bases de datos públicas. Actualmente, se dice que sólo está disponible en píxel teléfonos inteligentes. Aún no está claro si llegará a otros dispositivos Android.
Además de la función de búsqueda, se ha informado de otra función nueva en la aplicación del teléfono: un acceso directo para tonos de llamada. Aparece en la configuración de la aplicación del teléfono, en la parte inferior de la página. emojis de voz Opción, sugiere. Se espera que esta función no se haya implementado ampliamente y es posible que solo esté disponible para usuarios específicos.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
¿Estaba imaginando cosas o parecía que la pantalla del iPhone 15 Pro se distorsionaba cada vez que alguien llamaba al nuevo Siri? No. Es una animación en pantalla inteligente de la que ella forma parte. manzanaLa integración de Apple Intelligence llegará a iOS 18 y cubrirá todo, desde aplicaciones de Notas y Mensajería hasta Siri y nuevas y potentes herramientas fotográficas.
Apple presentó su nuevo conjunto de capacidades de Apple Intelligence el lunes a las 12:00 p.m. Conferencia mundial de desarrolladores 2024 Durante una conferencia magistral rápida, fue difícil realizar un seguimiento de todas las nuevas funciones, inteligencia artificial, plataformas y actualizaciones de aplicaciones.
Sin embargo, ahora he visto algunas de estas nuevas funciones de cerca y noté algunas sorpresas, opciones interesantes y una o dos limitaciones que pueden frustrar a los consumidores. El trabajo de Apple en Apple Intelligence ciertamente apenas comienza, y lo que has visto probablemente se verá algo diferente cuando llegue a iOS 18, iPadOS 18 y macOS Sequoia. La beta pública no se espera hasta el próximo mes.
El nuevo Siri lo hace diferente
(Crédito de la imagen: Future/Lance Ulanov)
Pero volvamos a la nueva interacción de Siri. La actualización llega con iOS 18, pero solo aquellos que tengan el iPhone A17 Pro en su interior (específicamente el iPhone 15 Pro y Pro Max) y todos los Mac y iPad de la serie M podrán probarlo. Ahora que lo veo de cerca me parece una verdadera lástima. Como explicó Craig Federighi de AppleLas CPU móviles más antiguas de Apple no tienen suficiente potencia.
Nada ha cambiado sobre cómo activas Siri. Puedes llamarlo por su nombre (con o sin “Hey”) o presionar el botón de encendido/suspensión. Este movimiento a menudo parece como si estuvieras tocando el teléfono, y el nuevo Siri hará precisamente eso. Pulsa un botón y el marco negro de la pantalla se distorsiona. Se pliega hacia adentro, por lo que es como si estuvieras aplastando todo el teléfono. Al mismo tiempo, el marco se ilumina con colores iridiscentes que no pulsan al azar. En cambio, el brillo responde a tu voz. Sin embargo, esta animación no aparecerá en iPhones que no sean compatibles con Apple Intelligence.
(Crédito de la imagen: Future/Lance Ulanov)
La inteligencia de Apple permite que la nueva Siri mantenga una conversación que proporcione al menos cierta pista contextual. Pregúntale cómo le está yendo a tu equipo favorito y él podrá hablar (en la demostración que vi, no estaba hablando). También puede mostrarle, por ejemplo, la clasificación actual de la MLB de los Mets (no es buena). Es posible que la consulta de seguimiento simplemente le pregunte sobre el próximo juego sin mencionar el equipo o que quiera saber algo sobre los Mets. Si hay un juego al que te gustaría asistir, puedes pedirle a Siri que lo agregue a tu calendario. Nuevamente, no se menciona a los Mets ni su calendario. Me gusta llamar a esto contenido basado en tareas. Aún no está claro si Siri puede mantener una conversación en este contexto Abierto AISin embargo, es GPT 4o.
El nuevo Siri puede ser astuto cuando así lo desees, aceptando la entrada de texto (escribiendo a Siri) que invocas con un nuevo gesto de doble toque en la parte inferior de la pantalla. No estoy seguro de si Apple se está exagerando con todos estos cuadros y bordes brillantes, pero sí, los que brillan en el cuadro de Siri. También se puede acceder a él desde casi cualquier lugar de su iPhone, incluidas las aplicaciones.
Regístrese para recibir noticias de última hora, reseñas, opiniones, las mejores ofertas tecnológicas y más.
las fotos
(Crédito de la imagen: Future/Lance Ulanov)
Es innegable que Apple se está poniendo al día en el espacio de la fotografía generativa, especialmente en la edición de fotografías, donde finalmente está implementando las potentes funciones de elevación de sujetos introducidas hace dos generaciones de iOS y mejorándolas con la inteligencia de Apple para eliminar las distracciones del fondo y luego completar el espacio. espacios en blanco. Al igual que otras funciones de Apple Intelligence, Photo Cleanup solo se extenderá a los iPhone con chip A17 Pro. Sin embargo, es una pieza impresionante de programación de IA.
El proceso de limpieza se llevará a cabo dentro de las imágenes en “Editar”. Apple eligió lo que parece ser un ícono de borrador para representar la función. Sí, es una especie de borrador mágico. Cuando lo selecciones, verás un mensaje que te indicará “Haz clic, pincela o encierra en un círculo lo que deseas eliminar”.
En la práctica, la función parece inteligente, fácil de usar y muy potente. Vi cómo puedes rodear a una persona no deseada en el fondo de una foto; No es necesario rodear cuidadosamente sólo la distracción y no el tema. Apple Intelligence no le permitirá eliminar temas intencionalmente. Una vez que hayas marcado con un círculo e identificado la distracción, toca Verificar y desaparecerá. Cuando el proceso de limpieza evaporó un par de bonitos paisajes, fue maravilloso y un poco molesto.
Para que nadie se confunda entre fotografía pura y contenido impulsado por Apple Intelligence, Apple agrega una nota a la metainformación, “Limpieza de fotos de Apple”.
En lugar de que Apple cree automáticamente Memory Movies, Apple Intelligence le permite escribir un mensaje que describe una serie de viajes con alguien especial, por ejemplo. También puedes pedirle al sistema que incluya algún tipo de foto como paisajes o selfies.
Cuando Apple llevó esta función al escenario, me di cuenta de que todas las animaciones geniales que asumí eran obras de teatro. Me equivoqué, ver Create a Memory Movie es en sí mismo un placer visual, lleno de cuadros de imágenes brillantes con imágenes dentro y fuera de la pantalla y texto debajo que básicamente muestra el trabajo de Apple Intelligence.
La única mala noticia es que si no te gusta lo que crea Create Memory Movie, no puedes decirle al sistema que cambie la película en un mensaje. Tienes que empezar de nuevo.
escribiendo
(Crédito de la imagen: Future/Lance Ulanov)
Apple Intelligence y sus diversos modelos generativos nativos son casi tan omnipresentes como las plataformas. Se pueden encontrar herramientas de inteligencia artificial para mejorar la escritura y la ayuda en aplicaciones macOS Sequoia como Mail y Notes.
Me sorprendió un poco ver cómo funcionaba. Si escribe algo en Notas o Correo, debe seleccionar una parte del texto para habilitarlo. Desde allí, obtienes un pequeño ícono de aplicación codificado por colores donde puedes acceder a herramientas de revisión y reescritura.
Apple Intelligence ofrece ventanas emergentes para mostrar su trabajo y explicar sus opciones. Parece ser tan experto en dirigir sus cables para hacerlos más profesionales o conversacionales como en redactar resúmenes breves o con viñetas de cualquier texto determinado.
Llamar a un amigo ChatGPT
(Crédito de la imagen: Future/Lance Ulanov)
Apple Intelligence funciona de forma local y en nubes informáticas privadas. En la mayoría de los casos, Apple no dice cuándo utilizará su propia nube o si lo hará. Esto se debe a que Apple considera que su nube es tan privada y segura como la IA del dispositivo. Esa nube solo se utilizará cuando la consulta supere al sistema local.
Cuando Apple Intelligent decide que un modelo de terceros podría ser más adecuado para gestionar su consulta, las cosas son un poco diferentes.
Cuando llega el momento de usar OpenAI ChatGPT Para saber qué puedes cocinar con los frijoles que acabas de fotografiar, Apple Intelligence te pedirá permiso para enviar el mensaje a ChatGPT. Al menos no es necesario que inicies sesión en ChatGPT y, mejor aún, puedes utilizar el último modelo GPT-4o.
(Crédito de la imagen: Future/Lance Ulanov)
Varita fotográfica (mágica).
(Crédito de la imagen: Future/Lance Ulanov)
Una de las características más interesantes que he visto es Image Wand, una herramienta que funciona particularmente bien en el iPad con el Apple Pencil.
Apple no lo llama “varita mágica”, pero lo que puede evocar es una especie de magia.
En las notas, puedes rodear cualquier contenido, como un mal dibujo de un perro y algunas palabras que describan al perro o lo que quisieras que hiciera (“jugar con la pelota”). La tecnología Apple Intelligence genera una imagen de aspecto profesional que combina ambas. Entonces, tu garabato y tus palabras se convierten en la ilustración de un perro jugando con una pelota.
Lo que es aún más impresionante es que puedes rodear el espacio vacío al lado de tus notas y el sistema insertará una imagen que coincida con la información. También es muy rápido.
Nuevas reacciones
(Crédito de la imagen: Future/Lance Ulanov)
También eché un vistazo a cómo funcionan los nuevos Gemoji. Hay un número limitado de emojis oficiales que puedes obtener en los mensajes, pero Genmoji elimina esos límites y los reemplaza con tu imaginación.
Genmoji está en iMessage y todo lo que tienes que hacer es tocar el ícono, ingresar tu mensaje y se creará una imagen linda que se puede compartir. Aprendí que si intentas enviar uno de estos Genmojis a alguien que no está usando la última versión de iOS, es posible que vea que alguien interactuó con tu mensaje, pero también recibirá el nuevo Genmoji como un mensaje con imagen separado.
(Crédito de la imagen: Future/Lance Ulanov)
Por supuesto, todo esto es sólo una muestra de lo que será posible con Apple Intelligence. Se espera que penetre en iOS, macOS y iPadOS, accediendo a sus datos, aplicaciones, pantallas de inicio y más. También puede cambiar su experiencia en el ecosistema Apple como nunca antes.
manzanas Es posible que falten varios años para las supuestas gafas inteligentes, pero la compañía parece estar trabajando en hardware que podría aparecer en sus dispositivos portátiles de próxima generación. Según una solicitud de patente publicada por la Oficina de Patentes y Marcas de EE. UU. (Oficina de Patentes y Marcas de Estados Unidos), Apple ha diseñado un mecanismo de bisagra que podría ser parte de las rumoreadas gafas de realidad aumentada (AR) de la compañía. A principios de este año, Apple lanzó Vision Pro en Estados Unidos como la primera computadora espacial portátil, y se espera que los modelos futuros se parezcan a gafas normales.
Solicitud de patente de Apple para mecanismo de bisagra de doble eje
En la solicitud de patente que fue publicado La semana pasada, en la Oficina de Patentes de EE. UU., Apple explicó el uso de una bisagra de cardán en un par de gafas. El documento describe la posibilidad de utilizar la bisagra para abrir el brazo en tres estados: abierto (nominal), plegado e hiperextendido.
Figuras que representan el cardán de doble bisagra de las gafas inteligentes Fuente de la imagen: Oficina de Patentes de EE. UU./Apple
Apple dice que una bisagra con “múltiples ejes de rotación para diferentes partes” permitirá que el brazo de las gafas AR se mueva entre diferentes posiciones estables. El diseño de la bisagra también permitirá que las gafas inteligentes “aplican una fuerza de sujeción a una amplia gama de cabezas”.
Otra ventaja de utilizar un mecanismo de bisagra de doble eje es la posibilidad de equipar la bisagra con un cable que conecta los componentes del brazo y la montura de las gafas inteligentes. La bisagra rediseñada también permitirá que los componentes permanezcan seguros, según la empresa. Patentado documento.
Referencias a “Apple Glasses” en la solicitud de patente
El documento de patente contiene múltiples referencias a “gafas”, lo que sugiere que la empresa está desarrollando la tecnología para lanzar eventualmente su propio par de gafas inteligentes. Informes anteriores han intentado predecir el cambio de los auriculares de realidad mixta Apple Vision Pro a algo más simple.
El mes pasado fue mencionado El fabricante de iPhone planea lanzar un iPhone plegable y gafas AR en 2026 y 2027, respectivamente. Apple no es la única empresa que se dice que está trabajando en gafas inteligentes. Asus, Meta, Samsung y Lenovo se encuentran entre los competidores de la compañía que también están trabajando en tecnología similar.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
Oficialmente, se lanzó la versión beta de Meta AI para Gafas inteligentes Ray-Ban Meta Solo está disponible en EE. UU. y Canadá, pero hoy noté que se implementó en mi aplicación Meta View aquí en el Reino Unido, así que realicé una prueba de esta función en London Paddington y sus alrededores, cerca de la sede de nuestra oficina. .
Usando la cámara integrada en las gafas y una conexión a Internet, puedo hacer preguntas sobre Meta AI como lo haría con cualquier otra IA generativa, por ejemplo. ChatGPT – con el beneficio adicional de proporcionar una imagen del contexto al comenzar el mensaje con “Oye Mita, mira y…”
En resumen, la IA (cuando funciona) es bastante fácil de usar. No era 100% perfecto y en ocasiones tuvo problemas con las limitaciones de la cámara y la sobrecarga de información, pero me sorprendieron gratamente sus capacidades.
Aquí hay un detalle de cómo fue mi experiencia.
Estas especificaciones son claras y algo útiles también. (Crédito de la imagen: futuro)
Estoy en una aventura de inteligencia artificial.
Al salir de nuestra oficina, comencé una caminata impulsada por Meta AI por el estacionamiento e inmediatamente le pedí a mi especificación inteligente que realizara dos tareas: identificar los árboles que bordean la calle y luego resumir un letrero largo y lleno de información que analiza las restricciones de estacionamiento en el área. .
En la misión del árbol, fallé rotundamente: hice algunos sonidos de búsqueda antes de volver al silencio. Gran comienzo. Pero con el letrero, Meta AI fue realmente muy útil, explicando de manera sucinta (y precisa) que para estacionar aquí necesitaba un permiso o me arriesgaba a pagar una multa muy grande, ahorrándome unos buenos cinco minutos que habría dedicado a decodificar. Aparte de eso.
Después de este éxito desigual, continué hacia la estación de Paddington. Para pasar el tiempo, hice preguntas sobre las especificaciones de Londres como si fuera un turista fiel. Me proporcionaron algunos datos interesantes sobre el Big Ben (recordándome que el nombre se refiere a la campana, no a la famosa torre del reloj), pero admitieron que no podían decirme si el rey Carlos III residía actualmente en el Palacio de Buckingham o si alguna vez podría hacerlo. a encontrarse con el. para él.
Regístrese para recibir noticias de última hora, reseñas, opiniones, las mejores ofertas tecnológicas y más.
Es cierto que esto es difícil de verificar incluso siendo humano. Por lo que sé, vive en Clarence House, que está cerca del Palacio de Buckingham, pero no puedo encontrar una respuesta definitiva. Así que marcaré esta prueba como inválida y apreciaré que la IA al menos me haya dicho que no lo sabía en lugar de alucinaciones (término técnico utilizado cuando la IA inventa cosas o miente).
También intenté nuevamente la prueba inicial del árbol usando una planta diferente. Esta vez, los observadores dijeron que pensaban que era un árbol de hoja caduca, aunque no pudieron decirme específicamente qué especie estaba mirando.
Algunas de las preguntas que hice y sus respuestas en la aplicación Meta View (Crédito de la imagen: futuro)
Cuando llegué a la estación, hice algunas pruebas y preguntas adicionales a las especificaciones. Identificaron correctamente la estación como Paddington, y en dos de cada tres pruebas, Meta AI usó correctamente el tablero de salida para decirme cuándo salía el siguiente tren a diferentes destinos. En la tercera prueba, ya estaba demasiado lejos: perdió ambos trenes a Penzance y luego me dijo que había un vuelo completamente diferente a Bristol.
Antes de regresar a la oficina, entré en la tienda de la estación para usar la función que más necesitaba probar: pedirle a Meta AI que recomendara una cena basada en los ingredientes que me precedieron. Desafortunadamente, la abundancia de alimentos pareció abrumar a la IA y ésta no pudo hacer ninguna sugerencia. Tendré que ver si funciona mejor con el frigorífico menos lleno de casa.
Cuando está bien, da miedo
En mi viaje de regreso, hice una última prueba de las gafas inteligentes. Le pedí a Meta AI que me ayudara a navegar por el complejo mapa del metro fuera de la entrada del metro de Londres, y esta vez me dio la respuesta más impresionante del grupo.
Le hice algunas preguntas a las gafas para ayudarme a ubicar diferentes estaciones de metro entre la extensa variedad y la IA pudo dirigirme al área general correcta en todo momento. Después de varias solicitudes terminé diciendo “Hola Meta, mira y dime dónde está Wimbledon en este mapa”.
Las gafas respondieron diciendo que no podía ver Wimbledon (probablemente porque estaba tan cerca de ella que no podía ver todo el mapa), pero dijeron que tenía que estar en algún lugar del área suroeste, y así era. Puede que esto no parezca una respuesta notable, pero este nivel de comprensión (la capacidad de reconstruir con precisión una respuesta a partir de datos incompletos) era impresionantemente humano. Era como si estuviera hablando con un local.
El metro es un laberinto de estaciones difícil de recorrer para los turistas. (Crédito de la imagen: futuro)
Si tienes un par de gafas inteligentes Meta Ray-Ban, te recomiendo ver si tienes acceso a Meta AI. Claro, aquellos de ustedes en los EE. UU. y Canadá pueden hacerlo, pero aquellos que no lo están pueden tener tanta suerte como yo de tener la versión beta disponible. La mejor manera de comprobarlo es simplemente decir “Hola Meta, mira y…” y ver qué respuesta da. También puede verificar la configuración de Meta AI en la aplicación Meta View.
Un vistazo al futuro de la IA portátil
Hay muchos hechos aterradores sobre nuestro inminente futuro de IA: solo lea esta fascinante deconstrucción NVIDIALa conferencia de prensa más reciente fue realizada por John Loeffler, pero la prueba de hoy resalta la utilidad de los dispositivos portátiles de IA a raíz de las recientes debacles de algunos otros dispositivos en el espacio.
Para mí, la mayor ventaja de las gafas inteligentes Ray-Ban Meta es su apariencia. Pin de la humanidad ai o Conejo R1 (dos dispositivos portátiles de IA que han recibido críticas mordaces de todos los críticos tecnológicos) es que no son sólo compañeros de IA. Son parlantes abiertos, una cámara portátil y, por decir lo menos, un par de colores elegantes.
Sin embargo, seré el primero en decirles que las metaespecificaciones de Ray-Ban necesitan mejorar en todo excepto en el departamento de diseño.
El rendimiento del audio en oído abierto no se puede comparar con el mío. Sensor JBL SoundGear O el Shockz abierto ajuste aire Los auriculares y la cámara no son tan claros ni fáciles de usar como los de mi teléfono inteligente. Pero la combinación de todos estos detalles hace que las Ray-Ban sean al menos un poco elegantes.
En esta etapa inicial, todavía no estoy convencido de que las gafas inteligentes Ray-Ban Meta sean algo que todo el mundo debería tener. Pero si estás desesperado por entrar en la IA portátil en esta etapa temprana de adopción, es el mejor ejemplo que he visto en mi vida.
Canales simplemente lo tiene publicado Investigue el mercado europeo de teléfonos inteligentes en el primer trimestre de 2024 y hay muy buenas noticias al respecto. Samsung en eso.
Según la compañía, Samsung envió el mayor número de teléfonos inteligentes en Europa en el último trimestre, con 12,1 millones de unidades, lo que le otorga una cuota de mercado del 37%. En comparación con el primer trimestre de 2023, Samsung envió 0,3 millones de teléfonos inteligentes adicionales en el primer trimestre de 2024. Esto representa un aumento del 2% en el crecimiento interanual. No es mucho, pero sigue siendo el lado positivo.
En segundo lugar quedó manzanaque vendió 7,3 millones de teléfonos inteligentes y ganó una cuota de mercado del 22%. Xiaomi Ocupó el tercer lugar con 5,4 millones de envíos y una cuota de mercado del 16%, mientras que, Motorola Ocupó el cuarto lugar con 2,1 millones de envíos y una cuota de mercado del 6%. En el último lugar estaba honorCon 1 millón de envíos y una cuota de mercado del 3%.
Según Canalys, Galaxia S24 La serie ayudó a Samsung a lograr esos números que eran “Respaldado por una importante inversión en marketing que destaca Galaxy AI junto con importantes promociones comerciales y de cobranza.Según se informa, la compañía envió 4,3 millones de unidades de teléfonos inteligentes de la serie Galaxy S en el último trimestre, lo cual es un número muy grande.
La historia continúa después del vídeo.
Será interesante ver cómo le va a Samsung en el primer trimestre de 2024 en otras regiones del mundo. Esperamos que estas cifras también sean significativas.