NVIDIA El domingo en Computex 2024 presentó el Proyecto G-Assist, un asistente de inteligencia artificial (IA) impulsado por la plataforma Ray Tracing Texel eXtreme (RTX). El gigante tecnológico lo presentó como un asistente de juegos personal para PC que puede responder consultas sobre cualquier videojuego. Incluyendo estrategias de juego y análisis de repeticiones multijugador. La IA viene equipada con capacidades de lenguaje natural y visión por computadora, lo que le permite aceptar texto, voz e información de pantalla como entrada. Actualmente, no hay fecha de lanzamiento para el producto. En particular, Microsoft también ha demostrado un caso de uso similar para copiloto Durante su evento de construcción.
NVIDIA presenta el proyecto G-Assist
Project G-Assist es parte del conjunto de herramientas RTX AI de Nvidia, que ha visto muchas otras herramientas anuncios También el 2 de junio. AI Assistant, en particular, es el esfuerzo de la compañía por llevar el conocimiento del juego a los jugadores con IA generativa. Curiosamente, en 2017, Nvidia a publicar Vídeo en X (anteriormente conocido como Twitter) sobre la GeForce GTX G-Assist, una herramienta que puede jugar en nombre del jugador, como una broma del Día de los Inocentes.
Ahora, siete años después, Nvidia está haciendo realidad ese sueño. Entonces, ¿qué puede hacer un asistente de IA? Al compartir una demostración técnica del juego ARK: Survival Ascending de Studio Wildcard, la compañía destacó una amplia gama de áreas en las que Project G-Assist puede ayudar a los jugadores. El asistente de IA está pensado principalmente como una herramienta para buscar rápidamente la mejor arma del juego o una solución cuando estás atrapado en una misión, y también puede realizar tareas más complejas.
Durante la demostración, Project G-Assist ayuda a crear una estrategia de juego para la supervivencia temprana del juego, proporciona análisis de repeticiones multijugador, ayuda a encontrar las mejores configuraciones para jugar y descubre la mejor manera de optimizar el juego para tu PC. Vale la pena señalar que el asistente de IA tiene capacidades de modelo de lenguaje grande (LLM), así como visión por computadora, por lo que puede comprender el lenguaje natural y capturar el contexto analizando la pantalla en tiempo real.
Project G-Assist puede ejecutarse en servidores y en dispositivos localmente y funciona con GPU Nvidia GeForce RTX para brindar flexibilidad a los jugadores. Según la demostración, parece que el asistente de IA tiene acceso a Internet de cualquier manera, ya que es posible que necesite buscar en la web para encontrar respuestas a ciertas preguntas.
Actualmente, Project G-Assist solo está disponible como demostración y Nvidia no ha compartido ningún detalle sobre su fecha de lanzamiento.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
HMD Internacional Samsung está desarrollando tres nuevos teléfonos inteligentes, incluidos dos dispositivos de gama media, según un informe. Se dice que los teléfonos inteligentes tienen especificaciones similares a los teléfonos Pulse que la compañía lanzó a principios de este año. El informe afirma que los próximos dispositivos HMD pueden estar disponibles en colores vibrantes y líneas suaves, similares a los dispositivos anteriores. nokia Los telefonos.
Según el sitio web Nokiamob un informeLos tres teléfonos inteligentes pueden denominarse HMD Nighthawk, HMD Tomcat y HMD Project Fusion. Según se informa, los dos primeros serán dispositivos de gama media, mientras que se espera que el último sea un teléfono inteligente resistente. Vale la pena señalar que los nombres de los teléfonos inteligentes no son definitivos.
Especificaciones de HMD Nighthawk (esperadas)
Se dice que el primer teléfono inteligente de la lista es el HMD Nighthawk. El informe sugiere que puede obtener una pantalla AMOLED Full HD+ con una frecuencia de actualización de 120 Hz. Según se informa, tendrá una configuración de cámara dual en la parte posterior con una cámara principal de 108 megapíxeles con OIS y un sensor secundario de 2 megapíxeles, mientras que se informó una cámara frontal de 32 megapíxeles. Chip Snapdragon 4s Gen 1 de Qualcomm Se dice que alimenta el teléfono inteligente y también funciona con una batería de 5.000 mAh.
Se dice que otras características incluyen Androide 14Bluetooth 5.1, Wi-Fi 5, altavoces duales, compatibilidad con NFC y conector para auriculares de 3,5 mm. Según se informa, el HMD Nighthawk tendrá un precio de 250 euros (aproximadamente 22.500 rupias) para la variante de 8 GB + 128 GB.
Especificaciones de HMD Tomcat (esperadas)
Según el informe, el HMD Nighthawk también puede contar con una pantalla AMOLED Full HD+ con frecuencia de actualización de 120 Hz y compatibilidad con HDR 10+. Además, puede funcionar con el chipset Snapdragon 7s Gen 2 construido en la arquitectura de 4 nm. En términos de óptica, puede tener una configuración de cámara trasera triple que incluye una cámara principal de 108 megapíxeles con OIS, así como sensores secundarios y terciarios de 8 megapíxeles y 2 megapíxeles.
Se dice que tiene otras características como Bluetooth 5.2, una batería de 4900 mAh con carga de 33 W, clasificación IP67, parlantes estéreo y soporte NFC. El HMD Tomcat tendrá un precio de 400 euros (aproximadamente 36.000 rupias) para la variante de 8 GB + 256 GB.
Especificaciones de HMD Project Fusion (esperadas)
La publicación sugiere que HMD Project Fusion puede ser solo un prototipo. Se dice que contará con una pantalla IPS Full HD+ de 6,6 pulgadas. Según el informe, un chipset Qualcomm QCM6490 con 8 GB de RAM alimentará el teléfono inteligente. Se espera que obtenga una batería de 4.800 mAh con carga rápida de 30 W (con cable) y 15 W (inalámbrica). Se dice que mide 164 mm x 76 mm x 8,6 mm, mientras que también se podrían ofrecer características como Wi-Fi 6E, HMD Smart Outfit, Dynamic Triple ISP, Pogo Pin y un conector de 3,5 mm.
Vale la pena señalar que no existe un calendario específico para el lanzamiento de ninguno de los teléfonos inteligentes y las especificaciones mencionadas se basan en informes no oficiales.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
La película está dirigida y protagonizada por Daniel Myrick y Eduardo Sánchez. Heather Donahue, Michael Williams y Joshua Leonard como versiones imaginarias de sí mismos, “El proyecto de la bruja de Blair” es una película de terror de metraje encontrado que aprovechó una ola de publicidad para convertirse en un gran éxito. Filmada por sólo entre 200.000 y 750.000 dólares (el precio varía), la película recaudó 248,6 millones de dólares. ¿Por qué? Porque la gente pensó que era real. Puede parecer una tontería ahora, pero antes de que “Blair Witch” se estrenara en los cines de todo el mundo, comenzó a surgir una leyenda en torno a la película. Las imágenes del documental falso eran tan convincentes que muchas personas pensaron que estaban viendo algo real.
La película comienza con un texto siniestro que nos cuenta que tres cineastas se adentraron en la selva en 1994 para filmar un documental. Nunca más fueron vistos y sólo se han encontrado sus imágenes. Esta configuración simple pero efectiva hizo que algunos espectadores creyeran que Donahue, Williams y Leonard eran realmente Desaparecido. Para ejemplificar este escenario, se distribuyeron carteles faltantes que representaban a los tres personajes principales en el Festival de Cine de Sundance, donde se estrenó Blair Witch.
En “Danse Macabre” de Stephen King, un libro de no ficción en el que King aborda el género de terror, el legendario autor escribió: “Una cosa sobre Blair Witch: la maldita cosa parece real. Otra cosa sobre Blair Witch: la maldita cosa se siente real”. real, y porque lo es, “Es como la peor pesadilla que hayas tenido, aquella en la que te despertaste jadeando y llorando de alivio porque creías que estabas enterrado vivo y resulta que el gato saltó a tu cama y se fue a Duerme sobre tu pecho.”
Pero eso no es todo lo que King dijo sobre la película. También reveló que la primera vez que vio la película lo asustó tanto que tuvo que apagarla.
Google Ha ampliado su proyecto Gameface, un proyecto de código abierto que tiene como objetivo hacer que los dispositivos tecnológicos sean más accesibles. AndroideY ahora se puede utilizar para controlar la interfaz del teléfono inteligente. El proyecto fue presentado por primera vez durante E/S de Google 2023 como un mouse para juegos manos libres que se puede controlar mediante movimientos de la cabeza y expresiones faciales. Están diseñados para personas que tienen discapacidades físicas y no pueden usar las manos ni la voz para controlar dispositivos. Manteniendo el mismo rendimiento, la versión de Android agrega un cursor virtual para permitir a los usuarios controlar su dispositivo sin tocarlo.
En un anuncio realizado en su blog centrado en desarrolladores. correo“Estamos poniendo a disposición más código para Project Gameface para ayudar a los desarrolladores a crear aplicaciones de Android para que sean más accesibles para todos los dispositivos Android”, dijo Google, “y a través de la cámara del dispositivo, rastrea sin problemas las expresiones faciales y los movimientos de la cabeza, traduciéndolos”. control intuitivo y personalizado”. Además, la empresa pidió a los desarrolladores que también usaran las herramientas para agregar funciones de accesibilidad a sus aplicaciones.
Project Gameface ha colaborado con la organización india Incluzza, que apoya a personas con discapacidad. A través de la colaboración, el proyecto ha aprendido cómo se puede ampliar su tecnología para incluir diferentes casos de uso, como escribir un mensaje, buscar trabajo y más. Utilicé la API de detección de puntos de referencia faciales de MediaPipe y el servicio de accesibilidad de Android para crear un nuevo indicador virtual para dispositivos Android. El cursor se mueve siguiendo el movimiento de la cabeza del usuario después de seguirlo con la cámara frontal.
La API reconoce 52 gestos faciales que incluyen levantar una ceja, abrir la boca, mover los labios y más. Estos 52 gestos se utilizan para controlar y asignar una amplia gama de funciones en su dispositivo Android. Una característica interesante es el arrastre. Los usuarios pueden usar esto para desplazarse por la pantalla de inicio. Para crear un efecto de arrastre, los usuarios deberán especificar un punto inicial y final. Puede ser como abrir la boca y mover la cabeza, y una vez llegado al punto final, se vuelve a cerrar la boca.
Vale la pena señalar que, aunque esta tecnología está disponible en GitHub, ahora corresponde a los desarrolladores crear aplicaciones utilizando esta opción para hacerla accesible a los usuarios. Apple también introdujo recientemente una nueva función que utiliza el seguimiento ocular para controlar el iPhone.
Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.
el Conferencia Google I/O 2024 El discurso de apertura fue un Festival Gemini repleto, y el director ejecutivo Sundar Pichai tuvo razón al describirlo como su versión de The Eras Tour, específicamente, la “Era Gemini”, en la cima.
Todo el discurso de apertura fue sobre Géminis y la IA. En realidad, Google Lo dijo las últimas 121 veces. Desde la presentación de un asistente futurista de IA llamado “Proyecto Astra” que puede ejecutarse en un teléfono (y quizás algún día en gafas) hasta la integración de Gemini en casi todos los servicios o productos que ofrece la empresa, la IA definitivamente ha sido el gran tema.
Todo eso fue suficiente para derretir las mentes de todos, excepto de los entusiastas más fervientes del LLM, por lo que desglosamos las 7 cosas más importantes que Google reveló y discutió durante su discurso de apertura de I/O 2024.
1. Google abandonó el proyecto Astra, un “agente de inteligencia artificial” para la vida cotidiana
Entonces resulta que Google tiene una respuesta a esta pregunta. OpenAI GPT-4o Y microsoftCopiloto. Proyecto Astraconocido como el “agente de IA” de la vida cotidiana, es básicamente lente de google Con esteroides y se ve muy impresionante, capaz de comprender, razonar y responder a videos y audio en vivo.
En un video grabado en un teléfono Pixel, se ve al usuario caminando por una oficina, proporcionando una transmisión en vivo a la cámara trasera y haciendo preguntas al Astra. Géminis observaba y comprendía las imágenes y al mismo tiempo respondía preguntas.
Se trata de un contexto multimodal y de formato largo en el backend de Gemini, que funciona sobre la marcha para identificar y entregar rápidamente una respuesta. En la demostración, sabía qué parte específica era el hablante e incluso podía identificar un distrito de Londres. También es productora porque rápidamente creó el nombre de una banda para un lindo cachorro junto a un animal de peluche (ver video arriba).
No se lanzará de inmediato, pero los desarrolladores y la prensa como nosotros en TechRadar lo probaremos en I/O 2024. Si bien Google no dio más detalles, hubo un adelanto de las gafas Astra, lo que podría significar que Google Glass puede ser haciendo una reaparición.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
Sin embargo, incluso como demostración durante Google I/O, es muy impresionante y potencialmente muy convincente. Puede cargar nuestros teléfonos inteligentes y asistentes existentes de Google e incluso manzana. Además, también muestra las ambiciones reales de Google en el campo de la inteligencia artificial, una herramienta que puede resultar muy útil y que no requiere ningún uso rutinario.
2. Google Photos recibe un útil impulso de IA de Gemini
Realmente quiero saber si este es el hijo real de un empleado de Google o de un Géminis… (Crédito de la imagen: Google)
¿Alguna vez has querido encontrar rápidamente una foto específica que tomaste en algún momento del pasado lejano? Tal vez sea una carta de un ser querido, una fotografía temprana de un perro cuando era cachorro o incluso su matrícula. Bueno, Google está haciendo realidad ese deseo con una importante actualización. imágenes de google Lo que lo combina con Géminis. Esto le da acceso a su biblioteca, le permite buscar en ella y le proporciona fácilmente el resultado que está buscando.
En una demostración en el escenario, Sundar Pichai reveló que puede solicitar su propia matrícula y la aplicación de fotografía le presentará una imagen que la muestra y los números/letras que componen su matrícula. Asimismo, puedes pedir fotografías de la época en que tu hijo aprendió a nadar, así como cualquier otro detalle. Debería facilitar la búsqueda incluso en bibliotecas de fotografías no organizadas.
Google ha llamado a esta función “Preguntar fotos” y la implementará para todos los usuarios en las “próximas semanas”. Es casi seguro que será útil y atraerá a personas que no lo utilizan. imágenes de google Un poco celoso.
3. La tarea de su hijo ahora es mucho más fácil gracias a NotebookLM
(Crédito de la imagen: Google)
Todos los padres conocerán el horror de intentar ayudar a los niños con sus tareas; Si has sabido acerca de estas cosas en el pasado, no es posible que el conocimiento siga latente en tu mente 20 años después. Pero es posible que Google haya facilitado mucho la tarea gracias a una actualización de su aplicación para tomar notas NotebookLM.
NotebookLM ahora tiene acceso a Gemini 1.5 Pro y, según la demostración presentada en I/O 2024, ahora será un mejor maestro que nunca. La demostración mostró a Josh Woodward de Google cargando un cuaderno lleno de notas sobre un tema educativo, en este caso, la ciencia. Con solo presionar un botón, cree un tutorial detallado, con resultados adicionales que incluyen cuestionarios y preguntas frecuentes, todo tomado del material original.
Impresionante, pero estaba a punto de mejorar mucho. Una nueva característica, todavía un prototipo en este momento, fue capaz de generar todo el contenido como audio, creando esencialmente una discusión estilo podcast. Es más, el audio presenta a más de un orador, que habla sobre el tema de forma natural de una manera que sin duda sería más útil que un padre frustrado que intenta jugar al maestro.
Woodward incluso pudo interrumpir y hacer una pregunta, en este caso “Danos un ejemplo sobre baloncesto”, momento en el que la IA cambió de rumbo y ideó metáforas inteligentes para el tema, pero en un contexto accesible. Los padres del equipo de TechRadar están entusiasmados de probar esto.
4. Pronto podrás realizar búsquedas en Google mediante un vídeo.
(Crédito de la imagen: Google)
En una extraña demostración en el escenario utilizando un tocadiscos, Google mostró un nuevo e impresionante truco de búsqueda. Ahora puedes grabar un vídeo, buscar los resultados y, con suerte, obtener una respuesta.
En este caso, era un empleado de Google que se preguntaba cómo utilizar el tocadiscos; Hice un registro fotografiando la unidad en cuestión mientras les preguntaba algo y luego se lo envié. Google ha hecho su magia de búsqueda y ha proporcionado una respuesta de texto que se puede leer en voz alta. Es una forma completamente nueva de investigar, como lente de google En el caso del vídeo, también es claramente diferente de la IA cotidiana del próximo proyecto de Astra, que debe grabarse y luego consultarse en lugar de trabajar en tiempo real.
Sin embargo, es parte de la tecnología y la IA generativa de Gemini combinadas con la Búsqueda de Google, con el objetivo de mantenerte en esa página y facilitar la obtención de respuestas. Antes de esta demostración de búsqueda en video, Google mostró una nueva experiencia generativa para recetas y comidas. Esto le permite buscar algo en lenguaje natural y obtener recetas o incluso recomendaciones de restaurantes en la página de resultados.
En pocas palabras, Google está apostando por la IA generativa en la búsqueda, tanto para los resultados como para las diferentes formas de obtenerlos.
Este mensaje puede incluir efectos cinematográficos, como solicitar una toma temporal o una toma aérea, y Los primeros ejemplares parecen impresionantes. Tampoco tiene que empezar desde cero: cargue un vídeo con entrada de comando y Veo podrá editar el clip para que coincida con su pedido. También existe la opción de agregar máscaras y editar partes específicas del video.
¿Malas noticias? Al igual que Sora, Veo aún no está ampliamente disponible. Google dice que estará disponible para creadores seleccionados a través de VideoFX, una función de sus laboratorios beta, “en las próximas semanas”. Puede que pase algún tiempo hasta que veamos una implementación generalizada, pero Google ha prometido llevar esta función a todos. YouTube Cortos y otras aplicaciones. esto sera todo Adobe Se mueve incómodo en la silla creada por inteligencia artificial.
6. Android recibió un gran impulso de Gemini
(Crédito de la imagen: Google)
Al igual que la función “Círculo para buscar” de Google se encuentra en la parte superior de la aplicación, Gemini ahora está integrado en el núcleo de Android para integrarse con su transmisión. Como se muestra, Gemini ahora puede ver, leer y comprender lo que hay en la pantalla de su teléfono, lo que le permite anticipar preguntas sobre lo que esté viendo.
De este modo, puede obtener el contexto del vídeo que estás viendo, anticipar una solicitud de resumen al ver un PDF largo o prepararte para hacer innumerables preguntas sobre la aplicación que estás usando. Tener IA consciente del contenido integrada en el sistema operativo de un teléfono no es tarea fácil. No es nada malo y puede resultar muy beneficioso.
Junto con la integración Gemini a nivel de sistema, Gemini Nano con multimodalidad se lanzará a finales de este año en dispositivos Pixel. ¿Qué le permitirá? Bueno, eso debería acelerar las cosas, pero la característica más destacada, por ahora, es escuchar llamadas y poder alertarte en tiempo real si se trata de spam. Esto es bastante bueno y se basa en la detección de llamadas, que es una característica de larga data en los teléfonos Pixel. Se espera que sea más rápido y se procese más en el dispositivo en lugar de enviarse a la nube.
7. Google Workspace se volverá más inteligente
(Crédito de la imagen: Google)
Los usuarios del espacio de trabajo son Obtenga un tesoro de integraciones y funciones útiles de Gemini Puede tener un gran impacto en el día a día. Dentro de Mail, gracias al nuevo panel lateral de la izquierda, puedes pedirle a Gemini que resuma todas las conversaciones recientes con uno de tus colegas. Luego, el resultado se resume con puntos que destacan los aspectos más importantes.
Gemini en Google Meet puede brindarle los aspectos más destacados de la reunión o lo que otras personas en la llamada podrían preguntar. Ya no necesitarás tomar notas durante esa llamada, lo que puede resultar útil si es una llamada larga. Dentro de Google Sheets, Gemini puede ayudar a comprender los datos y procesar solicitudes, como retirar una cantidad o un conjunto de datos específicos.
El compañero de equipo virtual “Chip” podría ser el ejemplo más futurista. Puede estar presente en G-chat y ser llamado para diversas tareas o consultas. Aunque estas herramientas llegarán a Workspace, probablemente primero a través de funciones experimentales, la pregunta restante es cuándo llegarán a los clientes habituales de Gmail y Drive. Dado el enfoque de Google de llevar la IA a todos e impulsarla agresivamente a través de las búsquedas, probablemente sea sólo cuestión de tiempo.
Google Tiene un nuevo agente de inteligencia artificial que puede contarte cosas sobre lo que sucede a tu alrededor. un montón de cosas.
Llamado “Proyecto Astra”, es una herramienta multimedia de inteligencia artificial basada en Gemini que te permite apuntar la cámara de tu teléfono a objetos de la vida real y obtener una descripción hablada de lo que estás mirando.
En una demostración mostrada durante Google I/O el martes, la herramienta apuntó al orador, lo que provocó que parte de él fuera identificado correctamente como orador. Aún más impresionante, la cámara del teléfono reprodujo un fragmento de código en la pantalla de la computadora, y Astra proporcionó una descripción bastante detallada de lo que hace el código.
Finalmente, la persona que estaba probando el Proyecto Astra apuntó su teléfono a la ventana y preguntó: “¿En qué vecindario crees que estoy?”. Después de unos segundos, Pepito respondió: “Al parecer esto es King's Cross en Londres”, con algunos detalles sobre el barrio. Finalmente, se pidió a la herramienta que encontrara un par de gafas extraviadas, y ésta cumplió, especificando exactamente dónde se habían dejado las gafas.
Velocidad de la luz triturable
Quizás en la parte más interesante del vídeo, vemos que estas gafas son en realidad un tipo de gafas inteligentes, que pueden usarse nuevamente para indicarle a Gemini lo que ve el usuario; en este caso, haciendo una sugerencia en un diagrama dibujado en una pizarra. .
Según Demis Hassabis, director ejecutivo de DeepMind en Google, algo como Astra podría estar disponible en el teléfono o en las gafas de una persona. Sin embargo, la compañía no compartió una fecha de lanzamiento, aunque Hassabis dijo que algunas de estas capacidades llegarán a los productos de Google “más adelante este año”.
A group of Adobe researchers recently published a paper on a new generative AI model called VideoGigaGAN and we believe it may launch on a future product. What it does is upscale low-quality videos by up to eight times their original resolution without sacrificing stability or important aspects of the source material. Several demo clips can be found on the project’s website showing off its abilities. It can turn a blurry 128×128 pixel resolution video of a waterfall into footage running at a resolution of 1,024×1,024 pixels.
Post by @luokai
View on Threads
What’s noteworthy about the AI is it doesn’t skimp out on the finer details. Skin texture, wrinkles, strands of hair, and more are visible on the faces of human subjects. The other demos also feature a similar level of quality. You can better make out a swan swimming in a pond and the blossom on a tree thanks to this tech. It may seem bizarre to be focusing so much on skin wrinkles or feathers. However, it is this level of detail that companies like Adobe must nail down if they aim to implement image-enhancing AI on a wide scale.
Improving AI
You probably have a couple of questions about the platform’s latest project like how does it work? Well, it’s complicated.
The “GAN” in VideoGigaGAN stands for generative adversarial network, a type of AI capable of creating realistic images. Adobe’s version is specifically based on GigaGAN which specializes in upscaling generated content as well as real photos. The problem with this tech, as TheVerge points out, is that it can’t improve the quality of videos without having multiple problems crop up like weird artifacts. To solve this issue, Adobe researchers used a variety of techniques.
The research paper explains the whole process. You can read it yourself to get the full picture although it is dense material. Basically, they introduced a “flow-guided propagation module” to ensure consistency among a video’s frames, anti-aliasing to reduce artifacts, and a “high-frequency feature shuttle” to make up for sudden drops in detail. There is more to VideoGigaGAN than what we just described, but that’s the gist of it.
Potential inclusion
Will we see this on an upcoming Adobe product or roll out as a standalone app? Most likely – at least we think so.
In the past year, the company has been focusing heavily on implementing artificial intelligence into its software from the launch of Firefly to Acrobat’s new assistant. A few months ago during Adobe MAX 2023, a video upscaler referred to as Project Res Up was previewed at the event and its performance resembles what we see in the VideoGigaGAN demos. An old movie from the 1940s goes from running at a 480 x 360 image resolution to a crisp 1,280 x 960. Blurry footage of an elephant in a river becomes crystal clear. The presenter even mentions how the software can upscale a clip to four times the original quality.
Get the hottest deals available in your inbox plus news, reviews, opinion, analysis and more from the TechRadar team.
Admittedly, this is conjecture, but it’s entirely possible VideoGigaGAN may be the engine behind Res-Up. Adobe’s future product could give people a way to upscale old family videos or low-quality footage into the movie we envision in our minds. Perhaps, the recent preview is a hint at an imminent release.
VideoGigaGAN is still deep in development so it’s unknown when or if it’ll come out. There are several obstacles in the way. The AI can’t properly process videos beyond 200 frames or render small objects, but we’ll definitely be keeping an eye on it.
Infotainment screens inside cars are becoming bigger each year, and most people are using Android Auto or Apple CarPlay for most of their navigation and music playback needs. However, those platforms are too simple for some tasks, and if you want to get real work done on your car’s huge screen, you should consider an upcoming project that aims to bring full-fledged Samsung DeX UI.
AutoPro X dongle claims to bring full-fledged Samsung DeX UI to your car’s screen
A Kickstarter Project called AutoPro X aims to bring Samsung DeX UI to the car’s infotainment system. You can connect your Galaxy phone to AutoPro X’s small circular dongle via Bluetooth and Wi-Fi, and that dongle needs to be connected to the car’s infotainment screen via a USB cable. After a few minutes, you should be able to see the complete Samsung DeX UI, complete with taskbar, desktop, and resizeable app windows.
The AutoPro X dongle costs just $140 if you back the Kickstarter project. You would be among the first in the world to get access to the upcoming dongle. The estimated delivery date is June 2024, which is not far away. Moreover, the company’s engineers have worked with Samsung’s engineers to make the product more reliable.
The project has already crossed 1000% of its funding goal.
Some Apple employees who worked on Apple Car and micro LED projects are being laid off. Photo: Laurenz Heymann/Unsplash
Following the shutdown of the Apple Car project, the Cupertino giant is laying off more than 600 employees. Many affected employees worked on developing micro LED displays for the Apple Watch and future Apple products.
The laid-off employees worked in and around Santa Clara, near Apple’s California headquarters.
Layoffs affect Apple Car and micro LED project teams
To comply with the California Employment Development Department’s regulations, Apple filed a Worker Adjustment and Retraining Notification (WARN) report informing about the layoffs.
Based on Apple’s submissions, 87 people worked at its secret facility, purportedly working on the micro-LED display technology. 371 employees worked at an Apple Car-related office in Santa Clara, California. Bloomberg‘s report claims Apple laid off dozens more employees in various satellite offices working on the two projects.
These layoffs are not new, as the company has already let go of the employees. It is just that this is the first time an approximate number is known. Plus, Gurman notes that the number of employees laid off should be much higher, as Apple had many people working on the Car project in Arizona. Similarly, the company had many display engineers working on micro LED technology at its offices in Asia.
Apple moved many employees working on the Apple Car to its artificial intelligence division, led by John Giannandrea. They will focus on the company’s various generative AI projects, an area where Apple is significantly trailing its rivals.
Similarly, Apple has abandoned its plans to transition to micro LED screens on its future products. This is after the company realized its production costs were too high to make economic sense. With the project canceled, the company is letting go of many people working on it.
Apple this week filed a required notice with the state of California, confirming plans to permanently lay off more than 600 employees. Under California law, employers must give employees and state representatives a 60-day notice before a mass layoff event.
The employees listed are located in several Apple-occupied buildings around Santa Clara, California, which is close to Apple’s Cupertino headquarters. Several of these locations were rumored to be associated with Apple Car development in the past, so it is likely that these layoffs are related to Apple’s decision to stop work on the car project.
Apple officially ended development on the Apple Car in March. Approximately 2,000 employees working on the Apple Car were told that the project was winding down at that time, and Apple began the process of moving some of them to work on artificial intelligence under John Giannandrea and in other relevant departments.
Other employees were given 90 days to apply for open positions within the company, but Apple hired hardware engineers and car designers while working on the Apple Car, and these employees may not have had skills applicable to other projects.
Apple also recently ended development on in-house microLED displays, so some of the layoffs might also be related to the decision to discontinue that work.
While the iPhone 16 Pro and iPhone 16 Pro Max are still months away from launching, there are already over a dozen rumors about the devices. Below, we have recapped new features and changes expected for the devices so far. These are some of the key changes rumored for the iPhone 16 Pro models as of April 2024:Larger displays: The iPhone 16 Pro and iPhone 16 Pro Max will be equipped with large…
A first look at iOS 18’s rumored visionOS-style redesign may have been revealed by a new image of the Camera app. Alleged iOS 18 design resource. MacRumors received the above iPhone frame template from an anonymous source who claims they obtained it from an iOS engineer. It will allegedly be included as part of the Apple Design Resources for iOS 18, which helps developers visually design apps …
Apple is exploring various “personal robotics” projects in an effort to create its “next big thing,” according to Bloomberg’s Mark Gurman. Amazon’s Astro robot One of these projects is described as a “mobile robot” that would “follow users around their homes,” while another is said to be an “advanced table-top home device that uses robotics to move a display around”:Engineers at Apple have…
Apple researchers have developed an artificial intelligence system named ReALM (Reference Resolution as Language Modeling) that aims to radically enhance how voice assistants understand and respond to commands. In a research paper (via VentureBeat), Apple outlines a new system for how large language models tackle reference resolution, which involves deciphering ambiguous references to…
Nearly one year after it launched in the U.S., the Apple Card’s high-yield savings account will be receiving its first-ever interest rate decrease. Starting on April 3, the Apple Card savings account’s annual percentage yield (APY) will be lowered to 4.4%, according to data on Apple’s backend discovered by MacRumors contributor Aaron Perris. The account currently has a 4.5% APY. 4.4% will …
Apple TV+ now offers almost 30 more popular and classic movies for a limited time. Last month, Apple added over 50 movies to its back catalog of content for a limited period – the biggest addition of content to its library to date. For April, the company has added many more titles, including: 42 Anchorman: The Legend of Ron Burgundy Armageddon Arrival Bridesmai…
Apple has yet to release the first beta of iOS 17.5 for the iPhone, but two changes are already expected with the upcoming software update. iOS 17.5 will likely allow iPhone users in the EU to download apps directly from the websites of eligible developers, and the update might include some changes to how Apple ID recovery contacts work. More details about these potential changes follow. W…