LinkedIn se enfrenta a una demanda colectiva por acusaciones de que se utilizaron mensajes privados para entrenar un modelo de inteligencia artificial.
el trajeque fue presentado ante el Tribunal de Distrito de los EE. UU. para el Distrito Norte de California, acusó al sitio de redes profesionales propiedad de Microsoft de “divulgar ilegalmente los mensajes premium de sus clientes a terceros” y “ocultar” sus prácticas al “alterar sus políticas de privacidad y datos.” . Una parte clave de la demanda acusa a LinkedIn de revelar mensajes privados de Inmail a terceros para entrenar su modelo.
Un portavoz de LinkedIn dijo: “No utilizamos los mensajes de los miembros para entrenar modelos como se describe en la denuncia”.
La velocidad de la luz está sujeta a la luz.
La cuestión de verificar los datos de entrenamiento para los modelos de IA es controvertida y LinkedIn no es la primera empresa acusada de mala conducta. Googlepara Microsoft y Openai Todos ellos se han enfrentado a demandas por parte de usuarios por utilizar sus datos personales sin conocimiento ni consentimiento previo.
La demanda se refiere a LinkedIn en nombre de los usuarios que pagan LinkedIn Premium y que aparentemente pagan por funciones de privacidad mejoradas. Las acusaciones se centran en una configuración de privacidad introducida en agosto de 2024 que permitía a los usuarios de LinkedIn optar por no compartir sus datos personales para entrenar modelos de IA, pero La configuración de suscripción está alternada de forma predeterminada..
Un mes después, LinkedIn actualizó su política de privacidad para decir que la empresa puede utilizar datos de usuarios para entrenar sus modelos y que los datos pueden compartirse con terceros. La demanda acusa a LinkedIn de violar las leyes de privacidad de datos e incumplimiento de contrato al utilizar los datos del usuario, incluidos los mensajes de correo electrónico, sin conocimiento o consentimiento y “cubriendo[ing] Tracks” cambiando retroactivamente la Política de Privacidad.
En nombre de los usuarios Premium de LinkedIn, la demanda solicita una indemnización de 1.000 dólares para cada demandante.
Android 16 Beta 1 se lanzó el viernes, lo que permite a los desarrolladores y amantes probar la próxima actualización principal del sistema operativo Google Smartphone. La nueva versión solo está disponible para modelos modernos de Google Pixel, y la compañía ha revelado algunas de las nuevas características que formarán parte de Android 16, cuando se ofrece a los usuarios en los próximos meses. Este año, se espera que Android 16 se lance en el segundo trimestre de 2024, que es tan pronto como la versión de Google Q3 (o incluso el cuarto trimestre).
Características de Android 16 beta 1
Google Él dice La primera versión de Android 16 Beta proporciona una característica llamada Direct Actualations, que muestra las “actividades continuas”, como aplicaciones de entrega de alimentos o transporte en Google Maps. La compañía dice que las aplicaciones podrán mostrar iconos dedicados para estos indicadores de progreso, que se mostrarán en la lista de notificaciones. Si esto parece familiar, es porque Apple ha proporcionado la misma función con actividades en vivo desde iOS 16.
Las aplicaciones deberán proporcionar soporte para el sistema operativo inflamable de Windows con Android 16 Imagen de crédito: Google
Las versiones anteriores de Android proporcionaron una tarifa predictiva para la espalda al usar la movilidad basada en gestos, lo que permite a los usuarios ver una vista previa de la aplicación que aparecerá al pasar y retener el gesto de retroceso. Google ahora está agregando la misma función al botón de retorno cuando se usa el modo de movilidad 3-Ambutation en Android 16.
Android 16 también realizará mejoras en las funciones de la cámara en teléfonos inteligentes compatibles, con soporte para el Programa de Codificación de Video Profesional Avanzado (APV) que permite una grabación de video de hasta 8k, video de visión múltiple, HDR 10 y HDR 10+, y calidad de video sin pérdida. . Las aplicaciones también podrán descubrir condiciones de baja luz utilizando nuevas fachadas de programación de API.
Google también dice que las aplicaciones deben proporcionar soporte para el sistema Windows reestructural, si el dispositivo tiene una pantalla de densidad de píxeles de 600 puntos (o más). Las aplicaciones API 36 (Android 16) podrán cancelar la suscripción este año, pero la compañía dice que las aplicaciones diseñadas para la API 37 no tendrán la opción de cancelar la suscripción en 2026.
Android 16 Beta 1 Hardware calificado
El primer Beta Android 16 está disponible para descargar en Google Pixel Smartones modernos y la tableta Google Pixel. Esto significa que los desarrolladores o entusiastas que hayan registrado sus dispositivos compatibles podrán descargar Android 16 Beta 1 tiene una actualización de Air (OTA).
Cabe señalar que Android 16 Beta 1 es un programa de pre -versión que probablemente contenga errores y otros problemas que pueden afectar el rendimiento diario. Como resultado, no debe instalarse en el “controlador diario” o los dispositivos básicos. Se espera que Google Android 16 sea lanzado por el segundo trimestre de 2025, lo que significa que podemos esperar ver una versión estable a fines de junio.
El equipo detrás de Nord Security, Tesonet, Hostinger y Oxylabs ha lanzado una plataforma de orquestación de IA
La plataforma de orquestación tiene como objetivo resolver un problema clave e implementar sin problemas LLM de IA a escala
$8 millones recaudados para ayudar a las instituciones a abordar el creciente número de programas LLM, con más de 200 programas actualmente respaldados.
como Herramientas de inteligencia artificial Con un rápido desarrollo, las empresas enfrentan desafíos cada vez mayores a la hora de gestionar modelos de IA, equilibrar costos y garantizar un rendimiento confiable.
Nexos.aila nueva plataforma unificada de orquestación de IA de los fundadores VPN para empresas Nord está diseñado para ayudar a las organizaciones a implementar IA a escala abordando estos desafíos; Proporcionar acceso a más de 200 modelos de IA para simplificar su integración en la empresa.
La empresa ha obtenido 8 millones de dólares en financiación de inversores, entre ellos Olivier Baumel, director ejecutivo de Datadog; Sebastián Siemiatkovsky, director ejecutivo de Klarna; Ilkka Paananen, director ejecutivo de Supercell; y Avishay Ebrahimi, director ejecutivo de Wix.com.
Lanzando Nexos.ai
Thomas Okmanas e Imantas Sabaliauskas, cofundadores de Nord Security y ahora Nexos.ai, enfrentaron desafíos para integrar la IA en múltiples empresas, incluso después de gastar más de 100.000 dólares en Modelos de lenguajes grandes (LLM) En algunos casos.
Los comentarios de las empresas también revelaron una falta de infraestructura capaz de soportar aplicaciones de IA escalables, de alta calidad y rentables. Nexos.ai también incluye plantillas de proveedores como Abierto AI, Googley Meta para ayudar a las organizaciones a gestionar sus operaciones de IA.
“Las empresas saben que la IA es una necesidad operativa y competitiva, pero están abrumadas por los desafíos de gestionar múltiples modelos, controlar costos y garantizar un rendimiento preciso y confiable”, dijo Okmanas.
“Al mismo tiempo, los modelos de IA se están volviendo cada vez más autónomos y capaces de manejar tareas complejas con una mínima intervención humana. Creamos nexos.ai para que sea la plataforma de nivel empresarial que hace que trabajar con IA sea tan intuitivo como trabajar con equipos humanos. la infraestructura y la supervisión para garantizar que estos modelos funcionen al máximo sin dejar de ser rentables y seguros.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
La plataforma, cuyo lanzamiento está previsto para principios de 2025, ya está siendo probada por empresas globales para satisfacer sus necesidades de atención al cliente automatizada.
Se espera que Samsung presente tres nuevos teléfonos inteligentes asequibles a finales de este año: Samsung Galaxy A06 5G, Galaxy F06 5G y Galaxy M06 5G. Estos modelos se han visto anteriormente en sitios web de certificación y evaluación comparativa. Los informantes también han filtrado muchos detalles sobre los teléfonos. Ahora, los teléfonos han aparecido en la base de datos del Grupo de Interés Especial (SIG) de Bluetooth. Los listados confirmaron los títulos de los tres modelos. Vale la pena señalar que Samsung presentó una versión 4G de Galaxia A06 En India en septiembre de 2024.
Lista SIG de Bluetooth para Samsung Galaxy A06 5G, Galaxy F06 5G, Galaxy M06 5G
Señal Bluetooth existente Revela que los números de modelo SM-A066B, SM-A066M/DS, SM-A066M, SM-A066E/DS y SM-A066B/DS están relacionados con el próximo Samsung Galaxy A06 5G. Mientras tanto, las variantes Samsung Galaxy F06 5G y Galaxy M06 5G llevan los números de modelo SM-E066B/DS y SM-M066B/DS respectivamente.
La letra B en los números de modelo anteriores indica que estas son las versiones globales del Samsung Galaxy A06 5G, Galaxy F06 5G y Galaxy M06 5G. Es probable que esto también incluya la versión hindi. Las opciones de conectividad para los teléfonos incluirán 2G, 3G, 4G LTE, 5G NR, Bluetooth y WLAN. La lista no revela otras especificaciones de estos teléfonos inteligentes.
Anteriormente Samsung Galaxy F06 5G y Galaxy M06 5G manchado en el sitio web de la Oficina de Estándares de la India (BIS), lo que indica un lanzamiento inminente en la India. Según los informes, también fueron vistos en el sitio web de certificación de Wi-Fi Alliance.
Por otro lado, Samsung también fabricó el Galaxy A06 5G. apariencia En GeekBench. Se espera que el teléfono funcione con el SoC MediaTek Dimensity 6300, combinado con la GPU Mali G615 MC2 y 4 GB de RAM. Es posible que se envíe con One UI 7.0 basado en Android 15.
Versión 4G del teléfono Galaxy A06 Venir Con un chipset MediaTek Helio G85 y 4 GB de RAM, se ejecuta en One UI 6 basado en Android 14 y tiene un precio de Rs. 9999 y rupias. 11,499 para las opciones de 64GB y 128GB respectivamente.
AMD ha confirmado que los modelos RX 9070 estarán a la venta en marzo de 2025
Esto contradice los rumores que apuntaban a su lanzamiento a finales de enero.
Los jugadores de PC no están contentos, especialmente porque el stock de tarjetas gráficas RDNA 4 ya se envió a los minoristas.
AMD Confirmó que sus tarjetas gráficas RX 9070 son los primeros prototipos de familia RDNA 4No estará disponible hasta marzo.
David McAfee, vicepresidente y director general de CPU Ryzen y gráficos Radeon de AMD, publicó en X para compartir la noticia.
El hardware y el software de la serie Radeon 9000 lucen fantásticos y planeamos ofrecer una amplia selección de tarjetas a nivel mundial. ¡No puedo esperar a que los jugadores tengan en sus manos las cartas cuando salgan a la venta en marzo!20 de enero de 2025
Por lo tanto, la fecha de venta del inicial RX 9070 XT Y las GPU Vanilla 9070 son de marzo, lo que coloca al gato entre las palomas de las GPU, por decir lo menos, si se da un breve desvío a través de las respuestas a X (y otros comentarios variados en Reddit).
¿Qué molestó a la gente? Bueno, en primer lugar, esta es una noticia decepcionante basada en los rumores de que AMD estaba listo para lanzar estas GPU RX 9070 a finales de enero para una batalla de rango medio. NVIDIAIniciar sesión antes de emitir Variantes RTX 5070 En febrero.
O al menos que AMD iba a hacer una gran revelación sobre las tarjetas gráficas RX 9070, quizás a finales de esta semana, lo que definitivamente no sucederá ahora. No tiene sentido hacer un gran anuncio a finales de enero si las GPU de próxima generación no aparecen durante lo que podría ser la mayor parte de dos meses a partir de ahora.
Parte del problema es que dos ejecutivos de AMD han dejado entrever que El anuncio del RX 9070 'no tardará' Y será en un “futuro cercano” que para mí, y obviamente para otros, es muy inminente.
Por supuesto, todo lo que AMD ha dicho oficialmente es que las tarjetas gráficas RDNA 4 se lanzarán en el primer trimestre de 2025 y marzo todavía encaja con eso, por supuesto. Pero según ese período de tiempo, no hay nada en marzo que combine con indicios de que una revelación completa esté “cerca”; de hecho, no puede estar tan lejos en este primer trimestre de 2025.
Regístrese para recibir noticias de última hora, reseñas, opiniones, las mejores ofertas tecnológicas y más.
(Crédito de la imagen: AMD/TechPowerup)
Análisis: Una desafortunada sensación de confusión y caos.
Aunque AMD no ha retrocedido en ninguna de sus promesas, parece que ese es el caso de algunos jugadores de PC. Aparte de la fecha de lanzamiento teóricamente retrasada, o la divulgación completa, más allá de eso, ¿por qué mencionar las GPU en CES 2025? O al menos AMD podría haber dejado claro con este adelanto que estas tarjetas no llegarían, como era de esperar. (De hecho, la mayoría de la gente esperaba, no sin razón, los detalles completos y la revelación en el CES, no un adelanto).
Cualquiera sea el caso, el problema fundamental aquí es que AMD parece estar dando vueltas en sus planes de RDNA 4, cambiando de dirección y, en general, causando confusión entre los posibles compradores de RDNA 4. Las mejores GPU Con el inicio del año 2025, independientemente de la verdad real sobre lo que podría estar sucediendo a puerta cerrada en el Equipo Rojo, según lo que podemos ver y los rumores que circulan, todo parece bastante complicado.
Debemos recordar que estos son solo rumores, pero ha habido muchos avistamientos de modelos RX 9070 en cajas listas para exhibirse en los estantes de los minoristas. VideoCardzque detectó la publicación de AMD en
Si el caldo ya está disponible, como parece, con un puñado de sal listo, ¿por qué esperar? Aquí es donde entran en juego otras conversaciones detrás de escena. AMD está teniendo problemas lamentables para ajustar los precios de lanzamientodespués de sorprendernos donde Nvidia mostró sus modelos RTX 5070 (lo que nos sorprendió a todos, seamos honestos). y problemas relacionados con el manejo de los ajustes de MSRP y la compensación de los minoristas, aunque todo eso está bastante en el territorio de los rumores.
El problema es que no hay mucho excepto que este escenario tiene mucho sentido, y las piezas del rompecabezas (el breve lanzamiento, y luego mayormente silencio de radio después de eso, excepto por esos vagos indicios mencionados sobre una revelación completa “próximamente”). ) parecen encajar bastante bien.
Esto también deja a AMD en una posición muy extraña. En lugar de poder ingresar, antes de que salga el RTX 5070 en febrero, el Equipo Rojo esperará hasta que salgan las tarjetas gráficas de gama media de la competencia, tal vez un mes, por lo que puede haber muchos desertores que se cambien al Equipo Verde. Bueno, suponiendo que el stock de RTX 5070 no sea un fracaso, lo que parece ser La principal amenaza al incendio de GPU de próxima generación de Nvidia – Que habrá relativamente pocas tarjetas gráficas Blackwell a principios de 2025.
No he visto que las guerras de GPU de próxima generación sean así, eso es seguro, y AMD probablemente realmente necesite revelar las especificaciones completas y anunciar los precios, más temprano que tarde, incluso si la fecha de venta del RDNA 4 es marzo. entonces eso deja una gran brecha. Suponiendo que el MSRP ya se haya establecido, porque esto al menos permitirá a los jugadores saber qué esperar y tal vez convencerlos de no darse por vencidos y optar por el RTX 5070 en febrero, en lugar de esperar por las GPU RX 9070.
Sin embargo, ya hay jugadores que dicen que esto los obliga a alejarse de la compra planeada de Radeon de próxima generación por parte de Nvidia Blackwell, aunque lo que tendremos que ver es cuánta reacción inicial de enojo queda.
Google Los investigadores dieron a conocer la semana pasada una nueva arquitectura de inteligencia artificial (IA) que puede permitir que los modelos de lenguaje grandes (LLM) recuerden el contexto a largo plazo de eventos y temas. El gigante tecnológico con sede en Mountain View ha publicado un artículo sobre el tema y los investigadores afirman que los modelos de IA entrenados con esta arquitectura mostraron una mayor retención de memoria “similar a la humana”. Vale la pena señalar que Google abandonó las arquitecturas tradicionales de transformadores y redes neuronales recurrentes (RNN) para desarrollar una nueva forma de enseñar a los modelos de inteligencia artificial cómo recordar información contextual.
Los gigantes pueden escalar la ventana contextual de los modelos de IA a más de 2 millones de símbolos
El investigador principal del proyecto, Ali Behrouz. publicar Acerca de la nueva arquitectura en X (anteriormente conocida como Twitter). Afirmó que la nueva arquitectura proporciona memoria descriptiva contextual con atención que enseña a los modelos de IA cómo recordar información en el momento de la prueba.
Según el documento de Google, eso fue publicado En la revista electrónica preimpresa arXiv, la arquitectura Titans puede escalar la ventana de contexto de los modelos de IA a más de dos millones de tokens. La memoria ha sido un problema difícil de resolver para los desarrolladores de IA.
Los humanos recuerdan información y eventos con contexto. Si alguien le pregunta a alguien qué llevaba puesto el fin de semana pasado, podrá recordar información contextual adicional, como asistir a la fiesta de cumpleaños de alguien a quien conoce desde hace 12 años. De esta manera, cuando se le pida que haga un seguimiento si uno se pregunta por qué llevaba una chaqueta marrón y jeans el fin de semana pasado, la persona podrá ponerlo en contexto con toda esta información a corto y largo plazo.
Por otro lado, los modelos de IA suelen utilizar esquemas de recuperación de generación aumentada (RAG), modificados para arquitecturas Transformer y RNN. Utiliza información como nodos neuronales. Entonces, cuando se le hace una pregunta al modelo de IA, accede al nodo específico que contiene la información clave, así como a los nodos cercanos que pueden contener información adicional o relacionada. Sin embargo, una vez resuelta la consulta, la información se elimina del sistema para ahorrar potencia de procesamiento.
Sin embargo, esto tiene dos desventajas. En primer lugar, el modelo de IA no puede recordar información a largo plazo. Si alguien quisiera hacer una pregunta de seguimiento una vez finalizada la sesión, tendría que proporcionar el contexto completo nuevamente (a diferencia de cómo trabajan los humanos). En segundo lugar, los modelos de IA no logran recuperar información que tenga un contexto a largo plazo.
Con Titans AI, Behrouz y otros investigadores de Google buscaron construir una arquitectura que permitiera a los modelos de IA desarrollar memoria a largo plazo que pudiera activarse continuamente, olvidando información para poder optimizarla computacionalmente.
Para ello, los investigadores diseñaron una arquitectura que codifica la historia en parámetros de redes neuronales. Se utilizan tres tipos diferentes: memoria como contexto (MAC), memoria como puerta (MAG) y memoria como capa (MAL). Cada una de estas variantes es adecuada para determinadas tareas.
Además, Titans utiliza un nuevo sistema de aprendizaje basado en sorpresas, que le dice a los modelos de IA que recuerden información inesperada o esencial sobre un tema. Estos dos cambios en la arquitectura de Titans permiten a los LLM mostrar una funcionalidad de memoria mejorada.
En el punto de referencia BABILong, Titans (MAC) muestra un rendimiento sobresaliente, escalando efectivamente a una ventana de contexto mayor a 2M y superando a modelos grandes como GPT-4, Llama3+RAG y Llama3-70B. pic.twitter.com/ZdngmtGIoW
En una publicación separada, Behrouz afirmó que, según las pruebas internas del punto de referencia BABILong (un enfoque de aguja en un pajar), los modelos Titans (MAC) pudieron superar a los grandes modelos de IA como GPT-4, LLama 3 + RAG. , y Llama 3 70. para.
Kioxia presenta un nuevo proyecto llamado AiSAQ que quiere reemplazar la memoria de acceso aleatorio (RAM) por unidades de estado sólido (SSD) para el procesamiento de datos de IA
Los SSD más grandes (léase: más de 100 TB) pueden mejorar RAG a un costo menor que simplemente usar memoria
No se ha fijado un cronograma, pero se espera que los competidores de Kioxia ofrezcan tecnología similar.
Los grandes modelos lingüísticos a menudo generan resultados que son plausibles pero que no son objetivamente correctos; en otras palabras, inventan cosas. Estas “alucinaciones” pueden dañar la confiabilidad en tareas de información vital como el diagnóstico médico, el análisis legal, los informes financieros y la investigación científica.
La recuperación de generación aumentada (RAG) alivia este problema al integrar fuentes de datos externas, lo que permite a los LLM acceder a información en tiempo real durante la generación, reducir los errores y anclar la salida en los datos existentes, mejorando la precisión contextual. La ejecución eficaz de RAG requiere importantes recursos de memoria y almacenamiento, y esto es especialmente cierto para punteros y datos vectoriales a gran escala. Tradicionalmente, estos datos se han almacenado en la memoria DRAM, que, aunque rápida, es cara y tiene una capacidad limitada.
Para enfrentar estos desafíos, Servicio a domicilio Los informes indican que en el CES de este año, el gigante japonés de la memoria Kioxia presentó AiSAQ – Almacenamiento todo en uno con dimensionamiento de búsqueda aproximada del vecino más cercano (ANNS) – que utiliza SSD de alta capacidad para almacenar datos vectoriales y de puntero. Kioxia afirma que AiSAQ reduce significativamente el uso de DRAM en comparación con DiskANN, proporcionando un enfoque más rentable y escalable para admitir grandes modelos de IA.
Más fácil y rentable
(Crédito de la imagen: Kioxia)
El cambio al almacenamiento basado en SSD hace posible manejar conjuntos de datos más grandes sin los altos costos asociados con el uso extensivo de la memoria dinámica de acceso aleatorio (DRAM).
Si bien el acceso a los datos desde SSD puede generar una ligera latencia en comparación con la DRAM, la compensación incluye menores costos del sistema y una mejor escalabilidad, lo que puede respaldar un mejor rendimiento y precisión del modelo a medida que conjuntos de datos más grandes proporcionan una base más rica para el aprendizaje y la inferencia.
Al utilizar SSD de alta capacidad, AiSAQ aborda los requisitos de almacenamiento de RAG y al mismo tiempo contribuye al objetivo más amplio de hacer que las tecnologías avanzadas de IA sean más accesibles y rentables. Kioxia no ha revelado cuándo planea llevar AiSAQ al mercado, pero es seguro apostar que competidores como Micron y SK Hynix tendrán algo similar en proceso.
Servicio a domicilio “Hoy en día todo se basa en IA y Kioxia también está impulsando esto”, concluye. “Siendo realistas, RAG será una parte importante de muchas aplicaciones, y si hay una aplicación que necesita acceso a una gran cantidad de datos, pero. No se utiliza con frecuencia. Esta sería una gran oportunidad para algo como Kioxia AiSAQ.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Se espera que el Samsung Galaxy S25 Slim se una a la otra serie de teléfonos inteligentes Galaxy S25, que probablemente se dará a conocer el 22 de enero en la exposición Galaxy Unpacked 2025 de la compañía. Sucedió. Algunos informes afirman que la versión “Slim” podría llegar el mismo día, mientras que otros afirman sugiere Podría presentarse en mayo. Un informante ha filtrado una representación de la serie Galaxy S25, que muestra el grosor esperado del modelo Slim en comparación con las variantes Standard, Plus y Ultra.
Grosor delgado del Samsung Galaxy S25 (esperado)
El informante Steve H.McFly (OnLeaks) compartió una imagen en La imagen sugiere que la versión Slim probablemente será la más delgada de la línea. También muestra que podría compartir la longitud del modelo Galaxy S25+.
Se indican fugas anteriores Ese Samsung Galaxy S25 Delgado el podria Tienes un perfil de 6,4 mm sin el módulo de cámara, mientras que Su espesor podrá ser de 8,3 mm. En particular, se afirma que el Galaxy S25 Ultra, el mejor de su clase, tiene un grosor de 8,2 mm. Se dice que el modelo Slim tendrá una pantalla de entre 6,7 y 6,8 pulgadas.
Especificaciones del Samsung Galaxy S25 Slim (esperado)
Un render filtrado recientemente del Samsung Galaxy S25 Slim Espectáculo Una pantalla plana con biseles uniformemente delgados y un orificio perforado alineado en el centro en la parte superior. Apareció con una unidad de cámara trasera triple similar a los teléfonos actuales de la serie Galaxy S24.
En cuanto a la óptica, el Samsung Galaxy S25 Slim podría incluir un sensor primario de 200MP, una cámara ultra gran angular de 50MP y un teleobjetivo de 50MP con zoom óptico de 3,5x. Se espera que el teléfono funcione con el chipset Snapdragon 8 Elite, junto con 12 GB de RAM. Puede ejecutarse en Android 15 con One UI 7 encima.
Corsair Memory y otros muestran SSD portátiles USB 4 en CES 2025
USB 4 es tan rápido como Thunderbolt 3/4 y dos veces más rápido que USB 3.2 Gen2x2
Permite requisitos de almacenamiento más exigentes, como almacenamiento RAW de 8K.
trabajar con lento SSD Puede resultar muy frustrante, pero afortunadamente hay muchas soluciones al problema en el horizonte.
Un grupo de fabricantes ha introducido unidades flash USB de 4 pulgadas. Salón de electrónica de consumo 2025brindándonos una tentadora visión de un futuro sin SSD USB 3.2 lentos, y entre los más llamativos se encontraba el adelanto del nuevo SSD EX400U de Corsair.
Esta elegante pieza de hardware cuenta con una interfaz USB 4 de 40 Gbps y viene en formatos de 1 TB, 2 TB y 4 TB. Según Corsair, el nuevo SSD ofrece velocidades de lectura secuencial de 4.000 MB/s, junto con velocidades de escritura de 3.600 MB/s.
Por qué USB 4 es el camino a seguir
Por otra parte, Adata hizo un gran anuncio con el lanzamiento del nuevo XPG SE940. SSD portátilEsta es la primera vez que la empresa de almacenamiento aprovecha la tecnología USB 4 en su línea de productos.
Esta potente matriz puede alcanzar velocidades de lectura y escritura secuenciales de hasta 4000 MB/s. En particular, esto no sólo convierte al SE940 en la unidad flash más rápida de la línea de la compañía; Tecnología Radar Pro notado recientementeuno de los productos con mejor rendimiento en el mercado de almacenamiento externo.
Pero en una industria llena de jerga de marketing y afirmaciones grandilocuentes, ¿el USB 4 realmente está a la altura de las expectativas?
Se anunció por primera vez en 2019, usb4 Marcó el comienzo de un nuevo estándar de conectividad y, hasta ahora, ciertamente está a la altura de las expectativas. En términos de ancho de banda, USB 4 ofrece hasta 4 Gbps, lo que lo hace dos veces más rápido que USB 3.2 (Gen2x2) y forma parte de las conexiones Thunderbolt 3 y 4.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Este es un gran aumento en la capacidad cuando se trata de transferencias. Especialmente si se tienen en cuenta los conjuntos de datos cada vez más grandes con los que ahora tratan las organizaciones y los usuarios comunes.
Las capacidades de rendimiento del USB 3.2 (o la falta de ellas) fueron especialmente evidentes cuando se trata de almacenamiento y transferencia. 8 mil Archivos de datos, por ejemplo.
Ha habido un flujo constante de dispositivos, especialmente SSD, lanzados recientemente que usan USB 4, pero dado el enfoque en CES 2025, es de esperar que esto se convierta en un torrent el próximo año.
La inteligencia artificial (IA) ha evolucionado rápidamente hasta convertirse en una piedra angular de la innovación tecnológica y empresarial, permeando todos los sectores y transformando fundamentalmente la forma en que interactuamos con el mundo. Herramientas de inteligencia artificial Ahora puede simplificar la toma de decisiones, mejorar las operaciones y habilitar experiencias nuevas y personalizadas.
Sin embargo, esta rápida expansión trae consigo un panorama de amenazas complejo y creciente, que combina amenazas tradicionales ciberseguridad Riesgos con vulnerabilidades únicas de IA. Estos riesgos emergentes pueden incluir manipulación de datos, ataques adversarios y explotación de modelos de aprendizaje automático, cada uno de los cuales plantea impactos potencialmente graves en la privacidad, la seguridad y la confianza.
A medida que la IA continúa integrándose profundamente en la infraestructura crítica, desde la atención médica y las finanzas hasta la seguridad nacional, es imperativo que las organizaciones adopten una estrategia de defensa proactiva y de múltiples capas. Al permanecer alerta e identificar y remediar continuamente estas vulnerabilidades, las empresas pueden proteger no solo sus sistemas de inteligencia artificial sino también la integridad y resiliencia de sus entornos digitales más amplios.
Casimiro Schulz
Investigador principal de seguridad en HiddenLayer.
Nuevas amenazas a las que se enfrentan los modelos y usuarios de IA
A medida que se expande el uso de la IA, también aumenta la sofisticación de las amenazas a las que se enfrenta. Algunas de las amenazas más apremiantes incluyen la confianza en el contenido digital, las puertas traseras integradas intencionalmente o no en los modelos, las vulnerabilidades tradicionales explotadas por los atacantes y las nuevas tecnologías que eluden inteligentemente las salvaguardas existentes. Además, el aumento de los deepfakes y los medios sintéticos complica aún más el panorama, creando desafíos en torno a la verificación de la autenticidad y la integridad del contenido generado por IA.
Confianza en el contenido digital: A medida que el contenido generado por IA poco a poco se vuelve indistinguible de las imágenes reales, las empresas están creando salvaguardas para detener la difusión de información errónea. ¿Qué sucede si se encuentra una vulnerabilidad en una de estas salvaguardas? Por ejemplo, la manipulación de marcas de agua permite a los adversarios manipular la autenticidad de las imágenes generadas por modelos de IA. Esta tecnología puede agregar o eliminar marcas de agua invisibles que identifican el contenido como generado por inteligencia artificial, socavando la confianza en el contenido y promoviendo la desinformación, un escenario que podría tener graves repercusiones sociales.
Puertas traseras en modelos.: debido a Código abierto La naturaleza de los modelos de IA a través de sitios como Hugging Face, un modelo que se reutiliza con frecuencia y contiene una puerta trasera que puede tener graves implicaciones para la cadena de suministro. Un método de vanguardia desarrollado por nuestro equipo de Inteligencia Competitiva Sináptica (SAI), llamado “ShadowLogic”, permite a los adversarios implantar puertas traseras ocultas y sin cifrar en modelos de redes neuronales mediante cualquier método. Al manipular el gráfico computacional del modelo, los atacantes pueden comprometer su integridad sin ser detectados, lo que hace que la puerta trasera persista incluso cuando el modelo está bien ajustado.
Integrar la IA en tecnologías de alto impacto: Modelos de inteligencia artificial como GoogleLos Géminis han demostrado ser vulnerables a ataques indirectos de inyección inmediata. En determinadas circunstancias, los atacantes pueden manipular estos modelos para producir respuestas engañosas o maliciosas, e incluso hacer que llamen a API, lo que destaca la necesidad continua de mecanismos de defensa vigilantes.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Vulnerabilidades de seguridad tradicionales: Las vulnerabilidades y exposiciones comunes (CVE) en la infraestructura de IA continúan afectando a las organizaciones. Los atacantes a menudo explotan las vulnerabilidades en los marcos de código abierto, por lo que es esencial identificarlas y remediarlas de manera proactiva.
Nuevas técnicas de ataque: Si bien las vulnerabilidades tradicionales todavía representan una amenaza importante para el ecosistema de IA, casi a diario se producen nuevas técnicas de ataque. Tecnologías como Knowledge Return Oriented Prompt (KROP), desarrollada por el equipo SAI de HiddenLayer, representan un gran desafío para la seguridad de la IA. Estos nuevos métodos permiten a los adversarios eludir las medidas de integridad tradicionales integradas en grandes modelos de lenguaje (Maestro de leyes), abriendo la puerta a consecuencias no deseadas.
Identificar las debilidades antes de que lo hagan los oponentes.
Para combatir estas amenazas, los investigadores deben ir un paso por delante, anticipando las técnicas que los malos actores puedan utilizar, a menudo antes de que estos adversarios se den cuenta de las posibles oportunidades de influencia. Al combinar la investigación proactiva con herramientas automatizadas innovadoras diseñadas para descubrir vulnerabilidades ocultas dentro de los marcos de IA, los investigadores pueden descubrir y descubrir nuevas vulnerabilidades y exposiciones comunes (CVE). Este enfoque responsable de la divulgación de vulnerabilidades fortalece no solo los sistemas de IA individuales, sino también a la industria en general al generar conciencia y crear protecciones esenciales para combatir amenazas conocidas y emergentes.
Identificar las debilidades es sólo el primer paso. Es igualmente importante traducir la investigación académica en soluciones prácticas y desplegables que funcionen eficazmente en entornos de producción del mundo real. Este puente de la teoría a la práctica se materializa en proyectos en los que el equipo SAI de HiddenLayer ha adaptado conocimientos académicos para abordar los riesgos de seguridad del mundo real, enfatizando la importancia de hacer que la investigación sea viable y garantizar que las defensas sean sólidas, escalables y adaptables a las amenazas en evolución. Al transformar la investigación fundamental en defensas operativas, la industria no solo protege los sistemas de IA, sino que también genera resiliencia y confianza en la innovación impulsada por la IA, protegiendo tanto a los usuarios como a las organizaciones de un panorama de amenazas que cambia rápidamente. Este enfoque proactivo y de múltiples capas es esencial para permitir aplicaciones de IA seguras y confiables que puedan resistir tecnologías adversas actuales y futuras.
Innovando hacia sistemas de IA más seguros
La seguridad en torno a los sistemas de IA ya no puede ser una ocurrencia tardía; Debe integrarse en el tejido de las innovaciones en IA. A medida que avanzan las tecnologías de IA, también lo hacen los métodos y motivaciones de los atacantes. Los actores de amenazas se centran cada vez más en explotar las vulnerabilidades en los modelos de IA, desde ataques adversarios que manipulan los resultados del modelo hasta técnicas de envenenamiento de datos que reducen la precisión del modelo. Para abordar estos riesgos, la industria está avanzando hacia la integración de la seguridad directamente en las etapas de desarrollo e implementación de la IA, convirtiéndola en una parte integral del ciclo de vida de la IA. Este enfoque proactivo promueve entornos de IA más seguros y mitiga los riesgos antes de que surjan, reduciendo el potencial de interrupciones inesperadas.
Tanto los investigadores como los líderes de la industria están acelerando sus esfuerzos para identificar y abordar las vulnerabilidades en evolución. A medida que la investigación en IA pasa de la exploración teórica a la aplicación práctica, nuevos métodos de ataque están pasando rápidamente del discurso académico a la implementación en el mundo real. Adoptar los principios de “diseño seguro” es esencial para establecer una mentalidad que priorice la seguridad, lo que, si bien no es infalible, eleva el listón de las protecciones fundamentales para los sistemas de IA y las industrias que dependen de ellos. A medida que la IA revoluciona sectores desde la atención sanitaria hasta las finanzas, incluir fuertes medidas de seguridad es vital para apoyar el crecimiento sostenible y fomentar la confianza en estas tecnologías transformadoras. Adoptar la seguridad no como una barrera sino como un catalizador para el progreso responsable garantizará que los sistemas de IA sean resilientes, confiables y estén equipados para resistir las amenazas dinámicas y cambiantes que enfrentan, allanando el camino para futuros avances que sean innovadores y seguros.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro