El estudio de Swimlin encontró que muchas empresas no están a la altura de las necesidades energéticas de la IA
Casi tres cuartas partes de ellos son conscientes de los enormes requisitos energéticos necesarios para entrenar modelos de IA.
Solo el 13% monitorea activamente el consumo de energía de la IA, lo que puede indicar un mayor uso de las instalaciones fuera del edificio.
A medida que el paso de algoritmos simples a modelos avanzados aumenta drásticamente los requisitos de energía, la adopción de IA agente, conocida por sus capacidades avanzadas de toma de decisiones, genera preocupación sobre el consumo de energía, según afirma una nueva investigación.
A reconocimiento SambaNova Systems, que incluyó una muestra de más de 2.000 líderes empresariales de EE. UU. y Europa, encontró que el 70% de los líderes empresariales reconocen las importantes demandas energéticas de los modelos de formación corporativa. Herramientas de inteligencia artificialPero sólo el 13% monitorea el consumo de energía de sus sistemas de IA.
Al mismo tiempo, el 37,2% de las empresas se enfrenta a una presión cada vez mayor por parte de las partes interesadas para mejorar la eficiencia energética, y el 42% espera que estas demandas se intensifiquen.
Desafíos con los requisitos de energía de la IA
El aumento de los costos de la energía se ha convertido en un desafío importante, y el 20,3% de las empresas lo identifican como un problema urgente.
Afortunadamente, el 77,4% de las empresas están explorando activamente formas de reducir el uso de energía mejorando sus modelos, adoptando electrodomésticos energéticamente eficientes e invirtiendo en soluciones de energía renovable.
Sin embargo, estos esfuerzos no van a la par de la rápida expansión de los sistemas de IA, lo que deja a muchas empresas vulnerables al aumento de los costos y las presiones de sostenibilidad.
“Los resultados revelan una cruda verdad: las empresas se están apresurando a adoptar la IA, pero no están preparadas para gestionar su impacto energético”, afirmó Rodrigo Liang, director ejecutivo de Sampanova Systems.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
“Sin un enfoque proactivo para aumentar la eficiencia del hardware de IA y el consumo de energía, especialmente ante la creciente demanda de los flujos de trabajo de IA, corremos el riesgo de socavar el progreso que la IA promete ofrecer”, añadió.
“Para 2027, predigo que más del 90% de los líderes estarán preocupados por los requisitos energéticos de la IA. A medida que las empresas integren la IA, abordar la eficiencia energética y la preparación de la infraestructura será esencial para el éxito a largo plazo”.
Un equipo interdisciplinario de investigadores ha explorado el potencial de la covalencia covalente orgánico Marcos (COF) para permitir una transferencia eficiente de energía. Estos materiales modulares y adaptables están diseñados para facilitar una transferencia fluida de energía, incluso a través de imperfecciones estructurales. Mediante el uso de técnicas espectroscópicas avanzadas, el estudio reveló importantes avances en la comprensión de cómo se produce la propagación de energía en estas estructuras cristalinas semiconductoras. Este descubrimiento es muy prometedor para aplicaciones en sistemas fotovoltaicos y diodos emisores de luz orgánicos (OLED), contribuyendo al desarrollo de tecnologías optoelectrónicas sostenibles.
Los resultados se destacan en espectroscopia avanzada.
De acuerdo a el estudia Las películas delgadas de COF, publicadas en el Journal of the American Chemical Society, demostraron notables propiedades de transferencia de energía. Utilizando técnicas avanzadas como la fotoluminiscencia. Examen microscópico Con espectroscopia de terahercios, junto con simulaciones teóricas, los investigadores midieron altos coeficientes de difusión y longitudes de difusión que se extendían a cientos de nanómetros. Estos resultados confirman el rendimiento excepcional de los materiales COF en comparación con estructuras orgánicas similares. Informes phys.org.
Dr. Alexander Bewald, ex candidato a doctorado en Física química y Nanooptics Group, aseguraron a phys.org que la eficiencia de la transferencia de energía se mantuvo intacta incluso a través de los límites de los granos en su declaración a phys.org. Las películas delgadas han excedido las capacidades conocidas de transferencia de energía de materiales relacionados, lo que representa un paso importante en la investigación en ciencia de materiales, señaló en la publicación Laura Spies, estudiante de doctorado en LMU y coautora principal.
Nuevos conocimientos sobre los mecanismos de transporte.
Según la investigación, la propagación de energía en los COF implica procesos tanto coherentes como incoherentes. El transporte coherente permite una transferencia de energía ordenada y con bajas pérdidas, mientras que la difusión incoherente, que requiere activación térmica, opera mediante movimientos irregulares. El profesor Frank Ortmann, uno de los coautores, dijo a phys.org que este mecanismo dual resalta cómo molecular La estructura y organización cristalina afectan la eficiencia de la transferencia de energía.
Los resultados subrayan la importancia de la colaboración interdisciplinaria en el avance de la ciencia de los materiales. Los investigadores expresaron optimismo sobre el papel de los COF en la fotocatálisis y la optoelectrónica, allanando el camino para innovaciones sostenibles en tecnologías energéticas.
Sagence ofrece computación analógica en memoria para redefinir la inferencia de IA
10 veces menos energía y 20 veces menos costes
También proporciona integración con PyTorch y TensorFlow.
Sagence AI ha introducido una arquitectura informática analógica avanzada en memoria diseñada para abordar problemas de potencia, costo y escalabilidad. Amnistía Internacional Inferencia.
Utilizando un enfoque analógico, la arquitectura ofrece mejoras en la eficiencia energética y la rentabilidad, al tiempo que ofrece un rendimiento similar a los sistemas actuales de GPU y CPU.
Este movimiento audaz posiciona a Sagence AI como un disruptor potencial en un mercado que domina. NVIDIA.
Eficiencia y rendimiento
La arquitectura Sagence proporciona beneficios al procesar modelos de lenguaje grandes como Llama2-70B. Cuando se normaliza a 666 000 códigos por segundo, la tecnología de Sagence ofrece resultados con un consumo de energía 10 veces menor, costos 20 veces menores y un espacio en rack 20 veces menor que las principales soluciones basadas en GPU.
Este diseño prioriza los requisitos de inferencia sobre la capacitación, lo que refleja el cambio de enfoque en la informática de IA dentro de los centros de datos. Con su eficiencia y asequibilidad, Sagence ofrece una solución al creciente desafío de garantizar el retorno de la inversión (ROI) a medida que las aplicaciones de IA se expanden hacia una implementación a gran escala.
En el corazón de la innovación de Sagence se encuentra la tecnología de computación analógica en memoria, que integra almacenamiento y computación dentro de las celdas de memoria. Al eliminar la necesidad de almacenamiento discreto y circuitos apilados y programados, este enfoque simplifica los diseños de chips, reduce los costos y mejora la eficiencia energética.
Sagence también utiliza computación profunda por debajo del umbral en celdas de memoria de múltiples niveles (una innovación pionera en la industria) para lograr las ganancias de eficiencia necesarias para la inferencia de IA escalable.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Los sistemas tradicionales basados en CPU y GPU dependen de una programación dinámica compleja, lo que aumenta los requisitos de hardware, la ineficiencia y el consumo de energía. La arquitectura estáticamente programada de Sagence simplifica estas operaciones, reflejando las redes neuronales biológicas.
El sistema también está diseñado para integrarse con marcos de desarrollo de IA existentes como PyTorch, ONNX y TensorFlow. Una vez que se importan las redes neuronales entrenadas, la arquitectura de Sagence elimina la necesidad de un procesamiento adicional basado en GPU, lo que simplifica la implementación y reduce los costos.
“Los avances fundamentales en el hardware de razonamiento de IA son vitales para el futuro de la IA. El uso de grandes modelos de lenguaje (LLM) y la IA generativa está impulsando la demanda de cambios rápidos y masivos en el núcleo informático, lo que requiere una combinación sin precedentes del más alto nivel. rendimiento con la potencia más baja y una economía que iguala los costos y el valor creado ” y fundador de Sagence AI.
“El hardware informático heredado de hoy, capaz de realizar inferencias de IA de alto rendimiento, cuesta demasiado para ser económicamente viable y consume demasiada energía para ser ambientalmente sostenible. Nuestra misión es romper estos límites de rendimiento y economía de una manera ambientalmente responsable”, agregó Sarin.
Google pretende despedir al 10% de sus directivos y adjuntos
Más de 1.300 empleados de Google ya habrán perdido su empleo en 2024
La empresa enfrenta amenazas de competidores y organismos reguladores.
Google Según se informa, planea recortar un 10% de los puestos de director, director y vicepresidente en un esfuerzo continuo por impulsar la eficiencia y mejorar los costos operativos de la empresa.
Noticias (trans Información privilegiada sobre negocios) llega al final de un año preocupante para la empresa: aunque los despidos no se acercaron a los más de 13.000 vistos hasta 2023, cientos perdieron sus puestos de trabajo en la empresa como parte de varias rondas de despidos, incluidos 1.000 a principios de 2024 y otro 300 en mayo (trans Despidos. Para su información).
Se espera que el último cambio, anunciado por el director ejecutivo de Google, Sundar Pichai, en una reunión reciente, simplifique la estructura organizacional.
Google despide a sus directivos
Los empleados familiarizados con el asunto compartieron que algunos roles gerenciales se han eliminado por completo, mientras que otros han pasado a roles no gerenciales. Esta técnica comúnmente utilizada está diseñada para reducir capas en la estructura organizacional de una empresa en un esfuerzo por mejorar la eficiencia.
La verdad es que este es sólo un paso más que forma parte de la ambición general de la empresa de ser más eficiente. Pichai se fijó en septiembre de 2022 el objetivo de ser un 20% más eficiente, y su próxima gran ronda de despidos, que afectará a 12.000 de una sola vez, probablemente abordará una parte importante de ese objetivo.
Pero esto puede no ser suficiente para Google, que se ha visto amenazado en más de un área. Sus esfuerzos en inteligencia artificial ya se han visto debilitados AbiertoAIEl éxito no se puede medir con ChatGPTAhora, esta herramienta amenaza el dominio del mercado de Google.com. Por otra parte, el dominio de Google en el mercado de búsquedas ha sido criticado recientemente, y otras áreas del negocio también se han abierto a posibles acciones regulatorias.
Tecnología Radar Pro Le pedí a Google que confirmara los últimos despidos gerenciales y brindara más contexto, pero no recibimos una respuesta inmediata.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
No se espera que el iPhone 17 Pro y el iPhone 17 Pro Max se lancen hasta la segunda mitad de 2025, si los cronogramas de lanzamiento anteriores de Apple son una indicación. Sólo han pasado unos meses desde entonces. iPhone 16 La serie ya ha sido lanzada, pero los detalles de la próxima generación de teléfonos inteligentes de Apple ya están comenzando a aparecer en línea. Ahora, un informante afirma que Apple está desarrollando tecnología de pantalla avanzada que proporcionará una mayor durabilidad y rendimiento, al tiempo que reducirá el consumo de energía, en sus modelos de iPhone Pro.
Especificaciones del iPhone 17 Pro y iPhone 17 Pro Max (filtradas)
en un correo En X (anteriormente Twitter), el informante @jukanlosreve afirma que Apple utilizará una nueva tecnología de pantalla “TEE de bajo dieléctrico” para los supuestos iPhone 17 Pro y iPhone 17 Pro Max. El usuario afirma que “mejora la eficiencia de la batería, aumenta la durabilidad de la pantalla y mejora el rendimiento general” en comparación con la tecnología actual.
Modelos emblemáticos actuales de Apple: iPhone 16 Pro y iPhone 16 Pro Max – Equipado con pantallas LTPO Super Retina XDR OLED con una frecuencia de actualización entre 1 Hz y 120 Hz. El iPhone 16 Pro tiene una pantalla de 6,3 pulgadas, mientras que el iPhone 16 Pro Max tiene una pantalla más grande de 6,9 pulgadas.
El mes pasado, una publicación de Corea del Sur mencioné Todos los modelos de la serie de teléfonos inteligentes iPhone 17 de Apple estarán equipados con pantallas LTPO OLED, con una frecuencia de actualización de 120 Hz. La última filtración sugiere que los modelos de gama alta de Apple de la serie iPhone 17 llegarán con tecnología de pantalla más avanzada.
Si los informes recientes son precisos, el iPhone 17 y el rumoreado modelo iPhone 17 Air podrían ser los primeros modelos de iPhone no Pro con pantallas ProMotion que pueden actualizarse a 120 Hz. iPhone 16 y iPhone 16 Plus Los modelos están equipados con pantallas OLED Super Retina XDR de 6,1 y 6,3 pulgadas con una frecuencia de actualización de 60 Hz.
Los directores de innovación (CIO) de hoy enfrentan una gran cantidad de decisiones que tomar todos los días, mientras buscan reducir costos, mantener la eficiencia del flujo de trabajo y mejorar las ofertas de servicios a través de nuevas herramientas digitales, ya sea implementando nuevas estrategias de automatización o herramientas de abastecimiento para respaldar la tecnología digital corporativa. esfuerzos de transformación.
Para muchos administradores de TI, simplemente sopesar los pros y los contras entre diferentes proveedores de software y las herramientas que se ofrecen puede ser un desafío en sí mismo, mientras que otros están atrapados en contratos existentes sin saber cómo maximizar su valor.
Elegir entre microsoft 365 francos Google Productividad del espacio de trabajo/Herramientas de colaboraciónPor ejemplo, es una decisión difícil para muchos. Ambos servicios tienen una variedad de características y puede resultar difícil determinar cuál es mejor para su organización para mejorar su eficiencia y ofrecer la mejor relación calidad-precio.
Entonces, ¿por dónde empiezas?
carly largo
Consultor Estratégico, y Max Sankey, Director de Efficio.
Maximice el valor de su plataforma actual
Para aprovechar al máximo la tecnología existente, independientemente del proveedor, es importante buscar oportunidades para agrupar funciones y eliminar herramientas que no necesita; Considere funciones como plataformas de comunicaciones, gestión de identidades y accesos, inicio de sesión único, almacenamiento de archivos, telefonía, Visualización de datosy ciberseguridad EUC e incluso dispositivos EUC. Las empresas pueden considerar la recolección periódica o automatizada de licencias para limitar nuevas compras innecesarias. Para las empresas que aún no han implementado esto, a menudo existe hasta un 20 % de posibilidades de captar usuarios para evitar nuevas compras y aumentar el valor de la plataforma existente.
Saber el momento adecuado para reevaluar
Espacio de trabajo de Google y microsoft 365 Es posible que tengan precios de licencia comparables para usuarios estándar, pero para evaluar eficazmente el costo de cualquiera de los sistemas, es importante comparar el costo total de su conjunto tecnológico más amplio.
Para una revisión más precisa, es importante revisar los perfiles de usuario, la combinación de empleados (a tiempo completo o parcial, por ejemplo), la estacionalidad de la contratación y la rotación de empleados. Por ejemplo, Microsoft ofrece un modelo de licencia más modular para roles específicos en un entorno empresarial (por ejemplo, F vs E, M365 vs O365 y cualquier combinación de complementos), lo que puede generar reducciones de costos significativas si actualmente solo usando una licencia One. El costo de una migración completa entre plataformas puede ser significativo: entre una y tres veces el costo anual de la licencia más el esfuerzo de recursos internos.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
¿Acuerdos contractuales por un año o tres años?
Cuando se trata de gestionar costos y elegir un herramienta de productividad Esto garantizará la eficiencia óptima de su negocio y también es importante considerar el acuerdo contractual. Si nos fijamos en los planes de acuerdo de Google y Microsoft, por ejemplo, el acuerdo de un año de Google es similar al acuerdo de tres años, pero puede excluir el descuento a cambio de la flexibilidad de un compromiso más corto.
Mientras tanto, la Nueva Experiencia Comercial (NCE) o Proveedor de Soluciones en la Nube (CSP) de Microsoft de un año es más flexible y permite compromisos de mes a mes. Esto puede resultar útil para requisitos de licencia estacionales o recortes a mitad de año. Sin embargo, si utiliza NCE/CSP, es necesario revisar el uso mensualmente. Las empresas suelen suscribirse a un NCE/CSP mensual a un precio unitario más alto para obtener más flexibilidad, sin aprovechar las oportunidades reales.
Los acuerdos de tres años de Google y Microsoft suelen ser más adecuados para organizaciones más grandes con crecimiento continuo o creciente. empleado una base. Las ventajas incluyen mejores precios unitarios generales y protección de precios a largo plazo. Una diferencia clave es que el Acuerdo Empresarial de Microsoft también permite a los clientes corregir sus licencias de suscripción en el aniversario del acuerdo de tres años.
Comprender el gasto en la nube para aprovechar las negociaciones
Otra recomendación es que las empresas aprovechen sus gastos y toda la huella de Microsoft o Google durante las negociaciones, especialmente para ver si pueden participar en sus diversos acuerdos.
Si bien los equipos de la nube generalmente dependen de reservas, planes de ahorro y pronósticos para optimizar sus compromisos, las empresas deben asegurarse de comprender los beneficios que pueden utilizar en sus modelos de licencia. Por ejemplo, el principio de “traiga su propia licencia” de Azure puede hacer que comprar un servidor o… SQL A través de EA es más beneficioso que bajo demanda.
¿Precios de Microsoft Copilot o Google Gemini?
Microsoft Copilot (Desarrollado por Abierto AILos cursos avanzados de LLM, como GPT-4) y Google Gemini (impulsado por las tecnologías de inteligencia artificial de Google) tienen como objetivo mejorar la productividad del usuario a través de integraciones de inteligencia artificial dentro de sus ecosistemas. Proporcionan una lista completa de funciones, como creación de contenido, resúmenes, análisis y sugerencias contextuales para empoderar a los equipos y crear eficiencias.
Microsoft y Google ofrecen actualmente precios fijos por usuario para cada unidad de IA, lo que permite a las empresas elegir qué usuarios pueden utilizar la funcionalidad de IA. El precio de lista para cada módulo de IA es similar al precio de una licencia de productividad (Workspace o Microsoft 365), lo que efectivamente duplica su gasto mensual. Sin embargo, muchos de estos nuevos productos complementarios, por ejemplo, Anthropic de GCP, Gemini de Google, Co-pilot de Microsoft y Microsoft Power Automate, se utilizan efectivamente como “edulcorantes” durante las negociaciones para ayudar a asegurar mejores descuentos en productos básicos.
Para reducir costos y mejorar la eficiencia en toda la empresa, los gerentes de TI deben poder comprender sus opciones antes de continuar, especialmente cuando se trata de herramientas de productividad, para evitar molestias innecesarias y acuerdos contractuales prolongados. Sin comprender las características y beneficios que ofrecen las nuevas herramientas digitales y los costos asociados con ellas, muchos gerentes de TI, sin saberlo, aceptan contratos que pueden costarles más de lo que realmente pagan y son menos eficientes.
Antes de considerar nuevas plataformas o servicios digitales, especialmente herramientas de productividad, es importante reevaluar el servicio actual y determinar si se pueden realizar mejoras para maximizar el valor y evitar comprar algo nuevo. Si esta no es una opción, los administradores de TI deben determinar cuándo es el momento de cambiar y si es mejor acordar acuerdos contractuales de uno o tres años.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro
El presidente electo de Estados Unidos, Donald Trump, podría estar trabajando en una aplicación gratuita para la presentación de impuestos
La iniciativa forma parte de los planes de simplificación de DOGE de Elon Musk
Las acciones de Intuit y H&R Block cayeron tras la noticia
Acciones en software de impuestos Los gigantes Intuit y H&R Block se han echado atrás después de que informes afirmaran que el equipo asesor de la administración de Donald Trump podría explorar la creación de una nueva aplicación gratuita para la presentación de impuestos.
el El Correo de Washington Afirmó que el Departamento de Eficiencia Gubernamental (DOGE) propuesto por Trump, un organismo asesor externo dirigido por Elon Musk, podría estudiar la solicitud como parte de los planes para racionalizar las operaciones gubernamentales.
Las dos empresas de software, que actualmente dominan el mercado de la declaración de impuestos, enfrentarían una competencia importante si el gobierno estadounidense ofreciera una alternativa gratuita.
Trump y Musk están considerando una aplicación gratuita para la presentación de impuestos
Si bien las discusiones en torno a la aplicación parecen estar en sus primeras etapas, la posibilidad ha generado preocupación entre las empresas privadas de preparación de impuestos que obtienen ganancias de la presentación de impuestos de ciudadanos estadounidenses.
Actualmente, el IRS ofrece opciones de presentación gratuitas para contribuyentes elegibles que ganan menos de $79,000. La agencia también lanzó Direct File, un programa piloto que se está poniendo a prueba en 12 estados para brindar a 18 millones de contribuyentes acceso gratuito a servicios de presentación de impuestos en línea.
La aplicación respaldada por DOGE se basará en estos esfuerzos existentes, que fueron impulsados bajo la administración Biden-Harris. No está claro si la aplicación estará disponible para todos los contribuyentes estadounidenses.
La portavoz de Intuit, Tania Mercado, comentó (vía CNBC): “Durante décadas, Intuit ha abogado públicamente por simplificar el código tributario de EE. UU. para que las personas, las familias y las pequeñas empresas puedan comprender mejor sus finanzas”.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
La Comisión Federal de Comercio recientemente cierto Tomará medidas contra H&R Block por “comercializar engañosamente sus productos como ‘gratuitos’ cuando no lo eran para muchos consumidores”, entre otras preocupaciones. El acuerdo propuesto hará que H&R Block se comprometa a pagar 7 millones de dólares.
El nuevo refrigerador sin ventilador HPE reduce el consumo de energía del blade de servidor en un 37 %
El sistema utiliza refrigeración líquida directa, que es ideal para tecnologías de inteligencia artificial.
La arquitectura está diseñada para ser escalable según las necesidades del negocio.
Hewlett-Packard Enterprise (HPE) organizó recientemente su evento AI Day 2024, presentando la primera arquitectura de refrigeración líquida directa 100% sin ventilador de la industria.
como la inteligencia artificial (Amnistía Internacional) A medida que las tecnologías continúan evolucionando, el consumo de energía de los aceleradores de próxima generación ha aumentado, superando las capacidades de los métodos tradicionales de refrigeración por aire.
Las organizaciones que ejecutan cargas de trabajo de IA a gran escala ahora buscan soluciones más eficientes para administrar los requisitos de energía de su infraestructura, y hPE ha sido pionera en la tecnología de refrigeración líquida directa, que se ha convertido en una de las formas más efectivas de enfriar sistemas de IA de alto rendimiento. Este enfoque ha permitido a HPE ofrecer siete de los 10 superordenadores con mayor eficiencia energética de la lista Green500.
La refrigeración líquida directa 100% sin ventilador aborda los desafíos de refrigeración en los sistemas de IA
El nuevo sistema de refrigeración está diseñado para mejorar la eficiencia en varias áreas clave HPE Decir que el diseño sin ventilador reduce el consumo de energía de refrigeración en un 90% en comparación con los sistemas de refrigeración por aire tradicionales y proporciona importantes beneficios ambientales y financieros.
El sistema se basa en cuatro elementos básicos. En primer lugar, el sistema utiliza un diseño de refrigeración integral que incluye un sistema de 8 elementos que enfría la GPU, la CPU, el servidor blade, el almacenamiento local, la estructura de la red, el bastidor, el clúster y la unidad de distribución de refrigerante (CDU).
El segundo elemento es que el enfriador sin ventilador también ofrece un rendimiento de alta densidad que admite configuraciones compactas respaldadas por pruebas rigurosas, software de monitoreo y servicios in situ para garantizar una implementación perfecta.
En tercer lugar, para quienes se preocupan por el medio ambiente, el nuevo sistema utiliza un tejido de malla integrado que permite una conectividad generalizada con menores costos y consumo de energía para una arquitectura más sostenible. Finalmente, la arquitectura diseña un sistema abierto que brinda flexibilidad al admitir múltiples aceleradores, lo que permite a las organizaciones elegir las soluciones que mejor se adapten a sus necesidades.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
La arquitectura sin ventilador reduce el consumo de energía de refrigeración en un 37 % por blade de servidor en comparación con los sistemas híbridos refrigerados por líquido, lo que no solo reduce los costos de servicios públicos sino que también reduce las emisiones de carbono y elimina el ruido del ventilador del centro de datos. Además, el diseño permite una mayor densidad de gabinetes de servidores, lo que ayuda a las organizaciones a reducir sus necesidades de espacio a la mitad.
“A medida que las organizaciones adoptan las capacidades que ofrece la IA generativa, también deben avanzar en los objetivos de sostenibilidad, combatir los crecientes requisitos de energía y reducir los costos operativos”, señaló Antonio Neri, presidente y director ejecutivo de HPE.
“El diseño que presentamos hoy utiliza únicamente refrigeración líquida, lo que proporciona mayores beneficios de energía y eficiencia de costos en comparación con las soluciones alternativas en el mercado. De hecho, esta arquitectura de refrigeración líquida directa da como resultado una reducción del 90 % en el consumo de energía de refrigeración en comparación con los sistemas enfriados por aire. ” “Tradicional.”
A pesar de todo el progreso que AMD ha logrado en los últimos años con sus CPU de escritorio Zen, Intel ha logrado en gran medida mantener una ventaja crucial frente a su rival de toda la vida: el rendimiento de los juegos. Para aquellos que buscan obtener todos los fotogramas posibles de los últimos juegos AAA, los recientes procesadores Core 5/7/9 de la compañía a menudo han superado a sus homólogos AMD. Sin embargo, históricamente, este desempeño se ha producido a expensas de la eficiencia energética y térmica. Los mejores procesadores Intel de 13.ª generación son bestias hambrientas de energía. Esto limitó su atractivo, especialmente a medida que las computadoras personales de factor de forma pequeño se hicieron más populares.
El jueves, Intel Detallando los tan esperados procesadores Arrow Lakeanunciando cinco nuevos modelos que llegarán el 24 de octubre. Con las nuevas CPU, Intel promete un cambio de paradigma. En comparación con la generación anterior de chips Raptor Lake, la compañía dijo que su objetivo es reducir el consumo de energía en un 40 por ciento y la temperatura interna del paquete hasta en 10 grados Celsius. A juzgar por los puntos de referencia que Intel compartió antes del anuncio de hoy, la compañía ha hecho precisamente eso.
Intel
El nuevo modelo insignia de Intel, el Ultra 9 285K, presenta un diseño de CPU de 24 núcleos que consta de ocho núcleos de rendimiento “Lion Cove” y 16 núcleos de eficiencia “Skymont”, y un reloj de impulso máximo de 5,7 GHz. Este, junto con el resto de la familia Arrow Lake actual, también viene con una Unidad de procesamiento neuronal (NPU), una novedad en una CPU de escritorio Intel. Pero estas especificaciones no son lo interesante del 285K y sus hermanos.
En cargas de trabajo de “procesos finos”, incluidas tareas como llamadas de Zoom y pruebas comparativas seleccionadas de Cinebench, Intel registró 285K hasta un 58 por ciento menos de energía que el 14900K, el buque insignia de 14.a generación de la compañía. Cuando se trata de rendimiento en juegos, los resultados son aún más interesantes. en Warhammer 40,000: Marines Espaciales 2Por ejemplo, Intel dijo que vio que el 285K ejecutaba el juego un 4% más rápido en promedio, mientras consumía 165 vatios menos de energía. Incluso en los juegos con mayor uso intensivo de GPU como Leyenda Negra: Wukong, El 285K ofrece ganancias de eficiencia prometedoras, e Intel señaló que vio que la CPU consumía 34 vatios menos de la energía total del sistema en comparación con el 14900K.
Estas mejoras de eficiencia se traducen en ganancias térmicas igualmente impresionantes, e Intel señala que sus datos muestran que el 285K funciona, en promedio, aproximadamente 13°C más frío que el 14,900K durante las cargas de juego. El nuevo procesador ofrece un rendimiento similar al de los juegos cuando los usuarios limitan el consumo de energía de los 250 W predeterminados de Intel a 175 W o 125 W. Para aquellos a quienes les gusta optimizar su CPU o planean usar una caja y una placa base ITX para su próxima construcción, esta es una noticia emocionante.
“Creo que es seguro decir que esto representa un cambio importante en nuestra cartera de computadoras de escritorio”, dijo Robert Halleck, gerente general de las unidades de marketing técnico e inteligencia artificial de Intel. “Estoy seguro de que su prueba coincidirá con los números de los que estamos hablando hoy”.
Intel
Sobre el papel, Lake Arrow es exactamente lo que Intel necesita para avanzar hacia la sostenibilidad; Es fácilmente la familia de procesadores de escritorio más eficiente que la empresa ha ofrecido en mucho tiempo. Sin embargo, no está tan claro si esto por sí solo será suficiente para cambiar la suerte de Intel.
A corto plazo, la compañía se enfrenta a un rival AMD que es más competitivo que nunca. A largo plazo, es difícil decir qué parte de la eficiencia de Arrow Lake debería atribuirse únicamente a los ingenieros de Intel. como Más recientemente en 2022la compañía confirmó que construirá los nuevos procesadores utilizando una combinación de su proceso de fabricación 20A y la tecnología de 3 nm de TSMC. Pero luego Intel registró una pérdida de 1.600 millones de dólares en el segundo trimestre de este año y dijo que lo haría. Eliminando más de 15 mil puestos de trabajo En un esfuerzo por reducir los costos en $10 mil millones. Parte de ese plan involucraba Completamente subcontratado Fabricación por terceros de Arrow Lake. En ese momento, Intel no nombró específicamente a TSMC. Sin embargo, la lista de empresas capaces de producir silicio con la densidad y el volumen necesarios para Arrow Lake es muy corta. Con Intel alcanzando un nivel El último obstáculo Para lanzar la próxima generación del proceso 18A, está claro que a la empresa todavía le queda un largo camino por recorrer.
Cuando el Intel Core Ultra 9 285K llegue el 24 de octubre, costará 589 dólares. Para aquellos que buscan una entrada más asequible al ecosistema Arrow Lake de Intel, la compañía también ofrecerá el Ultra 5 245KF de 14 núcleos por $294 y el Ultra 7 265K de 20 núcleos por $394. Junto con su hermano KF, que viene sin la GPU Intel Xe integrada, el 265K parece ser el caballo oscuro de la línea Arrow Lake de Intel. La compañía dijo que el 265K funciona unos 15 grados más frío que el 14900K y consume hasta 188 vatios menos de energía del sistema.
Junto con los nuevos procesadores Arrow Lake, Intel también compartió más información sobre sus próximos procesadores. Flecha Lago H Chips para portátiles, que según la compañía llegarán a principios del próximo año.
Dado el potencial que ofrece la IA, no es de extrañar que todo el mundo se sienta atraído por ella y que las empresas se apresuren a integrarla en su estrategia de red. Según McKinsey, el 65% de las organizaciones encuestadas ya utilizan GenAI con regularidad, lo que representa casi el doble del porcentaje de la última encuesta de IA realizada hace menos de un año. Sin embargo, priorizar la velocidad sobre la estrategia en la adopción de la IA puede provocar errores, incluido el desperdicio de recursos, una formación inadecuada y posibles problemas de compatibilidad de red.
Las empresas deben evitar la trampa de adoptar la IA sólo porque es nueva. Un error común es tratar la IA como una mera adición a productos o servicios existentes. En cambio, las empresas deberían centrarse en el uso. Herramientas de inteligencia artificial Mejorar fundamentalmente sus operaciones y las experiencias que brindan a clientes y socios.
Aunque las empresas pueden considerar convertir modelos completos para que estén basados en IA, a menudo es más efectivo comenzar a implementar IA con casos de uso específicos en mente, asegurando que el valor se obtenga más rápido. Identificar las aplicaciones específicas donde la IA puede tener un impacto permite una implementación más rápida y resultados más inmediatos. Por ejemplo, la implementación de IA en las operaciones de red puede generar ganancias significativas en la detección y solución de problemas y en la eficiencia y el rendimiento generales. Al centrarse en el objetivo Aplicaciones En lugar de un cambio cultural integral, las empresas pueden aprovechar los beneficios de la IA más rápido y con mayor impacto.
Este concepto se ilustra mejor con lo que llamamos el marco ARC, que proporciona un enfoque estructurado para implementar la IA. Este marco identifica tres fases fundamentales en la implementación de la IA: aumento, reemplazo e innovación. Cada etapa representa un paso hacia la maximización del ROI de la IA, mostrando una progresión clara desde mejoras fundamentales hasta transformaciones innovadoras que son fáciles de seguir para las empresas, sin importar dónde se encuentren en su viaje hacia la IA.
Marco Nispel
CTO EMEA en Extreme Networks.
más
La fase inicial, de aumento, implica mejorar las capacidades existentes utilizando inteligencia artificial. Aquí es donde muchas empresas comienzan su viaje hacia la IA. Por ejemplo, la IA se puede utilizar para mejorar las operaciones de TI (AIOps) mediante la automatización de rutinas. Monitoreo de red tareas, incluida la detección y corrección de anomalías y el análisis de la causa raíz, aumentando así la eficiencia y reduciendo el tiempo de inactividad.
Al liberar a los empleados de TI de las tareas manuales, recuperan tiempo para centrarse en los aspectos de mayor valor de su función. Si bien el impulso puede proporcionar beneficios inmediatos, como un mejor rendimiento y menores costos operativos, depender únicamente de esta etapa puede limitar el retorno de la inversión a largo plazo. Muchas organizaciones se encuentran estancadas en este punto, lo que hace que las juntas directivas duden sobre futuras inversiones en IA.
reemplazando
La segunda etapa, que es el reemplazo, implica que la inteligencia artificial se haga cargo de tareas completas que antes realizaban humanos o sistemas heredados. Esta fase proporciona un mayor impulso en eficiencia y ahorro de costes. Por ejemplo, en atención al cliente, Chatbots impulsados por inteligencia artificial Puede reemplazar a los agentes humanos en el manejo de consultas de rutina, liberando recursos humanos para manejar cuestiones más complejas. Esta etapa no sólo refuerza productividad Pero también prepara a la organización para innovaciones más fundamentales.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Al pasar de la extensión al reemplazo, las empresas pueden demostrar mejoras tangibles y generar confianza entre las partes interesadas en el potencial de la IA. Sin embargo, cabe señalar que incluso las actividades de la fase de reemplazo se implementan y planifican mejor con la ayuda de humanos. El personal de TI aún puede aceptar esta fase y verla como una oportunidad integral para fomentar la automatización y la mejora en todos sus departamentos.
Creación
La tercera etapa y la más transformadora es la creación. Aquí es donde se desata el verdadero potencial de la IA, ya que va más allá de simplemente mejorar o reemplazar los procesos existentes. Se convierte en un catalizador de modelos de negocio y flujos de ingresos completamente nuevos. Tomemos como ejemplo los estadios deportivos. Los organizadores pueden usar IA para analizar datos en tiempo real sobre el comportamiento y las preferencias de los fanáticos, lo que les permite personalizar sus preferencias. Experiencias de clientes Recomendando artículos o mercancías en concesión en base a compras anteriores. Además, la IA puede identificar oportunidades lucrativas de patrocinio analizando la demografía de los fanáticos y la participación en tiempo real en aplicaciones o áreas específicas del estadio.
Esta etapa demuestra el retorno de la inversión a largo plazo de la IA y su papel para sostener el crecimiento empresarial. Al crear nuevas propuestas de valor a través de la IA, las organizaciones pueden abordar cualquier inquietud que tenga el director financiero de su empresa con respecto a la rentabilidad de las inversiones en IA. La fase de creación encarna el objetivo final de la aplicación de la IA: fomentar la innovación y hacer avanzar a las empresas mediante la creación de capacidades completamente nuevas.
Otras consideraciones
El marco ARC ofrece un enfoque poderoso para integrar la IA en los procesos comerciales, pero es importante darse cuenta de que sus fases pueden ocurrir simultáneamente, no solo secuencialmente. Esta flexibilidad permite a las empresas abordar diferentes aspectos de sus operaciones simultáneamente, creando un proceso de implementación más dinámico y receptivo. A diferencia de desarrollos tecnológicos anteriores, la IA generativa avanza tan rápido que las tres fases del marco ARC (aumento, reemplazo y generación) a menudo se superponen y operan en paralelo. En cada etapa, la asistencia humanitaria y el liderazgo siguen siendo esenciales.
Para aprovechar plenamente el poder de la IA, las empresas deben reimaginar cada aspecto del recorrido y el ciclo de vida del usuario. Esto incluye la aplicación de conocimientos y soluciones basados en IA en cada paso, desde la capacitación y la habilitación hasta las operaciones diarias. Cada etapa debe estar dotada de IA para mejorar y transformar la experiencia general.
Una estrategia de IA eficaz también debe ser agnóstica y aprovechar todas las tecnologías disponibles sin quedar atrapado en ninguna de ellas. Esta flexibilidad de los proveedores permite a las organizaciones adaptarse e integrar nuevos desarrollos a medida que surgen, lo cual es esencial dada la evolución continua de la IA. Además, es fundamental garantizar una integración perfecta entre todas las personas y dispositivos. Esta conectividad de extremo a extremo respalda la implementación de IA en diferentes puntos de contacto, mejorando su efectividad y alcance.
conclusión
La IA es más que una simple actualización tecnológica; Es una fuerza transformadora que puede redefinir experiencias empresariales completas. Para los CIO y líderes empresariales, la adopción de la IA requiere un cambio fundamental en la forma en que se conceptualizan las interacciones con clientes, socios y proveedores. En lugar de ver la IA como una simple mejora, debería ser fundamental para el diseño y la arquitectura empresarial. Este enfoque puede remodelar experiencias, procesos, estructuras organizativas y modelos de negocio.
Si bien la GenAI acapara gran parte de la atención, el verdadero potencial radica en el desarrollo de ecosistemas integrales de IA que integren múltiples tecnologías con las infraestructuras existentes, impulsando una mayor productividad e innovación. En lugar de sucumbir al FOMO y apresurarse a adoptar la IA, las empresas deberían adoptar una estrategia centrada y basada en casos, guiada por el marco ARC, para maximizar el retorno de la inversión. Esto garantiza que la IA se convierta en una parte integral del negocio a largo plazo, proporcionando beneficios tangibles, justificando las inversiones para las partes interesadas y fomentando el apoyo continuo para futuras iniciativas de IA.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro