La instancia U7inh tiene 1920 vCPU y 32 TB de memoria, y puedes ejecutar 4 de ellos.
La necesidad de mantener las cargas de trabajo de SAP es lo que animó a HPE a trabajar con AWS
Sin embargo, también está el hecho de que HPE puede ayudar a AWS a conseguir clientes nuevos y lucrativos.
A medida que las empresas enfrentan un crecimiento incesante de datos, desafíos como los silos de datos y los sistemas heredados obsoletos, como los servidores basados en Unix, obstaculizan cada vez más el progreso.
HPE posiciona su Compute Scale-up Server 3200, que lanzará en 2023, como una respuesta a estos desafíos, prometiendo escalabilidad y rendimiento para aplicaciones de misión crítica.
El servidor admite cargas de trabajo como SAP HANA y ERP con hasta 16 sockets y 32 TB de memoria compartida, lo que permite una escalabilidad perfecta y una reducción del servidor. Desarrollado por 4G Intel Los procesadores Xeon escalables (Sapphire Rapids), duplican el número de núcleos, integran aceleradores de IA y cuentan con memoria DDR5 con PCIe 5.0 para mejorar el rendimiento y el ancho de banda, ideales para aplicaciones con uso intensivo de datos.
¿Erosión de la cuota de mercado interno?
AWS ahora ha anunciado la disponibilidad general de una nueva versión Amazonas Instancia Elastic Compute Cloud (Amazon EC2) U7inh-32tb.480xlarge que se ejecuta en un servidor HPE Compute Scale-up Server 3200 de 16 sockets construido en AWS Nitro.
Si bien esto suena como un movimiento positivo para los clientes de HPE, genera preocupaciones sobre las implicaciones estratégicas.
La nueva instancia AWS U7inh cuenta con 1920 vCPU, 32 TB de memoria DDR5, ancho de banda EBS de 160 Gbps y ancho de banda de red de 200 Gbps. “Puede ejecutar sus cargas de trabajo de bases de datos en memoria más grandes, como SAP HANA, o migrar sin problemas cargas de trabajo que se ejecutan en hardware HPE a AWS”, afirma AWS.
como Registro Sin embargo, tenga en cuenta que AWS anuncio De las notas de la nueva oferta, “Los clientes que actualmente ejecutan servidores HPE en las instalaciones también han preguntado cómo podemos ayudarlos a migrar a AWS para aprovechar los beneficios de la nube mientras continúan usando el hardware HPE”.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Al asociarse con AWS, HPE potencialmente abre la puerta para que el gigante de la nube llegue a clientes que ejecutan cargas de trabajo críticas en las instalaciones y que puedan estar considerando la migración a la nube.
El informe advierte que las credenciales a largo plazo todavía representan un riesgo de seguridad importante
Las claves de acceso heredadas aumentan las vulnerabilidades en las plataformas en la nube
La gestión automatizada de credenciales es fundamental para la seguridad en la nube
como Computación en la nube La adopción continúa aumentando y las organizaciones dependen cada vez más de plataformas como Amazonas servicios web (AWS), microsoft azur, y Google Sin embargo, esto significa que sus riesgos de seguridad también son cada vez más complejos.
El último estado de seguridad en la nube de Datadog para 2024El informe revela un problema particularmente preocupante: el uso de credenciales de larga duración, que plantean importantes amenazas a la seguridad en todos los principales proveedores de nube.
A pesar de los avances en las herramientas y prácticas de seguridad en la nube, muchas organizaciones todavía utilizan credenciales a largo plazo, que no caducan automáticamente.
La difusión de credenciales duraderas
Las credenciales de larga data, especialmente aquellas que ya no se administran de manera eficaz, pueden ser un blanco fácil para los atacantes. Si se filtra o se ve comprometido, podría proporcionar acceso no autorizado a datos o sistemas confidenciales. Cuanto más tiempo permanezcan estas credenciales en su lugar, sin rotación ni supervisión, mayor será el riesgo de que se produzca una violación de la seguridad.
El informe de Datadog revela que casi la mitad de las organizaciones (46%) todavía tienen usuarios no administrados con credenciales a largo plazo. Estas credenciales son particularmente problemáticas porque a menudo están integradas en varios activos, como el código fuente, imágenes de contenedores y registros de compilación. Si estas credenciales no se administran adecuadamente, pueden filtrarse o exponerse fácilmente, proporcionando un punto de entrada para que los atacantes accedan a sistemas y datos críticos.
Casi dos tercios del 62 % de las cuentas de Google Cloud, el 60 % de los usuarios de AWS Identity and Access Management (IAM) y el 46 % de las aplicaciones Microsoft Entra ID tienen claves de acceso que tienen más de un año.
En respuesta a estos riesgos, los proveedores de la nube han dado grandes pasos para mejorar la seguridad. El informe de Datadog señala que la adopción de barreras de seguridad en la nube va en aumento. Estas barreras de seguridad son reglas o configuraciones automatizadas diseñadas para hacer cumplir las mejores prácticas de seguridad y evitar errores humanos.
Suscríbase al boletín informativo TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Por ejemplo, el 79% de los depósitos de Amazon S3 ahora tienen habilitados bloques de acceso público a nivel de cuenta o específicos del depósito, en comparación con el 73% del año anterior. Sin embargo, aunque estas medidas proactivas son un paso en la dirección correcta, las credenciales a largo plazo siguen siendo un importante punto ciego en los esfuerzos de seguridad en la nube.
Además, añade el informe, existe claramente una gran cantidad de recursos en la nube con configuraciones demasiado permisivas.
Se descubrió que alrededor del 18 % de las instancias AWS EC2 y el 33 % de las máquinas virtuales de Google Cloud tenían permisos confidenciales que podrían permitir a un atacante comprometer el entorno. En los casos en que una carga de trabajo en la nube se ve comprometida, estos permisos confidenciales pueden aprovecharse para robar las credenciales asociadas, lo que permite a los atacantes acceder al entorno de la nube más amplio.
Además, existe el riesgo de integraciones de terceros, que son comunes en los entornos de nube modernos. Se encontró que más del 10% de las integraciones de terceros examinadas en el informe tenían permisos de nube riesgosos, lo que podría permitir al proveedor acceder a datos confidenciales o controlar toda su cuenta de AWS.
Además, el 2% de estos roles de terceros no exigen el uso de identificadores externos, lo que los hace vulnerables a un ataque de “adjunto confuso”, un escenario en el que un atacante engaña a un servicio para que utilice sus privilegios para realizar acciones no deseadas.
“Mis hallazgos Estado de la seguridad en la nube 2024 “Esto sugiere que no es realista esperar que las credenciales a largo plazo puedan gestionarse de forma segura”, afirmó Andrew Krug, jefe de defensa de seguridad de Datadog.
“Además de que las credenciales a largo plazo presentan un riesgo significativo, el informe encontró que la mayoría de los incidentes de seguridad en la nube son causados por credenciales comprometidas. Para protegerse, las empresas necesitan proteger sus identidades con medios modernos”. Autenticación “Mecanismos que aprovechan credenciales de corta duración y monitorean cambios en las API comúnmente utilizadas por los atacantes”, agregó Krug.
Ahora que la IA ya está cambiando industrias y negocios en todo el mundo, la carrera hacia la próxima gran interacción con la tecnología ha comenzado.
Habiendo desempeñado un papel de liderazgo en ayudar a construir y crear los sistemas detrás de muchos casos de uso empresarial para la IA generativa, Amazonas Los servicios web han querido reforzar sus credenciales recientemente Re-AWS: inventado en 2024 evento, con una gran cantidad de actualizaciones y nuevos lanzamientos.
TechRadar Pro se sentó con una de las mentes líderes en inteligencia artificial de la compañía para obtener más información y saber cómo es muy probable que el futuro del trabajo se centre en gran medida en la inteligencia artificial.
Más potente, con más opciones
“Lo que Amazon hace realmente bien es tomar tecnologías como la IA generativa y aplicarlas a escala a problemas empresariales del mundo real”, nos dijo Vassie Filomin, vicepresidente de IA generativa de AWS, en una sesión informativa grupal en re:Invent.
“No nos permitimos tomar tecnología y hacerla por el simple hecho de hacerlo; queremos aplicarla a problemas reales y hacerlo a escala”.
Philomene señala cómo Code Whisperer, que él ayudó a crear y que ahora se conoce como Amazon Q Developer, se creó en un momento en el que crecía el revuelo en torno a la IA generativa y ahora ha ayudado a lanzar un gran impulso dentro de AWS para crear construcciones verdaderamente útiles e intuitivas. servicios.
“Podríamos haber construido otro chatbot “Y publicarlo”, recuerda sobre el lanzamiento, “habría sido lo más fácil de hacer, pero hicimos algo más, que fue dar un paso atrás y pensar realmente: '¿Qué necesitan las empresas?' no es sólo un chatbot, es mucho más poderoso”.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Philomen explica cómo los clientes de IA de AWS suelen ser constructores o desarrolladores, por lo que quieren crear productos y anhelan nuevos servicios y herramientas que les permitan crear algo completamente nuevo.
“Queremos reunirlo todo para que nuestros clientes tengan opciones”, dice, y agrega que las opciones son otro factor crítico, ya que AWS busca brindar acceso a más modelos que cualquier otro proveedor.
“Tener un modelo no ayuda a crear aplicaciones; necesita flujos de trabajo que funcionen en todos los modelos que le ayuden a crear aplicaciones”, agrega, destacando el papel de las barreras de seguridad en el establecimiento de políticas en toda la empresa en torno a las aplicaciones creadas con la plataforma Bedrock de AWS. puede o no hacerlo, por ejemplo, hablar de competidores o mencionar política.
Agentes con visión de futuro
Los agentes impulsados por IA desempeñarán un papel importante en la próxima generación de tecnología empresarial, y Philomin describe el trabajo de AWS en colaboración entre múltiples agentes como “probablemente el lanzamiento con mayor visión de futuro” de los últimos tiempos.
“Creo que la IA generativa en general irá en esta dirección, ya que la idea de que las empresas opten por exponer su lógica empresarial, impulsada por la IA generativa, la expondrá como clientes”.
“Para mí, un agente es un agente digital, si se le da un conjunto de recursos y ese agente puede ir y resolver el problema que tú le das”, señala, “el agente automatiza el trabajo, y no solo chatea contigo, pero en realidad también lo hace”. Hay algo detrás de esto.”
“Refleja el mundo real, donde los humanos trabajan juntos de cierta manera para hacer las cosas”, agrega, señalando que es como contratar a un nuevo empleado y luego ponerlo al día sobre la cultura, los principios, el liderazgo y las políticas de su empresa. Enséñeles las herramientas que utiliza para realizar el trabajo: solo una versión digital.
Philomene también esboza una visión más amplia, en la que un supervisor general, o “superagente”, se sentaría por encima de los subagentes especializados, donde “la idea es que el supervisor se coordinará entre ellos… y resolverá un problema mucho mayor. ” No sólo usándolos de forma independiente, sino haciéndolos cooperar entre sí.
“Puedes imaginarte ahora, en el futuro, hacia dónde se dirige esto: puedes establecer diferentes tipos de estructuras organizativas, con agentes, y luego ver cómo se desempeñan como grupo”.
(Crédito de la imagen: Futuro/Mike Moore)
Entonces, cuando los agentes asumen estas posiciones organizacionales, ¿dónde deja eso al agente humano? “La pregunta que surge una y otra vez es: ¿la IA generativa reemplazará a los humanos? No lo creo en absoluto”, señala Philomene.
“En mi opinión, lo que sucederá es que dejarán el trabajo mundano, aburrido e indiferenciado a la IA, y se concentrarán más en hacer el trabajo que realmente anhelan hacer, y eso es cierto en todas las industrias”.
Esto incluye hacer que los desarrolladores de software sean más productivos al dejar el código servil (“las cosas aburridas”, como lo llama Philomen) a la IA, así como resaltar cómo los robots Kiva en los centros logísticos de Amazon realizan “trabajos serviles e indiferenciados” como el trabajo pesado. Montones de estantes, pero no reemplazan a los trabajadores humanos, que pasan a otras tareas, con el resultado final de un aumento del empleo humano en general.
“Es simplemente un excelente punto de partida”, dice Philomene. “Los humanos no competirán contra la IA; competirán contra otros humanos que utilizan la IA… y estás en desventaja si no quieres eso. ” Usar un dispositivo es como decir No quiero usar un teléfono inteligente: serás menos productivo que los demás.
(Crédito de la imagen: Shutterstock/LookerStudio)
A medida que la IA se infiltra cada vez más en nuestras tareas diarias, ¿cuáles son las preocupaciones? Como ocurre con cualquier tecnología nueva, es probable que al ciclo inicial de exageración le siga una adopción generalizada, que a su vez requiere regulación y escrutinio.
“Tenemos que encontrar un equilibrio entre no reprimir la innovación y, al mismo tiempo, abordar los desafíos”, señala Philomene.
“La IA responsable es un desafío en el que hemos trabajado mucho: la IA debe regularse adecuadamente, se necesita desesperadamente, pero si cada país establece su propia regulación y no hay nada en común, asfixiaremos la innovación”.
“Estamos trabajando con los organizadores para asegurarnos de que al menos hablen entre ellos y de que haya un acuerdo común”.
“No es que los desafíos sean difíciles de superar, sino que necesitamos tiempo para superarlos… Es una tecnología muy nueva, y también está evolucionando; hay mucha investigación detrás de escena”.
Por lo tanto, AWS se ha posicionado firmemente a la vanguardia de la era de la IA empresarial y Philomin concluye señalando que la empresa está bien posicionada para mantener esa posición en el futuro.
“Todo tiene una razón por la que lo lanzamos”, señala, “Amazon piensa en todo el espectro: pensamos de manera integral, por eso nos lleva tiempo… y eso es lo que nos diferencia de los demás, ¿quién es?” Piensa en una cosa, no en todo”.
“Cuando tienes tecnología de este tamaño, es algo que ocurre una vez en la vida; creo que puede ser tan grande como Internet, si no más grande… Creo que el potencial está ahí, y ahora tenemos ejecutar”.
Dado que una demanda sin precedentes de servicios de IA ejerce una presión sobre los centros de datos y la infraestructura como nunca antes, no sorprende que surjan preguntas sobre las implicaciones ambientales.
Como uno de los proveedores de datos y nube más grandes del mundo, Amazonas AWS tuvo que abordar rápidamente estas preocupaciones y demostrar que tenía responsabilidades en materia de prácticas efectivas de sostenibilidad.
Tuve que hablar con la empresa recientemente. Re-AWS: inventado en 2024 Llegamos a Las Vegas para intentar aprender más sobre cómo se ve exactamente este punto de vista en la práctica.
Energía más verde
“Estamos en la mesa y a la vanguardia de la conversación cuando se trata de cómo satisfacer esta demanda”, dijo Chris Walker, director de sostenibilidad de AWS, cuando le pregunté cómo ve la empresa su dirección ecológica. .
“Dada la escala que tenemos… cualquier cambio aparentemente pequeño (en el proceso) es un cambio enorme”.
Señala que hay dos esfuerzos principales para AWS, el primero de los cuales es “evolucionar” para utilizar más soluciones energéticas libres de carbono.
“Hemos sido el mayor integrador de energías renovables durante los últimos cuatro años consecutivos”, añade, “y ya hemos empezado a pensar en qué otras herramientas podemos añadir en términos de desarrollo de nuestra estrategia”.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Esto incluye reactores nucleares y pequeños reactores modulares (SMR), y AWS anunció recientemente tres nuevos acuerdos para construir este tipo de plataformas en EE. UU. para ayudar a satisfacer la demanda de energía.
También hay un impulso para aumentar la eficiencia, tanto por diseño como reduciendo el uso de energía mecánica simplificando el diseño de componentes, pero también diseñando un enfriamiento más libre en climas menos exigentes, hasta el nivel del chip, lo que Walker señala que proporciona el nuevo Trainium2 de AWS. hasta tres veces más eficiente que su predecesor.
“Si bien puede parecer nuevo para la industria, la demanda y el ritmo que estamos viendo crecer no son nuevos para AWS”, agrega. “Hemos preparado el diseño de nuestros centros de datos para el futuro y la forma en que escalamos nuestros edificios físicos, pero no lo son”. también nuestras redes y procesos lógicos y cómo continuamos innovando”. En nuestros diseños y satisfaciendo no solo los requisitos de energía, sino el crecimiento general de la demanda… Lo hemos hecho durante la última década, y quién sabe lo que nos depara el futuro, pero Tenemos mucha confianza en lo que nos estamos acercando y en cómo hemos podido prepararlo para el futuro.
Economía circular
Walker señala que el otro enfoque importante de sostenibilidad de AWS gira en torno a la economía circular.
Walker dice que lleva 12 años en AWS, por lo que ha sido testigo de primera mano de la evolución de sus centros de datos y, por tanto, del final de la vida útil de los componentes utilizados allí.
“Es emocionante para nosotros centrarnos en asociarnos con nuestros equipos de ingeniería de hardware y nuestros equipos de diseño para implementar y diseñar mejor, que es el primer elemento de nuestra economía circular”, señala.
“Cuanto más podamos tener conversaciones y brindar retroalimentación sobre este proceso, ahí es donde marcaremos la diferencia, y ahí es donde creemos que hay mayor potencial de impacto y progreso”.
Esto incluye garantizar que los componentes funcionen por más tiempo. AWS reveló recientemente más sobre sus objetivos Reutilizar y reciclar componentes de sus centros de datos, incluido el hecho de que más del 99% de todos los bastidores de AWS desmantelados se enviaron de forma segura a los centros de Amazon re:Cycle Reverse Logistics para este propósito.
Walker agrega que los servidores ahora son capaces de operar durante seis años, en comparación con hace cinco años, y muchos servidores Amazon S3 ahora consolidan discos duros no funcionales en niveles de bastidor único, lo que permite una vida útil extendida de hasta dos años más de lo esperado anteriormente. .
La recuperación también es otro foco clave, con 23,5 millones de componentes reutilizados o revendidos en el mercado secundario desde 2023; Walker también señaló que el foco ahora también está impactando el diseño de nuevos dispositivos para garantizar que también puedan reutilizarse fácilmente.
(Crédito de la imagen: Amazonas)
“Confiamos y mantenemos nuestro compromiso de alcanzar cero emisiones netas de carbono para 2040”, señala Walker, destacando cómo la empresa logrará su objetivo de funcionar con energía 100% renovable en 2023, siete años antes de lo previsto, así como su enorme producción. grandes avances en sus esfuerzos por ser positivos en materia de agua.
Con las preocupaciones medioambientales surgiendo en todo el mundo, existe claramente una oportunidad para que empresas gigantes como Amazon asuman un papel de liderazgo, no sólo en la creación de conciencia, sino también en dar ejemplo.
“Se trata de tener conversaciones honestas y ser lo más transparentes posible”, señala Walker. “Existe el nivel adecuado de tensión saludable… (pero) hay que ser intencional cuando se habla de (sostenibilidad)”.
“Dado nuestro tamaño y escala, tenemos una responsabilidad”, añade, destacando cómo la empresa ha acogido a figuras gubernamentales de todos los niveles para demostrar la importancia de la sostenibilidad y trabajar juntos para lograr estos principales objetivos.
“En última instancia, en toda la organización sabemos que no lo tenemos todo resuelto, pero continuaremos innovando y evolucionando”, concluye Walker.
Pero con sus recursos y escala aparentemente infinitos, si alguien puede dar estos importantes pasos hacia adelante, es AWS.
“Cuando se piensa en emisiones netas de carbono cero para 2040, es fácil pensar: 'Es sólo energía, o es sólo agua… pero requiere un enfoque muy intencional: no es sólo una solución milagrosa'.
Tenstorrent se posiciona como una alternativa viable a Nvidia
La startup planea aumentar la contratación en puestos de ingeniería tras la nueva financiación.
La interoperabilidad es un gran atractivo de Tenstorrent
La startup de chips de IA Tenstorrent ha conseguido 700 millones de dólares en financiación como parte de una ronda de inversión que valora a la empresa en 2.600 millones de dólares.
La inversión fue liderada por AFW Partners y Samsung Valores, también incluidos compromisos de financiación LG Electronics, Fidelity y Bezos Expeditions, la firma de capital riesgo que lanzó Amazonas CEO Jeff Bezos.
La compañía dice que esta financiación desempeñará un papel clave al permitirle ampliar su plantilla, desarrollar aún más las capacidades de la cadena de suministro y construir servidores de capacitación en inteligencia artificial para mostrar sus tecnologías.
Gran expansión
Tenstorrent se especializa en el desarrollo de chips potentes y rentables destinados específicamente al desarrollo de inteligencia artificial. Cabe señalar que la empresa utiliza Código abierto La tecnología está en desarrollo y permitirá reemplazar la costosa memoria de gran ancho de banda (HBM) que se utilizaba actualmente. NVIDIA.
Asimismo, también pone gran énfasis en la interoperabilidad con otros proveedores y ha sido un firme defensor de la arquitectura de procesador de estándares abiertos RISC-V.
Es este aspecto de las operaciones de la empresa lo que hace que la empresa con sede en Santa Clara sea una alternativa atractiva a Nvidia, según el director ejecutivo Jim Keller.
“No puedes vencer a Nvidia si la usas hbmporque Nvidia es la que compra más HBM y tiene una ventaja de costes. “Pero nunca podrán bajar el precio de la forma en que HBM está integrado en sus productos y enchufes”, dijo Keller en un comunicado.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Las empresas se han esforzado por buscar alternativas a Nvidia en los últimos años en medio de su rápido ascenso a la prominencia en la industria tecnológica global, y Tenstorrent es una de las empresas que pretende llenar este vacío.
En marzo de 2024, la startup de chips de IA Taalas, con sede en Toronto, obtuvo 50 millones de dólares en financiación, con el objetivo nuevamente de desafiar la centralización de GPU en la industria creada por el dominio de Nvidia.
Aunque Tenstorrent es todavía una empresa relativamente pequeña, ya ha conseguido contratos por valor de casi 150 millones de dólares y se está expandiendo significativamente.
Los primeros chips de la compañía que llegaron al mercado se fabricaron como parte de un acuerdo con GlobalFoundries. el Lanzar Grayskullel reemplazo de Tenstorrent para RISC-V, está diseñado para ser mucho más fácil de programar y expandir.
La futura serie de chips se construirá mediante un acuerdo con TSMC y Samsung. Esto incluye el desarrollo de un acelerador de IA de 2 nm, pero aún no se han determinado los detalles exactos sobre las fechas de lanzamiento.
A largo plazo, la empresa tiene la intención de lanzar un nuevo procesador de IA cada año.
AWS presenta una nueva forma para que los clientes compren software empresarial y de socios
Comprar con AWS tiene como objetivo simplificar el proceso de compra
Los clientes pueden agregar opciones como pruebas gratuitas y solicitar demostraciones.
La compra de servicios de software nuevos o actualizados de AWS será mucho más fácil gracias a un nuevo lanzamiento de la empresa.
en eso Re-AWS: inventado en 2024 En el evento, el gigante de los servicios en la nube presentó un nuevo botón “Comprar con AWS” que permite a los usuarios comprar en la empresa con solo un clic.
El servicio estará disponible para cualquier empresa que venda sus productos a través de AWS Marketplace, ayudándoles a impulsar la visibilidad y el descubrimiento para nuevos clientes y socios.
Compra usando AWS
(Crédito de la imagen: AWS)
Al igual que su actual herramienta de compras para consumidores Comprar con Prime, la compañía dice que el nuevo botón Comprar con AWS permitirá compras rápidas y seguras, y los usuarios simplemente tendrán que iniciar sesión en su cuenta de AWS para completar la transacción.
Estar completamente dentro de AWS Marketplace también significa que los clientes pueden disfrutar de facturación consolidada y consolidada y administrar sus suscripciones en un solo lugar, incluido el acceso a actualizaciones y ofertas actualizadas.
Los usuarios también podrán solicitar demostraciones, acceder a pruebas gratuitas y enviar solicitudes de costos, con acceso a herramientas de optimización de costos que también les permitirán obtener la mejor oferta posible.
“AWS Marketplace es una tienda digital seleccionada donde puede encontrar, comprar, implementar y administrar soluciones en la nube de socios”, decía una publicación del blog de la empresa que anuncia la noticia. “Comprar con AWS es otro paso hacia AWS Marketplace, lo que le facilita encontrar y comprar las soluciones de socios adecuadas, cuando y donde las necesite”.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Wiz, Bytes, Databricks y más ya se han registrado en el servicio, y muchos más se unirán pronto.
El servicio ya está disponible; puede obtener más información. aquí.
AWS revela comprobaciones de inferencia automatizadas
La nueva herramienta buscará reducir las alucinaciones de la IA comparando las respuestas con los datos de los clientes.
Los clientes recibirán respuestas de IA para ver qué tan precisas son
Las empresas lo utilizan cada vez más Herramientas de inteligencia artificial Dadas sus operaciones y misiones clave, las alucinaciones han demostrado ser cada vez más desafiantes.
Para tratar de abordar esto, Amazonas AWS ha anunciado una nueva herramienta para abordar las alucinaciones.
revelado en Re-AWS: inventado en 2024 En este evento, un nuevo sistema automatizado de verificación del razonamiento busca reducir los errores potencialmente dañinos causados por alucinaciones, que podrían dejar a las empresas enfrentando riesgos de seguridad o pérdidas financieras.
¿El fin de las alucinaciones de la inteligencia artificial?
En su nivel más básico, las alucinaciones ocurren cuando un sistema o servicio de IA se comporta incorrectamente o se vuelve poco confiable, a menudo debido a problemas con errores en los datos con los que fue entrenado.
Descrita por la empresa como “la primera y única protección pública de IA que ayuda a prevenir errores fácticos debido a alucinaciones de modelos”, AWS Automated Inference Checks busca resolver este problema comparando las respuestas generadas por el modelo con la información proporcionada por el cliente. Si no puede determinar si la respuesta coincide exactamente, la respuesta se devuelve al formulario para su verificación.
Disponibles como parte de Amazon Bedrock Guardrails, el sistema de la compañía para mantener los modelos de IA precisos y confiables, las nuevas pruebas también intentarán ver cómo llegó el modelo a su respuesta y, si lo considera incorrecto, lo comparará con las respuestas del cliente. . Información.
Luego presentará su respuesta junto con la respuesta inicial del modelo, lo que significa que los clientes pueden ver la brecha potencial entre la verdad y la respuesta y ajustar su modelo en consecuencia.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
AWS dio un ejemplo de un proveedor de atención médica que utiliza la herramienta para garantizar que las consultas de los clientes sobre políticas específicas obtengan respuestas precisas.
“Con el tiempo, a medida que la IA generativa transforme más negocios y experiencias de los clientes, la inferencia se convertirá en una parte esencial de cada aplicación”, afirmó el Dr. Swami Sivasubramanian, vicepresidente de IA y datos de AWS.
“Con el lanzamiento de estas nuevas capacidades, estamos innovando en nombre de los clientes para resolver algunos de los desafíos más importantes, como las alucinaciones y los costos, que enfrenta toda la industria al pasar a producción aplicaciones de IA generativa”.
Servicios web de Amazon (Os) lanzó un nuevo servicio en su conferencia en curso, re:Invent, que ayudará a las organizaciones a reducir los casos de alucinaciones de inteligencia artificial (IA). La herramienta de verificación de inferencia automatizada lanzada el lunes está disponible para vista previa y se puede encontrar en Amazon Bedrock Guardrails. La compañía afirmó que la herramienta verifica matemáticamente la precisión de las respuestas generadas por grandes modelos de lenguaje (LLM) y evita errores de alucinaciones en la vida real. Es similar a la función Grounding with Google Search disponible tanto en la API de Gemini como en Google AI Studio.
Comprobaciones de inferencia automatizadas de AWS
Los modelos de IA suelen generar respuestas incorrectas, engañosas o ficticias. Esto se conoce como alucinación de IA y el problema afecta la credibilidad de los modelos de IA, especialmente cuando se utilizan en el ámbito empresarial. Si bien las empresas pueden mitigar el problema hasta cierto punto entrenando un sistema de IA con datos regulatorios de alta calidad, los datos previos al entrenamiento y las fallas arquitectónicas aún pueden hacer que la IA alucine.
AWS detalló su solución a las alucinaciones de IA en un documento Publicación de blog. El verificador heurístico automatizado se introdujo como una nueva protección y se agregó en una versión preliminar dentro de Amazon Bedrock Guardrails. Amazonas Explicó que utiliza “procesos de inferencia y verificación algorítmica basados en lógica” para verificar la información generada por los LLM.
El proceso es claro y directo. Los usuarios deberán cargar documentos relevantes que describan las reglas de la organización en la consola de Amazon Bedrock. Bedrock analizará automáticamente estos documentos y creará una política de inferencia automática inicial, que convertirá el texto en lenguaje natural a un formato matemático.
Una vez hecho esto, los usuarios pueden ir al menú Inferencias automáticas en la sección Medidas preventivas. Allí se puede crear una nueva política y los usuarios pueden agregar documentos existentes que contienen la información que la IA debería aprender. Los usuarios también pueden configurar los parámetros de procesamiento y el objetivo de la política manualmente. Además, también se pueden agregar preguntas y respuestas de muestra para ayudar a la IA a comprender la interacción típica.
Una vez hecho todo esto, la IA estará lista para implementarse y el verificador heurístico automatizado comprobará automáticamente si el chatbot da alguna respuesta incorrecta. Actualmente, la herramienta está disponible para versión preliminar en la región de AWS Oeste de EE. UU. (Oregón). La empresa planea extenderlo pronto a otras regiones.
Con AWS re:Invent en marcha, la compañía ya ha revelado una gran cantidad de otras noticias, actualizaciones y anuncios.
Debido a las apretadas agendas de todos, es posible que se haya perdido algunos de los anuncios más interesantes o especializados, pero no se preocupe, lo tenemos cubierto.
Si desea seguir todas las noticias y actualizaciones a medida que ocurren, siga nuestro sitio web Re-AWS: inventado en 2024 Blog en vivo para noticias de última hora, y no se preocupe, mantendremos este artículo actualizado con cualquier otra cosa que descubramos y sobre la cual no tengamos tiempo para leer un artículo completo.
Amazonnova ya está aquí
Nuestro invitado destacado para el discurso de apertura del primer día fue una cara familiar para los fanáticos de AWS: ex director ejecutivo y ahora Amazonas Presidente Andy Jassy.
una declaración Estrella nuevauna nueva familia de modelos fundamentales que, con suerte, llevará a Amazon a la vanguardia de la carrera armamentista de IA.
Hemos cubierto modelos de generación de imágenes y videos. Lienzo y carrete En nuestra noticia, pero el Nova es un modelo de cuatro niveles y ya está disponible en Amazon Bedrock.
La alineación completa es Amazon Nova Micro (formato de texto a texto muy rápido); y Amazon Nova Lite , Amazon NovaPro y Amazon Nova Premier (Modelos multimedia que pueden procesar texto, imágenes y videos para crear texto).
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Una nueva generación de SageMaker
La plataforma de análisis SageMaker de Amazon ha sido durante mucho tiempo una de las mayores historias de éxito de la compañía y recibirá una serie de actualizaciones en re:Invent 2024.
El CEO de AWS presentó una “nueva generación de SageMaker”, que según la compañía combinará las capacidades que los clientes necesitan para análisis SQL rápido, procesamiento de big data a escala de petabytes, exploración e integración de datos, desarrollo y capacitación de modelos e IA generativa en un solo dispositivo. Plataforma integrada.
Y también un lugar para probar SageMaker.
Él era una parte más de esta nueva generación. Estudio unificado de SageMaker – Un nuevo entorno para acceder y actuar sobre todos los datos de su organización de nuevas maneras.
Casa del lago del fabricante de salvia
La parte final del triple encabezado de SageMaker fue Casa del lago del fabricante de salvia – Una nueva forma de simplificar el análisis y la IA con un almacén de datos abierto, unificado y seguro, que brinda acceso fácil y directo a todos sus datos.
Amazon Q para desarrolladores
La IA se ha convertido en una herramienta indispensable para los desarrolladores de todo el mundo y Amazon Q for Developers está obteniendo una gran cantidad de herramientas nuevas.
Esto incluye Cree pruebas de usuario integrales, documentación cuidadosa y revisiones de código. – Todo esto reduciría significativamente la carga de trabajo de los desarrolladores.
Q Developer también obtiene soporte de conversión para Conversión de aplicaciones .NETque es de gran ayuda para actualizar aplicaciones heredadas de Windows, permitiendo una forma rápida de convertir aplicaciones de Windows a Linux.
También hay un nuevo servicio Elastic, que traslada las suscripciones de VMware a AWS, pero también es una nueva herramienta que permite eso. Convierta cargas de trabajo de VMware a arquitecturas nativas de la nube.
Amazon Q para empresas
Intentar obtener toda la información que necesita de su empresa puede resultar difícil, especialmente si es una organización grande con múltiples silos de datos.
AWS reveló que hará esto menos doloroso Integración de Amazon Q Business con Amazon QuickSightreuniendo datos estructurados y no estructurados de sus silos.
Amazon Q Business ahora también ofrece más de 50 acciones nuevas para algunas de las aplicaciones de terceros más populares que utiliza, como crear una tarea en Asana o enviar un mensaje privado en Teams. También hay una nueva capacidad que utiliza agentes para ejecutar flujos de trabajo complejos, ayudando a los empleados a automatizar tareas desde simples hasta complejas.
Asociación GitLab
Otro lanzamiento destinado a ayudar a los desarrolladores: una nueva oferta integrada que los reúne GitLab Duo con Amazon Q.
Las compañías dicen que el lanzamiento combinará flujos de trabajo de DevSecOps con agentes autónomos de Amazon Q para ayudar a las organizaciones a entregar software seguro más rápido, brindando todo una experiencia de desarrollador perfecta impulsada por IA.
Amazonas La compañía informó un crecimiento del 11% en los ingresos en sus últimos resultados trimestrales a medida que las ganancias de la compañía continúan aumentando. Comercio electrónico Y el gigante de la nube, que se tambalea hacia una valoración de 2 billones de dólares.
Este fuerte crecimiento se debe en gran medida al éxito de la empresa en la computación en la nube: AWS informa un crecimiento de ingresos del 19 % año tras año.
Con 27.500 millones de dólares, los ingresos del tercer trimestre de Amazon Web Services equivalen a casi una quinta parte (17,3%) de los ingresos totales de la empresa.
AWS impulsa los ingresos de Amazon
Los ingresos operativos de AWS alcanzaron un nuevo máximo de 10.450 millones de dólares, lo que representa más de las tres quintas partes de los beneficios totales de la empresa, con un margen operativo del 38,1%, el más alto en una década.
En el mismo período, Google Los ingresos de la nube aumentaron un 35%, lo que representa un crecimiento mucho mejor que el de Amazon, pero la división de la nube de Google tiene ingresos de sólo 11.400 millones de dólares, menos de la mitad de los ingresos de AWS.
Desde la anterior convocatoria de resultados de Amazon, AWS ha lanzado una serie de nuevos productos genAI, incluido el asistente de compras Rufus en Canadá, Francia, Alemania, India, Italia, España y el Reino Unido; Guías de compras de IA; Proyecto Amelia para Vendedores; y capacidades de creación de imágenes y videos en vivo para anunciantes.
También agregó Claude 3.5 Sonnet de Anthropic, Llama 3.2 de Meta, Mistral Large 2 y múltiples modelos Stability AI a Bedrock y firmó acuerdos con compañías globales como Capital One, T-Mobile y Toyota.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
“Hemos visto una reaceleración significativa en el crecimiento de AWS en los últimos cuatro trimestres”, resumió el director ejecutivo de Amazon, Andy Jassy, en la conferencia telefónica sobre ganancias de la compañía.
Si bien la nube no muestra signos de desaceleración, Amazon también espera un crecimiento en su negocio de comercio electrónico en los próximos tres meses. El ajetreado período de vacaciones, impulsado por algunas ventas importantes al consumidor, se cubrirá con la contratación temporal de empleados de temporada a nivel mundial.
Jassy añadió que “hay mucho más por venir”, incluidas “más de 100 nuevas infraestructuras de nube y capacidades de inteligencia artificial”, que se compartirán en la próxima conferencia re:Invent en diciembre de 2024.