Adam Selipsky, CEO de AWS, hizo un recorrido por la historia de la compañía, desde sus primeros servicios de almacenamiento hasta la creación de una infraestructura sin igual en el mercado global, triplicando el número de centros de datos de sus competidores.
Durante su presentación, Selipsky realizó los siguientes anuncios que revolucionarán aún más la capacidad de entrega de AWS:
- Amazon S3 Express One Zone
Diseñado específicamente para brindar acceso consistente a datos en milisegundos de un solo dígito para las aplicaciones más sensibles a la latencia de sus clientes. Esta solución de almacenamiento en la nube de menor latencia disponible, con una velocidad de acceso a datos hasta 10 veces más rápida y costo de solicitud de hasta un 50% más bajo que Amazon S3 Standard. También proporciona un mejor rendimiento para operaciones con uso intensivo de solicitudes, como capacitación e inferencia de aprendizaje automático, análisis interactivas y creación de contenido multimedia.
- Colaboración estratégica con NVIDIA
Las empresas reunirán lo mejor de las tecnologías NVIDIA y AWS, desde los más nuevos sistemas multi-nodo de NVIDIA con GPU, CPU y software de IA de última generación, hasta virtualización y seguridad avanzadas de AWS Nitro System, interconexión Elastic Fabric Adapter (EFA) y Escalabilidad UltraCluster – ideal para entrenar modelos básicos y construir aplicaciones generativas de IA. La colaboración se basa en una relación a largo plazo que impulsó la era de la IA generativa, ofreciendo a los pioneros del Machine Learning (ML) el desempeño computacional necesario para avanzar en el estado del arte en estas tecnologías.
El anuncio contó con la participación de Jensen Huang, CEO de NVIDIA, quien resaltó el hecho de que la IA generativa está poniendo la computación acelerada en la base de la generación de contenido. Las dos compañías también están colaborando en el Proyecto Ceiba, que diseñará la supercomputadora de IA con GPU más rápida del mundo -un sistema a escala con interconexión GH200 NVL32 y Amazon EFA. Esta supercomputadora pionera – con 16 384 superchips NVIDIA GH200 y capaz de procesar 65 exaflops de IA- se utilizará por NVIDIA para impulsar su próxima ola de innovación en IA generativa.
- Chip AWS Trainium 2
Diseñado para proporcionar una formación hasta cuatro veces más rápida que los chips Trainium de primera generación, que se pueden implementar en EC2 UltraClusters de hasta 100 000 chips, lo que permite la formación de fms (Foundation Models) y LLMs (Large Language Models) en una fracción del tiempo, mejorando al mismo tiempo la eficiencia energética en hasta dos veces.
- Chip Amazon Graviton 4
La nueva generación de procesadores ofrece un rendimiento hasta un 30 % mejor, un 50 % más núcleos y un 75 % más de ancho de banda de memoria que Graviton3. También eleva el nivel de seguridad al cifrar completamente todas las interfaces de hardware físico de alta velocidad. Graviton4 estará disponible en instancias R8g de Amazon EC2 con optimización de memoria, lo que permite a los clientes mejorar la ejecución de sus bases de datos de alto rendimiento, cachés de memoria y cargas de trabajo de análisis de big data.
- Nuevas integraciones para el análisis de datos
Permiten a los clientes conectarse y analizar datos de forma rápida y sencilla sin crear ni gestionar procesos complejos de extracción, transformación y carga (ETL, su sigla en inglés). Las nuevas integraciones de Amazon Aurora PostgreSQL, Amazon DynamoDB y Amazon Relational Database Service (Amazon RDS) para MySQL con el Amazon Redshift facilitan la conexión y el análisis de datos transaccionales de múltiples bases de datos relacionales y no relacionales en Amazon Redshift.
- Amazon Data Zone
Un nuevo servicio de administración de datos que hace que sea más rápido y fácil para los clientes catalogar, descubrir, compartir y controlar datos almacenados en AWS, en las instalaciones y en fuentes de terceros. Con él, los administradores pueden gestionar y controlar el acceso a los datos mediante controles detallados para garantizar que se accede a ellos con el nivel adecuado de privilegios y en el contexto correcto.
- Guardrails para Amazon Bedrock
También se anunciaron las nuevos Guardrials para Amazon Bedrock, que tienen como objetivo garantizar el cumplimiento de las aplicaciones de IA generativas con políticas de responsabilidad. Lo hace mediante la configuración de filtros y se puede aplicar a cualquier Foundation Model o agente.
- Colaboración entre AWS y Anthropic
Quien también estuvo presente en Keynote de Selipsky fue Dario Almodei, CEO de Anthropic, reforzando la recién anunciada colaboración entre las dos empresas. AWS anunció una inversión de hasta US$ 4 mil millones en la compañía que utiliza el chip Trainium en el desarrollo de FM Claude. Almodei presentó la nueva versión del modelo, que trabaja con un volumen mucho mayor de tokens y trae nuevas funcionalidades.