Los que estamos en el mundo de la tecnología sabemos que AWS ofrece una amplia variedad de soluciones para resolver los desafíos de los clientes. Por eso, no debería sorprendernos que en el reciente evento anual AWS re:Invent 2024 se haya ofrecido una cantidad impresionante de sesiones. ¡Más de 2.000 en tan solo cuatro días.

Navegar ese océano de información es una tarea titánica, abrumadora. Por eso, decidimos armar esta lectura rápida con los puntos clave para entender el rumbo de AWS para el año que comienza.
La temática recurrente y transversal fue, como se esperaba, la IA generativa. Estuvo presente en prácticamente todas las charlas, sesiones y stands. O era el tema central o, en algún momento, el tema que se tratara se vinculaba con la IA generativa. Generalmente, con una pregunta del estilo: ¿Cómo puedo hacer esto de manera más eficiente con IA Generativa?
Hasta la propia aplicación del evento (para quienes nunca fueron, te permite armar un cronograma personalizado de actividades) la usaba para sugerir charlas en base a las preferencias del usuario.
Más allá de esto, AWS dejó muy en claro a dónde apunta en los próximos años. A continuación destacaremos algunos aspectos claves.
El futuro es con IA: La capa de chips
Hace años que los datos son tratados como un activo valioso. Pero en AWS re:invent 2024 aparece una novedad. Que AWS busca alinear su stack de servicios y soluciones para que sus clientes almacenen, cataloguen, preparen y exploten sus datos. Todo de manera sencilla y con modelos de ML, AI y GenAI.
Así lo mostraron los anuncios a lo largo del evento. Arrancamos por el más bajo nivel de abstracción: los chips.
– AWS Trainium2 instances. Están detrás de instancias EC2 pensadas para lograr alta performance en el entrenamiento basado en deep learning para modelos de GenAI. Además, los clientes con necesidades de correr modelos de GenAI de alta demanda y alta carga, tendrán los Trn2 UltraServers que permite interconectar servidores Trn2 en un gran servidor y escalar la carga de trabajo en 64 chips Trainium2.
– Trainium3 chips. Si bien están anunciadas las instancias EC2 de Trainium2, próximamente estarán disponibles los chips Trainium3, evolución de la generación actual, con la promesa de mejor performance, baja latencia, capacidad de correr modelos más grandes y mejor rendimiento en tiempo real.
AWS busca facilitar y hacer más sustentable y accesible el entrenamiento, el fine tunning y las inferencias de grandes modelos de IA. Las arquitecturas de los chips y de las instancias están diseñadas para entrenar modelos más grandes de manera más eficiente.
La capa de almacenamiento y preparación de datos
En AWS re:invent 2024 también hubo anuncios respecto a la capa de almacenamiento y preparación de datos para su uso en cargas de trabajo de analítica e IA.
Al popular servicio de almacenamiento S3 se agregaron dos nuevas capacidades muy interesantes para cualquier carga de analítica (tanto tradicional como avanzada).
– S3 Tables. Diseñado para brindar almacenamiento optimizado para datos tabulares (transacciones, datos de sensores, etc.) en formato Apache Iceberg. Este se ha convertido en una de las formas más populares de manejar archivos en parquet, formato que permite hacer querys incluso sobre exabytes de datos.
– S3 Metadata. Permite encontrar, almacenar y consultar fácilmente metadatos de tus objetos en S3. Así, se pueden preparar rápidamente datos para su uso en análisis de negocios, recuperación de contenido, entrenamiento de modelos de inteligencia artificial y ML.
En cuanto al nivel de base de datos, tanto los anuncios de Aurora DSQL como DynamoDB Global Tables estuvieron alineados en la misma dirección. Facilitar y robustecer las soluciones que requieran procesamiento distribuido de SQL, con consistencia fuerte de almacenamiento y lectura.
En conclusión, los features anunciados apuntan a dar mayor flexibilidad, simplicidad, escalabilidad y robustez a la capa de almacenamiento. También a mejorar la generación y el manejo de la metadata y facilitar el acceso.
Todo esto, con el objetivo de simplificar el desarrollo de soluciones de analítica tradicional y avanzada. Y de dar más herramientas a científicos de datos e ingenieros de ML para desarrollar soluciones basadas en AI y ML.
Plataformas SageMaker AI
SageMaker AI se anunció como la evolución del servicio homónimo. Una plataforma para el desarrollo y ajustes de modelos de ML, AI y GenAI (particularmente el fine tunning de modelos fundacionales).
SageMaker pasa a ser el conjunto de servicios que de manera holística permiten a los clientes completar las actividades relativas al desarrollo de modelos de ML en una plataforma integrada.
Se agregaron funcionalidades que apuntan a que se pueda comenzar más rápidamente con modelos populares de acceso público y mejoras para maximizar la eficiencia del entrenamiento y reducir costos.
Se anunciaron avances para Amazon SageMaker HyperPod, que permite escalar el desarrollo de modelos generativos con la promesa de reducir el tiempo de entrenamiento de modelos base hasta en un 40%.
Por último, se anunciaron SageMaker Unified Studio, SageMaker Catalog, SageMaker Lakehouse, y Zero-ETL integrations con aplicaciones SaaS. ¿El objetivo? Dar más capacidades a quienes necesitan hacer analítica con SQL e integraciones en grandes volúmenes de datos.
Plataformas SageMaker AI
Amazon Bedrock será el servicio a través del cual se hará la etapa de inferencia de modelos generativos. Se disponibilizó un amplio catálogo de modelos fundacionales entre los cuales se pueden elegir los que mejor sirvan a cada necesidad.
Otros anuncios apuntan a facilitar la puesta en producción a gran escala de soluciones basadas en modelos de GenAI. Para esto, se puso énfasis en el manejo de prompts a escala, mejoras y más funcionalidades para las bases de conocimiento (por ejemplo facilitando GraphRAG) y guardrails (salvaguardas). Pero además, se anunciaron tres aspectos clave:
– Automated Reasoning checks. Mecanismo para validar matemáticamente el razonamiento detrás de una respuesta de un modelo generativo y evitar respuestas incorrectas o alucinaciones.
– Model Distillation. Técnica para transferir conocimiento de un modelo grande a otro más pequeño, manteniendo la performance. Si bien los ingenieros de ML la utilizan frecuentemente, Bedrock disponibiliza el mecanismo para hacerlo simple.
– Expansión de Amazon Bedrock Agents. Se expande el soporte para arquitecturas multiagente para crear soluciones en base a la coordinación y orquestración de agentes para resolver problemas complejos.
Modelos Nova
Hasta el momento, a través de Bedrock se podían construir soluciones con una gran variedad de modelos, ninguno de los cuales era desarrollado por AWS. Nova posiciona a AWS como un nuevo proveedor de modelos de GenAI.
Capa de desarrolladores
La última capa, la de los desarrolladores y los usuarios finales, también tuvo sus anuncios muy importantes en AWS re:invent 2024.
– Amazon Q Developer. Si bien no es un servicio nuevo, algunos anuncios son clave para entender hacia donde apunta AWS. Por ejemplo, los modelos y agentes enfocados en migraciones de aplicaciones Windows. Apuntan a facilitar y dar velocidad a estos procesos para que puedan correr en sistemas operativos Linux. Esto se suma a las capacidades de modernización posmigraciones para llevar a servicios serverless. Así, nos da un conjunto de herramientas simples para migrar y modernizar aplicaciones legadas a ecosistemas sin servidores. También se anunció una funcionalidad que facilita aún más el desarrollo de modelos de ML gracias a asistentes de generación de código.
– Amazon Q Business. Entre los varios anuncios destacan las mejoras para Quicksight y las integraciones con bases de conocimiento de manera simple. Estas dos funcionalidades permitirán a usuarios finales no técnicos desarrollar soluciones y agentes que podrán acceder a información analítica en Quicksight. También podrán interactuar en lenguaje natural para obtener nuevos insights. En cuanto a las bases de conocimiento, será muy simple integrarse con fuentes de conocimiento múltiples y acceder a información contenida en documentos.
Conclusiones
En AWS re:invent 2024 quedó en claro que AWS apunta a proveer un entorno holístico, completo y con muchas opciones para explotar al máximo los datos y los modelos de ML y GenAI.
Así fue toda la narrativa, todos los aspectos del evento y todos los anuncios, siempre atravesados por IA como temática principal. AWS apuesta fuerte y este es apenas el comienzo.
¿Te interesa conocer cómo todas estas novedades anunciadas por AWS pueden impactar en tu organización? Tenemos un equipo de expertos que puede ayudarte: ¡Agenda tu reunión!
Te puede interesar:
Blog • Factores de éxito de la GenAI en la era de la transformación digital
Blog • Ciberseguridad e IA: innovación responsable y protegida
Blog • Amazon Bedrock: innovación inteligente al extremo