La empresa tecnológica presentó en su evento Advancing AI 2025 sus más recientes avances en procesadores, infraestructura y herramientas para IA generativa, destacando su enfoque en estándares abiertos y sostenibilidad energética.
AMD está dando un paso audaz hacia el futuro de la inteligencia artificial (IA) con una propuesta clara: un ecosistema abierto, escalable y sustentado en la colaboración. Así lo presentó durante su evento Advancing AI 2025, donde la compañía reveló una nueva generación de procesadores, una infraestructura a escala de rack y una evolución de su pila de software de código abierto ROCm 7.
«Estamos entrando en la próxima fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo cada vez mayor de AMD», declaró Lisa Su, presidenta y CEO de AMD. Con estas palabras abrió un evento donde se destacó la importancia de trabajar en comunidad para impulsar desarrollos tecnológicos que permitan democratizar el acceso a la IA.
Instinct MI350: más potencia, eficiencia y escalabilidad
Uno de los anuncios centrales fue el lanzamiento de los nuevos aceleradores gráficos AMD Instinct Serie MI350, que representan un salto significativo respecto a la generación anterior. Estos chips, que incluyen los modelos MI350X y MI355X, ofrecen hasta 4 veces más capacidad de cómputo en tareas de IA y hasta 35 veces más rendimiento en inferencia. Todo esto con un enfoque en eficiencia energética, reduciendo el costo por token en hasta un 40% frente a otras soluciones del mercado.
Este avance en eficiencia tiene implicancias concretas. Según AMD, los MI350 ya superaron su meta de aumentar en 30x la eficiencia energética en cinco años, alcanzando un 38x. Para 2030, la compañía se ha propuesto una mejora de 20x más, lo que permitiría entrenar modelos de IA complejos con un solo rack y 95% menos consumo eléctrico.
Helios y la próxima generación de infraestructura
AMD también presentó un adelanto de Helios, su plataforma de racks para IA del futuro. Esta infraestructura incorporará la próxima serie de GPUs Instinct MI400, que promete un rendimiento 10 veces superior en inferencias para modelos tipo Mixture of Experts.
Además de los nuevos GPUs, Helios integrará los procesadores AMD EPYC “Venice”, basados en la arquitectura “Zen 6”, así como las tarjetas de red AMD Pensando “Vulcano”. Estos desarrollos apuntan a habilitar soluciones modulares, abiertas y de alto rendimiento para centros de datos, empresas y desarrolladores.
ROCm 7: código abierto para escalar la IA
Otro pilar de la propuesta de AMD es su suite de software de código abierto ROCm, que en su versión 7 incorpora soporte ampliado para frameworks de la industria, nuevas bibliotecas y herramientas que facilitan el desarrollo y despliegue de soluciones de IA.
«Con ROCm 7 y AMD Developer Cloud, estamos eliminando barreras y ampliando el acceso a la computación de próxima generación», señaló Anush Elangovan, vicepresidente corporativo de Desarrollo de Software de IA en AMD. Estas herramientas están diseñadas para desarrolladores que necesitan entornos de prueba flexibles, escalables y con soporte directo para hardware de última generación.
Además, AMD anunció la disponibilidad global de AMD Developer Cloud, una plataforma que proporciona acceso a infraestructura y herramientas de desarrollo en la nube. Esta estará disponible para comunidades de desarrolladores, startups e investigadores que quieran experimentar y escalar sus proyectos sin barreras técnicas o económicas.
Socios globales se suman al ecosistema abierto
Siete de las diez principales compañías de IA ya ejecutan cargas de trabajo sobre GPUs Instinct. Durante el evento, representantes de empresas como Meta, OpenAI, xAI, Oracle, Microsoft, Cohere, HUMAIN, Red Hat, Astera Labs y Marvell participaron para explicar cómo integran las soluciones de AMD en sus plataformas.
- Meta destacó el uso de los MI300X en los modelos Llama 3 y 4, y expresó su entusiasmo por el MI350 por su rendimiento y eficiencia.
- Sam Altman, CEO de OpenAI, remarcó la colaboración profunda con AMD, especialmente en Azure y en el diseño de la próxima generación de chips.
- Oracle Cloud Infrastructure anunció que ofrecerá clústeres de IA con hasta 131.072 GPUs MI355X para entrenar modelos a escala zetta.
- Microsoft informó que ya ejecuta modelos propietarios y de código abierto sobre MI300X en su nube Azure.
- Cohere, Red Hat, Astera Labs y Marvell también subrayaron el valor del enfoque abierto de AMD para acelerar el desarrollo de IA en entornos empresariales e híbridos.
Hacia una IA accesible, eficiente y colaborativa
La visión de AMD es clara: construir una inteligencia artificial más abierta, inclusiva y sustentable. No se trata solo de chips más rápidos, sino de ofrecer herramientas accesibles para todos los actores del ecosistema —desde grandes tecnológicas hasta desarrolladores independientes— y hacerlo de una manera energéticamente responsable.
Con un roadmap tecnológico que se extiende más allá de 2027, AMD está posicionando su arquitectura abierta como una alternativa sólida al enfoque cerrado de otros líderes del sector. Y lo hace con una red de alianzas estratégicas que refuerzan su propuesta de valor.
Para conocer más sobre estas soluciones, los interesados pueden acceder a los blogs técnicos de AMD, explorar su kit de prensa de Advancing AI 2025 o seguir a la compañía en sus redes como X y LinkedIn.
*En la creación de este texto se usaron herramientas de inteligencia artificial.