Red Hat, líder mundial en soluciones de código abierto, ha lanzado Red Hat AI 3 , una importante evolución de su plataforma de inteligencia artificial diseñada para llevar la inferencia distribuida de IA a las cargas de trabajo de producción. Esta plataforma unificada busca simplificar el complejo paso de la prueba de concepto a la operación en el mundo real, mejorando la colaboración y sentando las bases para la IA agéntica a gran escala.

El panorama de la inteligencia artificial (IA) en el ámbito empresarial está experimentando un cambio fundamental. Las compañías están dejando atrás la fase de experimentación para centrarse en la fase de «acción» de la IA: la inferencia. Sin embargo, la transición de la prueba de concepto a la producción a gran escala presenta desafíos significativos, como la gestión de costos, la privacidad de los datos y la complejidad de modelos dispares. De hecho, el proyecto Nanda del Massachusetts Institute of Technology señala que cerca del 95% de las organizaciones no están logrando retornos financieros cuantificables de sus inversiones en este campo.

Ante esta realidad, Red Hat ha presentado Red Hat AI 3 , una plataforma que combina lo último de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (Rhel AI) y Red Hat OpenShift AI. El objetivo principal de esta solución es ofrecer una experiencia más coherente y unificada, permitiendo a los CIO y responsables de TI maximizar sus inversiones en tecnologías de computación aceleradas y simplificar las complejidades de la inferencia de IA de alto rendimiento.

Según Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat, la plataforma está diseñada precisamente para contrarrestar estos obstáculos: “A medida que las empresas pasan de la experimentación a producción de la IA, se enfrentan a una nueva serie de desafíos en términos de complejidad, costo y control. Con Red Hat AI 3, ofrecemos una plataforma open source de clase empresarial que minimiza estos obstáculos». Fernandes añade que al incorporar capacidades como la inferencia distribuida con llm-d y una base para la IA agéntica, Red Hat permite a los equipos «poner en marcha la IA de próxima generación con mayor confianza, según sus propios términos y en cualquier infraestructura”.

Inferencia Escalable y Rentable con llm-d

Red Hat AI 3 pone un énfasis especial en la inferencia escalable y rentable. El lanzamiento se basa en los exitosos proyectos comunitarios vLLM y llm-d, e incorpora capacidades de optimización de modelos para ofrecer un servicio de modelos de lenguajes de gran tamaño (LLM) de nivel de producción.

Una de las innovaciones más destacadas es la disponibilidad general de llm-d en Red Hat OpenShift AI 3,0, que «reinventa la forma en que los LLM se ejecutan nativamente en Kubernetes». llm-d habilita la inferencia inteligente distribuida , aprovechando la orquestación de Kubernetes y el rendimiento de vLLM. Esto permite a las organizaciones reducir costos y mejorar los tiempos de respuesta gracias a la programación de modelos inteligente y al servicio desagregado , además de ofrecer simplicidad operativa y máxima fiabilidad con «Rutas bien iluminadas» que agilizan el despliegue de modelos a escala. La solución maximiza la flexibilidad al ofrecer soporte multiplataforma para desplegar la inferencia de LLM en distintos aceleradores de hardware, incluidos NVIDIA y AMD.

Una plataforma unificada para la colaboración y el desarrollo

Red Hat AI 3 está diseñado sobre una base de estándares abiertos, lo que le permite asistir a las organizaciones en cualquier etapa de su experiencia con la IA, admitiendo cualquier modelo en cualquier acelerador de hardware, desde centros de datos y la nube pública hasta entornos de IA soberana y el edge más alejado.

La plataforma promueve una experiencia unificada y flexible para fomentar la colaboración entre ingenieros de plataforma e ingenieros de IA. Las nuevas capacidades incluyen:

  • Capacidades de Modelo como Servicio (MaaS): Basadas en la inferencia distribuida, estas capacidades permiten a los equipos de TI actuar como sus propios proveedores de MaaS, sirviendo modelos comunes de forma centralizada y brindando acceso bajo demanda a desarrolladores y aplicaciones. Esto es crucial para la gestión de costos y para casos de uso con preocupaciones de privacidad.
  • AI hub (Centro de IA): Un centro centralizado con un catálogo curado de modelos (incluidos modelos de IA generativa validados y optimizados), un registro para gestionar el ciclo de vida y un entorno de despliegue para configurar y monitorizar todos los activos de IA en OpenShift AI.
  • Gen AI studio (Estudio de IA Generativa): Un entorno práctico donde los ingenieros de IA pueden interactuar con los modelos y prototipar rápidamente nuevas aplicaciones. Incluye un playground interactivo para experimentar con modelos y ajustar parámetros para casos de uso como el chat y la generación aumentada por recuperación (RAG).

Bases para la IA Agéntica del futuro

La complejidad de los flujos de trabajo autónomos de los agentes de IA impondrá grandes exigencias a las capacidades de inferencia. Red Hat OpenShift AI 3,0 continúa sentando las bases para sistemas de IA agénticos escalables. Para acelerar su creación e implementación, se ha introducido una capa de API unificadas basada en Llama Stack, y Red Hat está impulsando la adopción de Model Context Protocol (MCP), un estándar que simplifica la interacción de los modelos de IA con herramientas externas, una característica fundamental para los agentes modernos.

Además, Red Hat AI 3 incluye un nuevo kit de herramientas modular y extensible para la personalización de modelos, desarrollado a partir de la funcionalidad existente de InstructLab. Este toolkit se apoya en proyectos de código abierto como Docling para agilizar la ingesta de documentos no estructurados y dispone de un marco flexible para la generación de datos sintéticos. También se incorpora un centro de evaluación (evaluation hub) integrado para que los ingenieros de IA validen los resultados, aprovechando con confianza sus datos propietarios.

La visión de Red Hat se alinea con la perspectiva de la industria. Rick Villars, group vice president, Worldwide Research, IDC, señala que el «valor real —y el verdadero desafío— es operacionalizar las percepciones derivadas de los modelos con una inferencia eficiente, segura y rentable”. Para Villars, las empresas que triunfen serán «aquellas que establezcan una plataforma unificada para orquestar estas cargas de trabajo cada vez más sofisticadas en entornos de nube híbrida, y no solo en dominios aislados», un concepto que Red Hat AI 3 busca materializar.

*En la creación de este texto se usaron herramientas de inteligencia artificial.