- Inicie sesión para enviar comentarios

Akamai ha lanzado Akamai Inference Cloud, una plataforma que redefine dónde y cómo se utiliza la IA al ampliar la inferencia desde los centros de datos principales hasta el Edge de Internet.
Akamai Inference Cloud posibilita una inferencia de IA inteligente y autónoma en el Edge de Internet, cerca de los usuarios y los dispositivos. A diferencia de los sistemas tradicionales, esta plataforma se ha diseñado específicamente para brindar procesamiento de IA en el Edge de baja latencia en tiempo real y a escala global. Este lanzamiento aprovecha la experiencia de Akamai en arquitecturas distribuidas globalmente y la infraestructura de IA de NVIDIA Blackwell para replantearse y ampliar radicalmente la computación acelerada necesaria para aprovechar el verdadero potencial de la IA.
La nueva generación de aplicaciones de IA, desde experiencias digitales personalizadas y agentes inteligentes hasta sistemas de toma de decisiones en tiempo real, exige que la inferencia de IA se acerque más al usuario, lo que proporciona una interacción instantánea en el lugar en el que interactúan y permite decidir eficientemente adónde deben dirigirse las solicitudes. Las cargas de trabajo autónomas requieren cada vez más inferencia de baja latencia, contexto local y la capacidad de escalar globalmente al instante. Creada para impulsar esta transformación, Akamai Inference Cloud es una plataforma en el Edge distribuida y generativa que sitúa la tecnología de IA de NVIDIA más cerca de la ubicación donde se crean los datos y se deben tomar decisiones.
“La próxima oleada de IA requiere la misma aproximación de usuario que permitió convertir a Internet en la plataforma global omnipresente que es hoy en día”, afirma el Dr. Tom Leighton, CEO y cofundador de Akamai. “Akamai ya resolvió este reto y volverá a hacerlo. Gracias a la infraestructura de IA de NVIDIA, Akamai Inference Cloud satisfará la creciente demanda de ampliar la capacidad y el rendimiento de la inferencia de IA, y llevará la toma de decisiones a miles de ubicaciones en todo el mundo, lo que permitirá respuestas más rápidas, inteligentes y seguras”.
“La inferencia se ha convertido en la fase más intensiva en términos de computación de la IA, ya que exige un razonamiento en tiempo real a escala planetaria”, asegura Jensen Huang, fundador y CEO de NVIDIA. “Juntos, NVIDIA y Akamai están acercando la inferencia a los usuarios de todo el mundo, lo que permite ofrecer una IA generativa más rápida y escalable, y abrir las puertas a la próxima generación de aplicaciones inteligentes”.
Está solución redefine dónde y cómo se utiliza la IA al acercar la inferencia de IA inteligente y autónoma a los usuarios y sus dispositivos. La plataforma combina servidores NVIDIA RTX PRO, equipados con GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA Bluefield-3 y el software NVIDIA AI Enterprise, con la infraestructura de cloud computing distribuida de Akamai y la red en el Edge global, que cuenta con más de 4200 ubicaciones en todo el mundo. Akamai Inference Cloud impulsará la visión de Akamai de un rendimiento de IA distribuido y altamente escalable en todo el mundo aprovechando las últimas tecnologías de NVIDIA, como la DPU NVIDIA Bluefield-4, anunciada recientemente, para acelerar y proteger aún más el acceso a los datos y las cargas de trabajo de inferencia de IA desde el núcleo hasta el Edge.
Esta asociación aporta, trazando nuevas fronteras de IA con Akamai Inference Cloud:
- Extensión de las fábricas de IA empresarial al Edge para posibilitar los agentes de comercio inteligentes y las experiencias digitales personalizadas: Las fábricas de IA son potentes y coordinan el ciclo de vida de la IA, desde la ingesta de datos hasta la creación de inteligencia a escala. Akamai Inference Cloud amplía las fábricas de IA al Edge, descentralizando los datos y el procesamiento, y dirigiendo las solicitudes al mejor modelo mediante las ubicaciones en el Edge distribuidas masivamente de Akamai. Esto permitirá a los agentes inteligentes adaptarse instantáneamente a la ubicación, el comportamiento y la intención del usuario, y actuar de forma autónoma para negociar, formalizar y optimizar las transacciones en tiempo real.
- Posibilidad de que los agentes y la inferencia de streaming proporcionen información financiera instantánea y tomen decisiones en tiempo real: Los agentes de IA requieren varias inferencias secuenciales para completar tareas complejas, lo que provoca retrasos que lastran la interacción de los usuarios. Los flujos de trabajo de la IA autónoma requieren varias llamadas de inferencia y, si cada llamada crea un retraso en la red, la experiencia parece lenta o demasiado tardía como para satisfacer los requisitos de latencia de máquina a máquina. La arquitectura nativa en el Edge de Internet de Akamai Inference Cloud ofrece respuestas prácticamente instantáneas, lo que permite a los agentes de IA trabajar con una capacidad de respuesta similar a la de las personas en flujos de trabajo de varios pasos. Esto puede resultar útil para detectar fraudes, agilizar los pagos seguros y permitir la toma de decisiones a gran velocidad para los sectores industriales.
- Posibilidad de que la IA física en tiempo real funcione superando la capacidad de respuesta a nivel humano: Los sistemas físicos de IA, como los vehículos autónomos, los robots industriales y la infraestructura de ciudades inteligentes, requieren una toma de decisiones con una precisión de milisegundos para interactuar de modo seguro con el mundo físico. Akamai Inference Cloud se ha diseñado para permitir que la IA física procese datos de sensores, tome decisiones de seguridad y coordine acciones a la velocidad del mundo físico, lo que ayuda a transformarlo todo, desde plantas de fabricación y drones de distribución hasta robots quirúrgicos y redes de transporte autónomas, en sistemas inteligentes con capacidad de respuesta que pueden funcionar de forma segura junto con los seres humanos.
- Aceleración del plazo de amortización: La organización de cargas de trabajo de IA complejas y distribuidas en varias regiones de la nube requiere conocimientos y equipos especializados. La capa de coordinación inteligente de Akamai Inference Cloud dirige automáticamente las tareas de IA a las ubicaciones óptimas. La inferencia rutinaria se ejecuta al instante en el Edge a través de los microservicios NIM de NVIDIA, mientras que el sofisticado razonamiento aprovecha las fábricas de IA centralizadas, todas ellas gestionadas a través de una plataforma unificada que elimina la complejidad de la infraestructura.
Akamai Inference Cloud está disponible en 20 ubicaciones iniciales en todo el mundo; además, existen planes para ampliar la implementación.
