Akamai Technologies, Inc. (NASDAQ : AKAM) lance aujourd’hui Akamai Inference Cloud, une plateforme qui redéfinit où et comment l’IA est utilisée, en étendant l’inférence des principaux centres de données à la bordure de l’Internet.
Akamai Inference Cloud permet une inférence intelligente et agentique de l’IA en bordure de l’Internet, à proximité des utilisateurs et des terminaux. Contrairement aux systèmes traditionnels, cette plateforme est spécialement conçue pour fournir un traitement de l’IA en temps réel, avec une faible latence, partout dans le monde. Ce lancement tire parti de l’expertise d’Akamai en matière d’architectures distribuées à l’échelle mondiale et s’appuie sur l’ pour repenser et étendre radicalement le calcul accéléré, nécessaire pour exploiter le véritable potentiel de l’IA.
La nouvelle génération d’applications de l’IA, des expériences digitales personnalisées et des agents intelligents aux systèmes de décision en temps réel, exige que l’inférence de l’IA soit rapprochée de l’utilisateur pour garantir un engagement instantané et des décisions intelligentes sur le traitement des requêtes. Les charges de travail d’IA agentique nécessitent de plus en plus une inférence à faible latence, un contexte local et une capacité à évoluer instantanément à l’échelle mondiale. Conçue pour accompagner cette transformation, Akamai Inference Cloud est une plateforme en bordure de l’Internet distribuée et générative qui rapproche la pile d’IA NVIDIA des points où les données sont créées et où les décisions doivent être prises.
« La prochaine vague d’intelligence artificielle nécessite la même proximité avec les utilisateurs qui a permis à Internet de devenir la plateforme mondiale omniprésente qu’elle est aujourd’hui », a déclaré le Dr Tom Leighton, PDG et cofondateur d’Akamai. « Akamai a déjà relevé ce défi par le passé et nous le faisons à nouveau. Propulsé par l’infrastructure d’IA de NVIDIA, Akamai Inference Cloud répondra à la demande croissante de montée en puissance de la capacité et des performances d’inférence de l’IA, en plaçant la prise de décision de l’IA dans des milliers de lieux à travers le monde, pour offrir des réponses plus rapides, plus intelligentes et plus sécurisées. »
Akamai Inference Cloud redéfinit où et comment l’IA est déployée en rapprochant l’inférence intelligente de l’IA agentique des utilisateurs et des terminaux. La plateforme combine lesavec l’infrastructure de cloud computing distribuée et le réseau mondial en bordure de l’Internet d’Akamai, qui compte plus de 4 200 sites dans le monde. Akamai Inference Cloud concrétisera la vision d’Akamai pour des performances d’IA hautement évolutives et distribuées à l’échelle mondiale, en tirant parti des dernières technologies de NVIDIA, y compris du DPU NVIDIA BlueField-4 récemment annoncé, pour accélérer et sécuriser davantage l’accès aux données et les charges de travail d’inférence de l’IA du cœur à la bordure de l’Internet.
« L’inférence est devenue la phase la plus exigeante en puissance de calcul de l’IA, nécessitant un raisonnement en temps réel à l’échelle planétaire », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Ensemble, NVIDIA et Akamai rapprochent l’inférence des utilisateurs partout dans le monde, offrant une IA générative plus rapide et plus évolutive, et ouvrant la voie à la prochaine génération d’applications intelligentes. »
Extension des usines d’IA d’entreprise à la bordure de l’Internet pour offrir des agents commerciaux intelligents et des expériences digitales personnalisées : les usines d’IA orchestrent le cycle de vie de l’IA, de l’ingestion des données à la création d’informations à grande échelle. Akamai Inference Cloud étend ces usines d’IA à la bordure de l’Internet, de sorte que les données et le traitement soient décentralisés, et les requêtes acheminées vers le meilleur modèle à l’aide des sites massivement distribués en bordure de l’Internet d’Akamai. Cela permettra aux agents intelligents de s’adapter instantanément à l’emplacement, au comportement et à l’intention de l’utilisateur. Ils pourront ainsi agir de manière autonome pour négocier, acheter et optimiser les transactions en temps réel.
Activation continue de l’inférence et des agents pour fournir des informations financières instantanées et prendre des décisions en temps réel : les agents IA nécessitent plusieurs inférences successives pour accomplir des tâches complexes, créant des retards qui nuisent à l’engagement des utilisateurs. Les workflows d’IA agentique nécessitent plusieurs appels d’inférence, et si chaque appel entraîne un délai réseau, l’expérience devient trop lente pour répondre aux exigences de latence machine à machine. L’architecture native en bordure de l’Internet d’Akamai Inference Cloud fournit des réponses quasiment instantanées, permettant aux agents IA de fonctionner avec une réactivité proche de celle des humains dans des workflows multi-étapes. Cela peut être utile pour détecter la fraude, accélérer les paiements sécurisés et prendre des décisions rapides dans les services du secteur.
Activation de l’IA physique en temps réel, fonctionnant au-delà de la réactivité humaine : les systèmes d’IA physique tels que les véhicules autonomes, les robots industriels et les infrastructures de villes intelligentes nécessitent une prise de décision avec une précision au millième de seconde pour interagir en toute sécurité avec le monde physique. Akamai Inference Cloud permet à l’IA physique de traiter les données des capteurs, de prendre des décisions de sécurité et de coordonner les actions à la vitesse du monde physique. Cela transforme les chaînes de production, les drones de livraison, les robots chirurgicaux et les réseaux de transport autonomes, entre autres, en systèmes intelligents et réactifs capables de fonctionner en toute sécurité aux côtés des humains.
Accélération du délai de rentabilisation : orchestrer des charges de travail d’IA complexes et distribuées dans plusieurs régions du cloud nécessite des compétences et des équipes spécialisées. La couche d’orchestration intelligente d’Akamai Inference Cloud achemine automatiquement les tâches d’IA vers les emplacements optimaux. L’inférence en continu s’exécute instantanément en bordure de l’Internet via les de NVIDIA, tandis que le raisonnement sophistiqué tire parti des usines d’IA centralisées, le tout géré via une plateforme unifiée qui masque la complexité de l’infrastructure.