Twee grotes spelers van die oop transformasie van kunsmatige intelligensie het ons pas die uitbreiding van samewerking aangekondig om AI te bevorder. Die bevordering van die vennootskap tussen Red Hat en Google Cloud is gefokus op die uitbreiding van die lys van besigheidsaansoeke vir AI, die kombinasie van die oopbrontegnologieë van die oopbronleier met die gespesialiseerde infrastruktuur van Google en sy familie van modelle, Gemma.
Saam sal maatskappye gebruiksgevalle vir KI-skaal deur:
- Bekendstelling van die open source llm-d projek, met Google as stigter medewerker;
- Ondersteun VLLM op Google Wolk TPU's en GPU-geaktiveerde virtuele masjiene (VM's) om AI-afleiding te verbeter;
- Nul-dag ondersteuning vir VLLM met Gemma 3 model verspreidings;
- Beskikbaarheid van Red Hat AI Inferensie Server op Google Cloud;
- Ontwikkeling van KI-agentiek met Red Hat as 'n medewerker in die Agent2Agent (A2A) protokol van Google.
Versterking van AI inferensie met vLLM
Demonstreer sy verbintenis tot gereedheid vanaf dag nul, die Red Hat is nou een van die eerste toetsers in Google se oop modelfamilie, Gemma, wat begin met Gemma 3, met onmiddellike ondersteuning vir die vllm. vLLM is 'n oopbron-afleidingsbediener wat die uitvoering van generatiewe KI-toepassings versnel. As 'n toonaangewende kommersiële bydraer tot VLLM, maak Red Hat hierdie platform meer doeltreffend en reageer vir gen KI-toepassings.
Buitendien, uh, google Cloud TPU's, hoëprestasie AI-versnellers wat Google se AI-portefeulje integreer, is nou ten volle versoenbaar met vLLM. Hierdie integrasie stel ontwikkelaars in staat om hulpbronne te maksimeer terwyl die prestasie en doeltreffendheid noodsaaklik is vir vinnige en akkurate afleiding.
Met die erkenning van die oorgang van AI-navorsing na werklike ontplooiing, staar baie organisasies die kompleksiteite van 'n diverse AI-ekosisteem in die gesig en die behoefte om meer verspreide rekenaarstrategieë aan te neem open source projek llm-d, met Google as 'n stigtersbydraer. Voortbou op die momentum van die vLLM-gemeenskap, het hierdie inisiatief ten doel om 'n nuwe era vir gen AI-inferensie in te lei.Die doel is om groter skaalbaarheid in heterogene hulpbronne moontlik te maak, koste te optimaliseer en die doeltreffendheid van werkladings te verhoog terwyl deurlopende innovasie bevorder word.
Verhoog onderneming AI met gemeenskapsgebaseerde innovasie
Bring die nuutste vooruitgang van die open source gemeenskap na die onderneming omgewing, die Red Hat AI Inferensie Server nou dit is beskikbaar op Google Cloud. soortgelyk aan die onderneming verspreiding van VLLM deur Red Hat, AI Inference Server help ondernemings te optimaliseer model afleiding oor hul baster wolk omgewing.Deur gebruik te maak van die vertrou infrastruktuur van Google Cloud, organisasies kan produksie-gereed, generatiewe AI modelle wat beide hoogs reageer en koste-effektief op skaal.
Die klem op die gesamentlike verbintenis tot oop AI, die Red Hat het ook tot die protokol bygedra Agent2Agent (A2A) google 2an aansoekvlak protokol wat kommunikasie tussen agente en eindgebruikers oor verskillende platforms en wolke fasiliteer.Deur aktief deel te neem aan die A2A ekosisteem, poog Red Hat om innovasie te versnel en te verseker dat AI werkvloeie dinamies en effektief bly met die krag van AI Agentiek.
Red Hat Summit
Kyk na Red Hat Summit-sleutelnotas om die nuutste van Red Hat-bestuurders, kliënte en vennote te hoor:
- Moderne infrastruktuur in lyn met onderneming AI 20 Mei, 8h - 10h EDT (YouTube)
- Hibriede wolk ontwikkel om besigheidsinnovasie aan te dryf 21 Mei, 8h-9h30 EDT (YouTube)


