两个大的 玩家 从人工智能的开放转型,我们刚刚宣布延长协作,助推AI 红帽与谷歌云合作关系的推进,重点扩大AI的业务应用清单,将开源领导者的开源技术与谷歌及其模型家族的专门基础设施Gemma相结合。.
公司将共同推进人工智能扩展的用例:
- 启动开源llm-d项目,谷歌作为创始合作者;
- 支持 Google Cloud TPU 和 GPU 驱动的虚拟机 (VM) 上的 vLLM,以增强 AI 推理;
- Gemma 3 模型分布对 vLLM 的零日支持;
- Google 云上红帽 AI 推理服务器的可用性;
- AI代理的开发,红帽作为谷歌的代理2代理(A2A)协议的合作者。.
使用 vLLM 加强 AI 推理
表明其从零日开始做好准备的承诺 Red Hat 现在是 Google 开放模型系列 Gemma 中的首批测试人员之一,从 Gemma 3 开始,立即获得支持 vllm. 。vLLM是一个开源推理服务器,它加速了生成式AI应用程序的执行,作为vLLM的领先商业贡献者,红帽正在使这个平台对gen AI应用程序更加高效和响应。.
此外,呃, google Cloud TPU 是集成 Google AI 产品组合的高性能 AI 加速器,现在完全兼容 vLLM. 。这种集成使开发人员能够最大限度地利用资源,同时获得快速准确推理所必需的性能和效率。.
AI研究向现实世界部署的转变,许多组织面临着多样化AI生态系统的复杂性以及采用更分布式计算策略的需要 开源项目 llm-d, 者(google)为创始贡献者。vllm社区的势头基础上,这一举措旨在开创gen AI推理的新时代。目标是实现跨异构资源的更大可扩展性,优化成本,提高工作负载效率 - 所有这些都同时推动了持续创新。.
通过基于社区的创新来提升企业人工智能
将开源社区的最新进展带入企业环境 红帽人工智能推理服务器 现在 它可以在 Google Cloud 上使用. 与 Red Hat 的 vLLM 企业发行版类似,AI Inference Server 帮助企业在其混合云环境中优化模型推理。通过利用 Google Cloud 可信的基础设施,组织可以部署可生产、生成式 AI 模型,这些模型具有高度响应性和成本效益。规模化。.
强调开放人工智能的共同承诺 红帽还继续为该协议做出了贡献 Agent2代理(A2A) 谷歌的 2一种应用级协议,可促进代理商和最终用户之间跨不同平台和云的通信通过积极参与A2A生态系统,红帽寻求加速创新,并确保AI工作流程保持动态和有效的力量 AI 特工.
红帽峰会
观看红帽峰会主题演讲,聆听红帽高管、客户和合作伙伴的最新消息:
- 现代基础设施与企业人工智能保持一致 美国东部时间 5 月 20 日 8 点至 10 点(YouTube)
- 混合云不断发展以推动业务创新 5 月 21 日,美国东部时间 8 点至 9 点 30 分(YouTube)


