Hai cái lớn người chơi từ sự chuyển đổi mở của trí tuệ nhân tạo, chúng tôi vừa công bố mở rộng hợp tác để thúc đẩy AI.Sự tiến bộ của quan hệ đối tác giữa Red Hat và Google Cloud tập trung vào việc mở rộng danh sách các ứng dụng kinh doanh cho AI, kết hợp các công nghệ nguồn mở của nhà lãnh đạo nguồn mở với cơ sở hạ tầng chuyên biệt của Google và gia đình các mô hình của nó, Gemma.
Cùng nhau, các công ty sẽ thúc đẩy các trường hợp sử dụng để mở rộng AI thông qua:
- Khởi động dự án llm-d nguồn mở, với Google là cộng tác viên sáng lập;
- Hỗ trợ vLLM trên Google Cloud TPU và máy ảo (VM) chạy bằng GPU để tăng cường suy luận AI;
- Hỗ trợ 0 ngày cho vLLM với bản phân phối mô hình Gemma 3;
- Tính khả dụng của Máy chủ suy luận AI Red Hat trên Google Cloud;
- Phát triển AI agentic với Red Hat là cộng tác viên trong giao thức Agent2Agent (A2A) của Google.
Củng cố suy luận AI với vLLM
Thể hiện cam kết sẵn sàng ngay từ ngày đầu tiên, Red Hat hiện là một trong những người thử nghiệm đầu tiên trong gia đình mô hình mở của Google, Gemma, bắt đầu với Gemma 3, với sự hỗ trợ ngay lập tức cho các vllm. vLLM là một máy chủ suy luận mã nguồn mở giúp tăng tốc việc thực thi các ứng dụng AI tổng quát.Là một người đóng góp thương mại hàng đầu cho vLLM, Red Hat đang làm cho nền tảng này hiệu quả hơn và đáp ứng cho các ứng dụng AI gen.
Ngoài ra, uh, google Cloud TPU, các bộ tăng tốc AI hiệu suất cao tích hợp danh mục AI của Google, hiện hoàn toàn tương thích với vLLM. Sự tích hợp này cho phép các nhà phát triển tối đa hóa tài nguyên đồng thời đạt được hiệu suất và hiệu quả cần thiết để suy luận nhanh chóng và chính xác.
Nhận thấy sự chuyển đổi từ nghiên cứu AI sang triển khai trong thế giới thực, nhiều tổ chức phải đối mặt với sự phức tạp của hệ sinh thái AI đa dạng và nhu cầu áp dụng các chiến lược điện toán phân tán hơn dự án mã nguồn mở llm-d, với Google là người đóng góp sáng lập.Xây dựng trên đà của cộng đồng vLLM, sáng kiến này nhằm mục đích mở ra một kỷ nguyên mới cho gen AI inference.The mục tiêu là cho phép khả năng mở rộng lớn hơn trên các tài nguyên không đồng nhất, tối ưu hóa chi phí và tăng hiệu quả khối lượng công việc - tất cả trong khi thúc đẩy sự đổi mới liên tục.
Thúc đẩy AI doanh nghiệp bằng đổi mới dựa vào cộng đồng
Đưa những tiến bộ mới nhất từ cộng đồng nguồn mở vào môi trường doanh nghiệp, các Máy chủ suy luận AI Red Hat bây gi nó có sẵn trên Google Cloud. tương tự như phân phối doanh nghiệp của vLLM bởi Red Hat, AI Inference Server giúp doanh nghiệp tối ưu hóa suy luận mô hình trên môi trường đám mây lai của họ.Bằng cách tận dụng cơ sở hạ tầng đáng tin cậy của Google Cloud, các tổ chức có thể triển khai các mô hình AI sáng tạo, sẵn sàng sản xuất, vừa có tính đáp ứng cao vừa tiết kiệm chi phí ở quy mô lớn.
Nhấn mạnh cam kết chung về mở AI, Red Hat cũng tiếp tục đóng góp cho giao thức này Đại lý2Đại lý (A2A) của google 2một giao thức cấp ứng dụng tạo điều kiện giao tiếp giữa các đại lý và người dùng cuối trên các nền tảng và đám mây đa dạng.Bằng cách tích cực tham gia vào hệ sinh thái A2A, Red Hat tìm cách tăng tốc đổi mới và đảm bảo rằng quy trình làm việc AI vẫn năng động và hiệu quả với sức mạnh của Đại lý AI.
Hội nghị thượng đỉnh Red Hat
Xem các bài phát biểu quan trọng của Hội nghị thượng đỉnh Red Hat để nghe thông tin mới nhất từ các giám đốc điều hành, khách hàng và đối tác của Red Hat:
- Cơ sở hạ tầng hiện đại phù hợp với AI doanh nghiệp 20 tháng 5, 8h - 10h EDT (YouTube)
- Đám mây lai phát triển để thúc đẩy đổi mới kinh doanh 21 tháng 5, 8h-9h30 EDT (YouTube)


