Trong bối cảnh Trung Quốc thiếu hụt chip AI cao cấp, Huawei vừa công bố công cụ Flex:ai – phần mềm điều phối mã nguồn mở được hãng mô tả là bước đột phá giúp “bù đắp hạn chế phần cứng bằng sức mạnh phần mềm”.
Flex:ai được xây dựng trên nền Kubernetes và phát hành qua cộng đồng ModelEngine. Theo Huawei, công cụ này có thể tạo ra một “chip AI mô phỏng” với tốc độ xử lý nhanh hơn 1.000 lần so với chip Nvidia. Dù không tiết lộ chi tiết kỹ thuật, Huawei khẳng định Flex:ai giúp tăng mức sử dụng thực tế của các bộ tăng tốc AI lên khoảng 30%.
Điểm cốt lõi của Flex:ai là cơ chế ảo hóa tài nguyên: phần mềm có thể “cắt nhỏ” GPU/NPU vật lý thành nhiều đơn vị xử lý ảo cho tác vụ nhẹ hoặc “gộp” nhiều card lại để chạy các mô hình AI lớn vượt giới hạn phần cứng một máy. Tất cả được điều phối bởi Hi Scheduler, hệ thống tự động phân bổ tài nguyên nhàn rỗi theo thời gian thực để tránh lãng phí công suất.
Khác với các giải pháp tập trung vào hệ sinh thái Nvidia như Run:ai, Flex:ai được thiết kế để tương thích đa nền tảng, đặc biệt tối ưu cho dòng chip Ascend của Huawei và hỗ trợ cả GPU phổ biến thông qua plugin tiêu chuẩn. Công cụ này được phát triển với sự tham gia của nhiều trường đại học lớn tại Trung Quốc.

Hiện Huawei chưa công bố mã nguồn hay dữ liệu kiểm thử, khiến tuyên bố “nhanh hơn 1.000 lần” gây nhiều hoài nghi. Giới chuyên môn cho rằng cần chờ Flex:ai được phát hành rộng rãi để xác định liệu đây là bước tiến thực sự hay chỉ là lời quảng bá táo bạo trong bối cảnh cạnh tranh chip AI ngày càng gay gắt.









