Hiện tại, Samsung đã hoàn tất phát triển bộ nhớ LPDDR6 và dự kiến bắt đầu sản xuất hàng loạt trong thời gian sớm nhất để kịp mục tiêu ra mắt vào nửa cuối năm 2026. Tiêu chuẩn bộ nhớ LPDDR6 của Samsung sẽ có tốc độ khởi điểm là 10,7 Gbps với hiệu suất cao hơn 21% so với giải pháp LPDDR5 hiện tại. Các phiên bản cải tiến sau đó dự kiến sẽ đạt tốc độ trên 14,4 Gbps.
LPDDR6X là phiên bản nâng cấp của bộ nhớ LPDDR6 và sẽ tiếp tục mở rộng khả năng của tiêu chuẩn DRAM này. Mặc dù thông số kỹ thuật chính thức cho bộ nhớ LPDDR6X vẫn chưa được JEDEC hoàn thiện, nhiều thông tin chi tiết hơn được kỳ vọng sẽ công bố trong năm nay.

Quay lại câu chuyện chính, mẫu LPDDR6X của Samsung đã được gửi tới Qualcomm và nhiều khả năng sẽ được sử dụng trong chip tăng tốc AI mang tên “AI250”. Đây sẽ là thế hệ kế tiếp của AI200 năm nay, vốn cũng tận dụng tiêu chuẩn bộ nhớ LPDDR. Cả hai chip này đều được thiết kế để xử lý khối lượng công việc suy luận AI, tương tự như GPU Crescent Island của Intel dựa trên kiến trúc Xe3P khi cả hai đều sử dụng tiêu chuẩn LPDDR.
Trong khi NVIDIA, AMD, Huawei và các nhà sản xuất chip trung tâm dữ liệu lớn khác tận dụng bộ nhớ HBM, các tiêu chuẩn DRAM đó có chi phí cao, tiêu thụ nhiều điện năng hơn và đang gặp tình trạng thiếu hụt nguồn cung. HBM khó sản xuất hơn nhiều so với DDR do yêu cầu khắt khe về đóng gói, xác thực và kiểm tra chất lượng. DRAM LPDDR giúp tiết kiệm công sức sản xuất và có chi phí thấp hơn đáng kể.

Dù HBM nhanh hơn rất nhiều, nhưng với mức giá hợp lý của LPDDR, công nghệ này phù hợp hơn cho các giải pháp AI tiết kiệm chi phí. Do đó, Qualcomm dự kiến sẽ trang bị lên tới 768 GB bộ nhớ LPDDR trên chip AI200, và chip AI250 được kỳ vọng sẽ có dung lượng LPDDR6X vượt quá 1 TB.
Tuy nhiên, tính đến thời điểm hiện tại, bộ nhớ LPDDR6X vẫn còn cách xa việc thương mại hóa. Tiêu chuẩn này có thể chỉ xuất hiện vào khoảng cuối năm 2027 hoặc đầu năm 2028.








