- Hãng SK Hynix của Hàn Quốc hôm qua (2/5) đã lên tiếng cho biết chip bộ nhớ băng thông cao (HBM) được sử dụng trong chipset AI đã được bán hết trong năm nay và gần như bán hết vào năm 2025 khi các doanh nghiệp tích cực mở rộng dịch vụ trí tuệ nhân tạo (AI).
SK Hynix - nhà cung cấp của Nvidia cũng là nhà sản xuất chip nhớ lớn thứ hai thế giới sẽ bắt đầu gửi mẫu chip HBM mới nhất của mình, được gọi là HBM3E 12 lớp, vào tháng 5 và bắt đầu sản xuất hàng loạt chúng vào quý 3.
Giám đốc điều hành Kwak Noh-Jung phát biểu trong một cuộc họp báo mới đây rằng: “Thị trường HBM dự kiến sẽ tiếp tục phát triển khi kích thước dữ liệu và mô hình AI tăng lên. Tăng trưởng nhu cầu hàng năm dự kiến sẽ vào khoảng 60% trong trung và dài hạn.”
Tháng trước, SK Hynix đã công bố kế hoạch trị giá 3,87 tỷ USD để xây dựng một nhà máy đóng gói chip tiên tiến ở bang Indiana của Mỹ với dây chuyền chip HBM và khoản đầu tư 5,3 nghìn tỷ won (3,9 tỷ USD) vào một nhà máy sản xuất chip DRAM mới tại quê nhà, tập trung vào HBM.
CEO Kwak cho biết việc đầu tư vào HBM khác với mô hình trước đây trong ngành chip ở chỗ SK Hynix hiểu rõ hơn về nhu cầu của khách hàng vì công suất đang được tăng lên sau khi tham vấn với khách hàng.
Tuần trước, SK Hynix cho biết trong một cuộc gọi hội nghị sau báo cáo thu nhập rằng có thể thiếu chip nhớ thông thường cho điện thoại thông minh, máy tính cá nhân và máy chủ mạng vào cuối năm nếu nhu cầu về thiết bị công nghệ vượt quá mong đợi.
Đến năm 2028, phần chip được sản xuất cho AI, chẳng hạn như HBM và mô-đun DRAM dung lượng cao, dự kiến sẽ chiếm 61% tổng dung lượng bộ nhớ xét về mặt giá trị từ khoảng 5% vào năm 2023, ông Justin Kim, người đứng đầu cơ sở hạ tầng AI của SK Hynix cho biết.