Hoạt động kinh doanh HBM của Samsung có thể chứng kiến sự thay đổi lớn khi AMD áp dụng quy trình HBM3E trong bộ tăng tốc AI mới nhất của mình, mở đường cho sự chấp thuận của NVIDIA.
Tuy nhiên, theo báo cáo của BusinessKorea, Samsung có thể tìm thấy một chút hy vọng sau khi AMD thông báo rằng công ty này đã sử dụng các ngăn xếp HBM3E 12-Hi của Samsung cho bộ tăng tốc AI mới nhất của mình. Hơn nữa, Samsung cũng đang có kế hoạch hợp tác với AMD trong dòng sản phẩm tăng tốc Instinct MI400, thông qua quy trình HBM4 của hãng.
AMD tiết lộ rằng các bộ tăng tốc AI mới nhất của hãng, Instinct MI350X và MI355X, sẽ có HBM3E từ Samsung và Micron. Vì cả hai GPU AI đều được cho là sử dụng bộ nhớ 288 GB, nên AMD có thể đã sử dụng các ngăn xếp 12-Hi từ Samsung. Không chỉ vậy, AMD còn có kế hoạch mở rộng các dịch vụ của mình lên các giải pháp quy mô giá đỡ, điều này có khả năng sẽ thúc đẩy nhu cầu về các giải pháp bộ nhớ HBM3E nhiều hơn, mang lại lợi ích cho Samsung về lâu dài. Vì đây là lần đầu tiên AMD chính thức công bố quan hệ đối tác với gã khổng lồ Hàn Quốc, chúng tôi mong đợi phản ứng tích cực từ ngành.
Samsung cũng có kế hoạch mở rộng quy mô sản xuất HBM4 vào nửa cuối năm nay và với việc AMD sử dụng quy trình này cho bộ tăng tốc AI Instinct MI400, chúng tôi hy vọng Samsung cũng sẽ áp dụng quy trình này. Gã khổng lồ Hàn Quốc đặc biệt quyết tâm biến lợi thế thành có lợi cho mình với HBM4, vì các đối thủ cạnh tranh như SK hynix và Micron đã chứng kiến sự gia tăng mạnh mẽ về thị phần HBM sau khi hợp tác với NVIDIA, do đó Samsung rất muốn giành lại vị trí dẫn đầu và điều này có thể xảy ra với thông báo của AMD, cũng như giải pháp HBM4 có khả năng.
HBM3E của Samsung có thể đang trên đà được NVIDIA chấp thuận, sau khi được AMD tích hợp
Gã khổng lồ Hàn Quốc đang không có thời gian tốt nhất liên quan đến hoạt động kinh doanh trong phân khúc AI, đặc biệt là khi bộ phận đúc chip đã hoạt động kém hiệu quả trong nhiều quý gần đây. Có một chút hy vọng cho hoạt động kinh doanh HBM khi có thông tin NVIDIA đã thể hiện sự quan tâm to lớn, nhưng sau một loạt các bài kiểm tra trình độ, Samsung đã không thể vượt qua các tiêu chuẩn của Team Green, điều này đã đẩy gã khổng lồ Hàn Quốc xuống hàng ghế sau trong phân khúc này.Tuy nhiên, theo báo cáo của BusinessKorea, Samsung có thể tìm thấy một chút hy vọng sau khi AMD thông báo rằng công ty này đã sử dụng các ngăn xếp HBM3E 12-Hi của Samsung cho bộ tăng tốc AI mới nhất của mình. Hơn nữa, Samsung cũng đang có kế hoạch hợp tác với AMD trong dòng sản phẩm tăng tốc Instinct MI400, thông qua quy trình HBM4 của hãng.

AMD tiết lộ rằng các bộ tăng tốc AI mới nhất của hãng, Instinct MI350X và MI355X, sẽ có HBM3E từ Samsung và Micron. Vì cả hai GPU AI đều được cho là sử dụng bộ nhớ 288 GB, nên AMD có thể đã sử dụng các ngăn xếp 12-Hi từ Samsung. Không chỉ vậy, AMD còn có kế hoạch mở rộng các dịch vụ của mình lên các giải pháp quy mô giá đỡ, điều này có khả năng sẽ thúc đẩy nhu cầu về các giải pháp bộ nhớ HBM3E nhiều hơn, mang lại lợi ích cho Samsung về lâu dài. Vì đây là lần đầu tiên AMD chính thức công bố quan hệ đối tác với gã khổng lồ Hàn Quốc, chúng tôi mong đợi phản ứng tích cực từ ngành.
Samsung cũng có kế hoạch mở rộng quy mô sản xuất HBM4 vào nửa cuối năm nay và với việc AMD sử dụng quy trình này cho bộ tăng tốc AI Instinct MI400, chúng tôi hy vọng Samsung cũng sẽ áp dụng quy trình này. Gã khổng lồ Hàn Quốc đặc biệt quyết tâm biến lợi thế thành có lợi cho mình với HBM4, vì các đối thủ cạnh tranh như SK hynix và Micron đã chứng kiến sự gia tăng mạnh mẽ về thị phần HBM sau khi hợp tác với NVIDIA, do đó Samsung rất muốn giành lại vị trí dẫn đầu và điều này có thể xảy ra với thông báo của AMD, cũng như giải pháp HBM4 có khả năng.