Các thuật toán trí tuệ nhân tạo hiện tại có yêu cầu cực kỳ cao về RAM: việc truyền dữ liệu giữa bộ xử lý và bộ nhớ hệ thống rất quan trọng đối với loại ứng dụng này và hiệu suất của các thuật toán này phụ thuộc rất nhiều vào băng thông khả dụng. Để ứng phó với tình hình này, NVIDIA hiện đang hợp tác với các tên tuổi lớn trong ngành như Samsung, SK Hynix và Micron – phát triển một tiêu chuẩn bộ nhớ mới được thiết kế riêng để đáp ứng những nhu cầu này. Được gọi là SOCAMM (Mô-đun bộ nhớ nâng cao hệ thống trên chip), kiến trúc RAM mới này dự kiến sẽ được sử dụng trong thế hệ siêu máy tính "cá nhân" tiếp theo. Đây chính là tầm nhìn của NVIDIA dành cho thị trường này.
Một trong những tính năng chính của bộ nhớ SOCAMM là giao diện I/O rộng. SOCAMM hoạt động với 694 cổng I/O trong khi bộ nhớ máy tính DDR5 thông thường chỉ giới hạn ở 260 dòng. Sự gia tăng này giúp giảm bớt tình trạng tắc nghẽn trong việc truyền dữ liệu giữa bộ xử lý và bộ nhớ, giúp tăng tốc đáng kể các phép tính của AI. Dày đặc hơn DRAM thông thường, bộ nhớ này cũng giảm mức tiêu thụ điện năng dựa trên công nghệ LPDDR5X. Bộ nhớ SOCAMM cũng áp dụng kiến trúc mô-đun, cho phép người dùng dễ dàng thay thế và nâng cấp các mô-đun bộ nhớ khi cần.
NVIDIA có kế hoạch tích hợp loại bộ nhớ này vào các hệ thống AI cá nhân nhỏ gọn trong tương lai của mình, đáng chú ý là một phần củadự án DIGITS, các sản phẩm cuối cùng đầu tiên dự kiến sẽ xuất hiện trên thị trường vào tháng 5 năm sau. Mục đích của dự án này là phát triểncác siêu máy tính AI mini thực sự, ban đầu dành cho các nhà phát triển và doanh nghiệp trước khi có thể cung cấp cho công chúng sau này. Bằng cách phát triển tiêu chuẩn bộ nhớ riêng dành cho trí tuệ nhân tạo, NVIDIA chắc chắn hy vọng sẽ kiểm soát được hệ sinh thái mới nổi này; Do đó, cách tiếp cận của nhà sản xuất có thể mang lại cho họ lợi thế cạnh tranh đáng kể trong dài hạn.
Nguồn: Tom's Hardware
Bộ nhớ dành riêng cho tính toán AI
Một trong những tính năng chính của bộ nhớ SOCAMM là giao diện I/O rộng. SOCAMM hoạt động với 694 cổng I/O trong khi bộ nhớ máy tính DDR5 thông thường chỉ giới hạn ở 260 dòng. Sự gia tăng này giúp giảm bớt tình trạng tắc nghẽn trong việc truyền dữ liệu giữa bộ xử lý và bộ nhớ, giúp tăng tốc đáng kể các phép tính của AI. Dày đặc hơn DRAM thông thường, bộ nhớ này cũng giảm mức tiêu thụ điện năng dựa trên công nghệ LPDDR5X. Bộ nhớ SOCAMM cũng áp dụng kiến trúc mô-đun, cho phép người dùng dễ dàng thay thế và nâng cấp các mô-đun bộ nhớ khi cần.
NVIDIA có kế hoạch tích hợp loại bộ nhớ này vào các hệ thống AI cá nhân nhỏ gọn trong tương lai của mình, đáng chú ý là một phần củadự án DIGITS, các sản phẩm cuối cùng đầu tiên dự kiến sẽ xuất hiện trên thị trường vào tháng 5 năm sau. Mục đích của dự án này là phát triểncác siêu máy tính AI mini thực sự, ban đầu dành cho các nhà phát triển và doanh nghiệp trước khi có thể cung cấp cho công chúng sau này. Bằng cách phát triển tiêu chuẩn bộ nhớ riêng dành cho trí tuệ nhân tạo, NVIDIA chắc chắn hy vọng sẽ kiểm soát được hệ sinh thái mới nổi này; Do đó, cách tiếp cận của nhà sản xuất có thể mang lại cho họ lợi thế cạnh tranh đáng kể trong dài hạn.
Nguồn: Tom's Hardware