Google đã giới thiệu Ironwood, con chip nội bộ hoàn toàn mới của hãng dành riêng cho trí tuệ nhân tạo. Và lần này, không chỉ đơn thuần là đánh bóng lại mẫu trước đó. Ironwood được thiết kế chuyên biệt cho mục đích suy luận, tức là chạy AI sau khi chúng đã được đào tạo. Đây là thời điểm mà mô hình như ChatGPT hoặc Gemini trả lời các câu hỏi của người dùng. Đây là một loại tính toán rất khó và Google rõ ràng đã quyết định sẽ làm thật khó.
Kiến trúc chip đã được thiết kế lại để tránh tình trạng tắc nghẽn. Nhiều bộ nhớ hơn (192 GB cho mỗi chip), thông lượng cao hơn (băng thông 7,2 TB/giây), giao tiếp giữa các chip tốt hơn... mọi thứ đều có đủ để các mô hình AI lớn có thể chạy trơn tru. Và mặc dù với sự gia tăng công suất này, Ironwood tiết kiệm gấp đôi so với Trillium, thế hệ trước.
Với Ironwood, Google chủ yếu nhắm mục tiêu đến các công ty muốn chạy AI phức tạp trên nền tảng đám mây. Nhóm này nhấn mạnh đến mười năm kinh nghiệm của mình trong lĩnh vực này và thực tế là các mô hình của riêng họ, chẳng hạn như Gemini hoặc AlphaFold, hiện đang chạy trên các con chip này.
Google cũng cung cấp một môi trường phần mềm có tên là Pathways, do DeepMind phát triển, giúp dễ dàng điều khiển hàng nghìn con chip song song. Điều này giúp có thể chạy các mô hình có yêu cầu rất cao mà không cần phải lo lắng về cơ sở hạ tầng. Ironwood thậm chí còn kết hợp một thành phần chuyên dụng, được gọi là SparseCore, để tăng tốc một số loại tính toán nhất định, ví dụ như trong hệ thống đề xuất. Có điều gì đó thu hút sự quan tâm của các ngành tài chính, nghiên cứu và thương mại điện tử.
Do đó, không có doanh số bán hàng trực tiếp nào được đưa ra. Nhưng trong cuộc đua giành sức mạnh AI, Google rõ ràng đang đặt cược vào thế mạnh của mình!
Một con chip để chạy các mô hình AI, không phải để đào tạo chúng
Ironwood là thế hệ thứ bảy của TPU (Bộ xử lý Tensor) của Google. Những con chip này không được bán tại đơn vị: chúng được sử dụng nội bộ và cung cấp cho khách hàng thông qua Google Cloud. Về mặt kỹ thuật, Ironwood kết hợp một số tính năng mới: mỗi chip có thể đạt tới 4.614 teraflop và có thể nhóm tối đa 9.216 chip lại với nhau để tạo thành một "pod" khổng lồ. À Ở quy mô này, hệ thống đạt tới 42,5 exaflop, vượt xa các siêu máy tính mạnh nhất hiện nay.Kiến trúc chip đã được thiết kế lại để tránh tình trạng tắc nghẽn. Nhiều bộ nhớ hơn (192 GB cho mỗi chip), thông lượng cao hơn (băng thông 7,2 TB/giây), giao tiếp giữa các chip tốt hơn... mọi thứ đều có đủ để các mô hình AI lớn có thể chạy trơn tru. Và mặc dù với sự gia tăng công suất này, Ironwood tiết kiệm gấp đôi so với Trillium, thế hệ trước.

Với Ironwood, Google chủ yếu nhắm mục tiêu đến các công ty muốn chạy AI phức tạp trên nền tảng đám mây. Nhóm này nhấn mạnh đến mười năm kinh nghiệm của mình trong lĩnh vực này và thực tế là các mô hình của riêng họ, chẳng hạn như Gemini hoặc AlphaFold, hiện đang chạy trên các con chip này.
Google cũng cung cấp một môi trường phần mềm có tên là Pathways, do DeepMind phát triển, giúp dễ dàng điều khiển hàng nghìn con chip song song. Điều này giúp có thể chạy các mô hình có yêu cầu rất cao mà không cần phải lo lắng về cơ sở hạ tầng. Ironwood thậm chí còn kết hợp một thành phần chuyên dụng, được gọi là SparseCore, để tăng tốc một số loại tính toán nhất định, ví dụ như trong hệ thống đề xuất. Có điều gì đó thu hút sự quan tâm của các ngành tài chính, nghiên cứu và thương mại điện tử.
Do đó, không có doanh số bán hàng trực tiếp nào được đưa ra. Nhưng trong cuộc đua giành sức mạnh AI, Google rõ ràng đang đặt cược vào thế mạnh của mình!