Chúng ta vẫn chưa hiểu AI hoạt động như thế nào — và đã đến lúc chúng ta phải sửa lỗi đó

theanh

Administrator
Nhân viên
Mỗi ngày, các công cụ mới dựa trên học máy lại xuất hiện và ngày càng có nhiều người bắt đầu sử dụng chúng. Các mô hình AI này hiện chiếm một vị trí quan trọng trong hệ sinh thái công nghệ của chúng ta, dù tốt hay xấu… tuy nhiên, chúng ta vẫn gặp nhiều khó khăn trong việc hiểu cách chúng hoạt động ở chế độ nền. Tổng giám đốc điều hành của Anthropic, công ty đứng sau chương trình LLM của Claude, đã tự cho mình hai năm để giải quyết vấn đề thế hệ này.

Trong một bài luận được đăng trên blog của mình có tựa đề “Tính cấp thiết của khả năng diễn giải,” Dario Amodei bắt đầu bằng cách nhắc nhở chúng ta rằng các mô hình AI hiện chiếm một vị trí quan trọng ở nhiều cấp độ của xã hội, dù tốt hay xấu. Công nghệ này đang tiến triển với tốc độ đáng kinh ngạc ngày nay và các mô hình ngày nay có khả năng thực hiện những kỳ tích mà chỉ mười năm trước vẫn còn là khoa học viễn tưởng.

Hộp đen của AI​

Nhưng sự gia tăng sức mạnh ngoạn mục này có xu hướng che khuất một yếu tố thường không được công chúng chú ý: vấn đề về khả năng diễn giải, thường được gọi là "hộp đen của AI".

Thật vậy, các mạng nơ-ron nhân tạo mà các công cụ này dựa trên là những thực thể cực kỳ trừu tượng. Chúng ta biết rằng chúng ta có thể cung cấp dữ liệu cho một mô hình để đào tạo mô hình đó, nhận được kết quả ở đầu ra thông qua quá trình suy luận… nhưng mọi thứ xảy ra ở giữa thường quá mơ hồ và khó hiểu đối với con người.

labyrinthe-boite-noire-ia.jpg


Khi một hệ thống AI tạo sinh thực hiện một việc gì đó, chẳng hạn như tóm tắt một tài liệu tài chính, chúng ta không biết, ở bất kỳ cấp độ cụ thể hay chính xác nào, tại sao nó lại đưa ra những lựa chọn như vậy—tại sao nó chọn một số từ nhất định thay vì những từ khác hoặc tại sao đôi khi nó lại mắc lỗi mặc dù thường là chính xác,” Amodei tóm tắt.

Những người ngoài lĩnh vực này thường ngạc nhiên và lo lắng khi biết rằng chúng ta không hiểu cách thức hoạt động của những sáng tạo của chính mình,” ông nói thêm. Sự ngạc nhiên này hoàn toàn dễ hiểu: xét cho cùng, đây là lần đầu tiên trong lịch sử nền văn minh của chúng ta, một công nghệ ít được hiểu biết như vậy lại chiếm một vị trí quan trọng trong xã hội.

Các vấn đề xã hội, công nghệ và thương mại

Tình huống này đặt ra một loạt các câu hỏi khá khó chịu, đặc biệt là về chủ đề bảo mật. Điều này đặc biệt đúng trong bối cảnh hiện tại, khi một số công ty lớn trong ngành hiện đang tập trung vào việc tạo ra trí tuệ nhân tạo tổng quát với kiến thức và khả năng suy luận vượt trội hơn nhiều so với bất kỳ người thật nào.

Nhiều chuyên gia, bao gồm cả Amodei, tin rằng sẽ rất thiếu khôn ngoan khi triển khai các hệ thống như vậy trước khi tìm ra cách thực sự hiểu cách chúng hoạt động. "Chúng ta có thể có các hệ thống AI tương đương với số lượng thiên tài của cả một quốc gia tập trung trong một trung tâm dữ liệu sớm nhất là vào năm 2026 hoặc 2027. Tôi rất lo ngại về việc triển khai các hệ thống như vậy mà không hiểu rõ hơn về khả năng diễn giải", ông giải thích trong bài luận của mình.

Ông cũng nói thêm rằng khía cạnh bảo mật này không phải là lý do duy nhất thúc đẩy những người chơi AI giải quyết vấn đề hộp đen. Đối với ông, đây không chỉ là vấn đề an ninh: cách tiếp cận này cũng có thể mang lại lợi thế thương mại đáng kể. Về bản chất, những thực thể đầu tiên giải mã cách thức hoạt động của sáng tạo của họ cũng sẽ ở vị trí tốt nhất để thúc đẩy giới hạn của công nghệ—ví dụ, bằng cách loại bỏ hoàn toàn ảo giác, những trường hợp mà LLM hoàn toàn mất kiểm soát và bắt đầu đưa ra những câu trả lời bất thường hoặc không đúng sự thật.

Ngành công nghiệp đang vào cuộc​

Vì tất cả những lý do này, Amodei giải thích rằng việc tìm kiếm khả năng diễn giải hiện nên được ưu tiên hàng đầu đối với toàn bộ ngành công nghiệp, và thậm chí là cộng đồng khoa học nói chung. Ông cho biết: "Khả năng diễn giải ít được chú ý hơn so với các ấn phẩm mô hình liên tục, nhưng có thể nói là quan trọng hơn". "Các nhà nghiên cứu AI trong các doanh nghiệp, trường đại học hoặc tổ chức phi lợi nhuận có thể đẩy nhanh khả năng diễn giải bằng cách làm việc trực tiếp với nó."

Tin tốt là một số tổ chức đã và đang thực hiện công việc rất nghiêm túc về vấn đề này. Một phần đáng kể các nghiên cứu hiện tại trong lĩnh vực này hướng đến mục tiêu tạo ra thứ mà Amodei mô tả là "MRI cực kỳ chính xác và rõ ràng, có thể tiết lộ đầy đủ hoạt động bên trong của mô hình AI". Một số tiến bộ rất đáng hứa hẹn đã bắt đầu xuất hiện, ví dụ như từ DeepMind. Vào cuối năm 2023, công ty đoạt giải Nobel cho công trình nghiên cứu về cấu trúc protein đã trình bày FunSearch, một mô hình dựa trên kiến trúc tiến hóa cho phép mô tả cách thức đạt được một giải pháp nhất định.

AlphaFold: đây là lý do tại sao cơ sở dữ liệu gấp protein lại mang tính cách mạng



Về phần mình, Anthropic cũng đang đầu tư vào quy trình này. Ví dụ, vào tháng 3 năm ngoái, công ty đã công bố một nghiên cứu rất thú vị về “sinh học của các mô hình ngôn ngữ lớn”. Công trình này đã làm nổi bật sự tồn tại của một số ít “mạch” có thể giúp theo dõi được luồng lý luận của LLM. Đồng thời, công ty cũng đầu tư vào một công ty khởi nghiệp chuyên về khả năng diễn giải mô hình.

Amodei hy vọng cách tiếp cận này sẽ giúp có thể "phát hiện đáng tin cậy hầu hết các vấn đề về mô hình" vào năm 2027, thời điểm mà các công ty như OpenAI hy vọng sẽ đạt đến giai đoạn trí tuệ nhân tạo tổng quát. Do đó, sẽ rất thú vị khi theo dõi tất cả công trình nghiên cứu về khả năng diễn giải này, vì đây chắc chắn là điểm gây tranh cãi lớn, có ảnh hưởng lớn đến quỹ đạo của công nghệ mang tính chuyển đổi này trong những năm tới. Hẹn gặp lại bạn sau hai năm để đánh giá lại.
 
Back
Bên trên