Chatbot AI dễ dàng bị hack bởi bất kỳ ai

theanh

Administrator
Nhân viên
Tin xấu cho những ai nghĩ rằng trí tuệ nhân tạo đã bị khóa chặt: Các nhà nghiên cứu Israel vừa chứng minh rằng chỉ cần một vài từ được lựa chọn khéo léo là đủ để khiến các chatbot phổ biến nhất nói chuyện. Và khi họ ngồi vào bàn ăn, họ có thể tiết lộ một số thông tin thực sự đáng lo ngại.

Công thức nấu ăn không hấp dẫn​

Nhóm Giáo sư Lior Rokach và Tiến sĩ Michael Fire, từ Đại học Ben-Gurion ở Negev, đã phát triển cái mà họ gọi là "bẻ khóa toàn diện." Cụ thể, kỹ thuật này cho phép vượt qua tính bảo mật của ChatGPT, Gemini, Claude và các chương trình khác bằng cách khai thác điểm yếu chính của chúng: mong muốn làm tốt.

Các chương trình này luôn rơi vào tình thế tiến thoái lưỡng nan. Một mặt, họ thực sự muốn trả lời câu hỏi của bạn. Mặt khác, họ được lệnh không được nói bất cứ điều gì. Vấn đề là với cách tiếp cận đúng đắn, bạn có thể thúc đẩy họ ủng hộ phương án đầu tiên hơn phương án thứ hai.

Kết quả? Một khi bị hack, các chatbot này sẽ biến thành bộ bách khoa toàn thư về tội phạm thực sự. Michael Fire cho biết: "Thật kinh ngạc khi thấy hệ thống kiến thức này được tạo nên như thế nào". Trên menu: hướng dẫn hack, cách chế tạo ma túy và thậm chí hướng dẫn từng bước cho các hoạt động bất hợp pháp khác.

Vấn đề là những trí thông minh nhân tạo này nuốt chửng mọi thứ trên internet trong khi chúng học. Mặc dù các nhà phát triển đã cố gắng phân loại nhưng vẫn không thể loại bỏ hoàn toàn nội dung đáng ngờ. Kết quả: các mô hình này vô tình lưu trữ thông tin về rửa tiền, sản xuất thuốc nổ và giao dịch nội gián.

Đáng lo ngại hơn nữa là chúng ta đang chứng kiến sự gia tăng của "Dark LLM" trên web—phiên bản lậu của các công cụ này, được thiết kế có chủ đích mà không có bất kỳ bộ lọc nào. Khẩu hiệu tiếp thị của họ là gì? “Không có biện pháp bảo vệ đạo đức!” Và lời hứa hỗ trợ mọi hoạt động tội phạm mà bạn yêu thích.

Khi các nhà nghiên cứu cố gắng cảnh báo những gã khổng lồ công nghệ về khám phá của họ, phản ứng của họ khá lạnh nhạt. Một số công ty thậm chí còn không thèm phản hồi, trong khi những công ty khác lại bỏ qua và giải thích rằng kiểu tấn công này không thực sự khiến họ quan tâm.

Thái độ hờ hững này khiến các chuyên gia lo lắng. Tiến sĩ Ihsen Alouani, chuyên gia bảo mật AI tại Đại học Queen's Belfast, cảnh báo rằng những sai sót này có thể gây ra hậu quả rất thực tế: "Từ hướng dẫn chi tiết về cách chế tạo vũ khí cho đến thông tin sai lệch có sức thuyết phục hoặc các vụ lừa đảo tự động tinh vi đến mức đáng báo động".

Để hạn chế thiệt hại, các nhà nghiên cứu đề xuất một số giải pháp: lọc dữ liệu đào tạo tốt hơn, cài đặt tường lửa mạnh hơn và thậm chí phát triển các kỹ thuật để khiến chatbot "quên" thông tin gây tổn hại mà chúng đã thu thập. Trong khi đó, những gì từng đòi hỏi kỹ năng hack chuyên nghiệp giờ đây đã nằm trong tầm tay của bất kỳ ai có điện thoại thông minh.
 
Back
Bên trên