DeepSeek, công cụ AI của Trung Quốc đang nổi lên như một giải pháp thay thế tuyệt vời cho ChatGPT, lại chứa đầy lỗ hổng bảo mật. Theo các thí nghiệm do các nhà nghiên cứu Kela thực hiện, AI của Trung Quốc, thứ khiến những gã khổng lồ của Mỹ phải sợ hãi, thậm chí còn "dễ bị tổn thương hơn nhiều" so với chatbot của OpenAI.
Như các nhà nghiên cứu giải thích trong báo cáo của họ, có thể "bẻ khóa" AI tạo sinh để vượt qua các hạn chế của nó mà không gặp quá nhiều khó khăn. Các nhà nghiên cứu đã có thể thao túng mô hình để thuyết phục nó bỏ qua các bộ lọc nội dung và các ràng buộc về mặt đạo đức do những người thiết kế đặt ra.
Các nhà nghiên cứu tại Kela đã có thể sử dụng DeepSeek để "tạo ra các kết quả độc hại, chẳng hạn như phát triển phần mềm tống tiền, tạo nội dung nhạy cảm hoặc cung cấp hướng dẫn chi tiết để chế tạo chất độc và thiết bị nổ". Nói tóm lại, tội phạm có thể sử dụng AI như một vũ khí. Đối với Kela, rõ ràng "rằng khả năng ấn tượng của DeepSeek R1 không thể sánh bằng các tính năng bảo mật mạnh mẽ". Lưu ý rằng có thể dễ dàng thao túng các phiên bản đầu của ChatGPT theo cách tương tự. Với các phiên bản AI mới hơn, chẳng hạn như ChatGPT 4o, OpenAI đã khắc phục tình trạng này và đưa vào các biện pháp bảo vệ hiệu quả hơn.
Hơn nữa, các nhà nghiên cứu chỉ rõ rằng DeepSeek dễ bị mắc bẫy bởi "nhiều kỹ thuật khác nhau, bao gồm các phương pháp đã được công bố hơn hai năm trước". Các chuyên gia trích dẫn một chiến thuật được gọi là “Evil Jailbreak”. Nó chỉ đơn giản bao gồm việc thúc đẩy AI áp dụng "một nhân vật 'ác', không bị ràng buộc về mặt đạo đức".
Để thuyết phục chatbot, người dùng phải giả vờ rằng đây là một thử nghiệm cho một tác phẩm hư cấu hoặc trò chơi nhập vai. Chỉ cần một vài truy vấn được điều chỉnh tốt, mô hình sẽ quên đi những hạn chế của nó và có thể viết nội dung phạm tội về "cách tốt nhất để rửa tiền từ các hoạt động bất hợp pháp" hoặc việc sản xuất ma túy đá. Nó cũng có thể mã hóa phần mềm độc hại có khả năng đánh cắp dữ liệu cá nhân và thông tin ngân hàng.
AI “không chỉ cung cấp hướng dẫn chi tiết mà còn tạo ra một tập lệnh độc hại được thiết kế để trích xuất dữ liệu thẻ tín dụng từ các trình duyệt cụ thể và truyền đến một máy chủ từ xa,” Kela giải thích. Trong một thí nghiệm khác, DeepSeek đã đưa ra lời khuyên về việc thiết kế chất nổ không thể phát hiện để tấn công sân bay. AI của Trung Quốc cũng đồng ý tìm kiếm, thu thập và chia sẻ dữ liệu cá nhân của nhân viên OpenAI, vi phạm luật hiện hành ở Châu Âu và Hoa Kỳ.
Vụ việc bị phát hiện ngay sau khi ChatGPT ra mắt vào đầu năm 2023. OpenAI đã khắc phục lỗ hổng bị khai thác bằng GPT 4 và các bản vá khác. Như các thử nghiệm của Kela cho thấy, các truy vấn đánh lừa DeepSeek không đủ để bẫy ChatGPT. Không giống như ChatGPT, DeepSeek minh bạch về quá trình lý luận đằng sau mỗi phản hồi của nó. Tính minh bạch này giúp tin tặc dễ dàng thao túng trí tuệ nhân tạo hơn, đặc biệt là với các cuộc tấn công đối đầu hoặc tấn công tiêm mã ngay lập tức.
Tóm lại, DeepSeek “tụt hậu về mặt bảo mật, quyền riêng tư và an toàn”. Hơn nữa, AI cũng đáng lo ngại vì mối liên hệ của nó với chính phủ Trung Quốc. Báo cáo của Kela chỉ ra rằng luật pháp Trung Quốc yêu cầu công ty phải chia sẻ dữ liệu của mình với các cơ quan chức năng nếu được yêu cầu.
Như Adrianus Warmenhoven, một chuyên gia bảo mật tại NordVPN, đã giải thích với 01net, chính sách bảo mật của DeepSeek "nêu rõ rằng dữ liệu người dùng, bao gồm các cuộc trò chuyện và phản hồi được tạo ra, được lưu trữ trên các máy chủ đặt tại Trung Quốc.".
Để kiểm tra DeepSeek, chúng tôi khuyên bạn nên sử dụng một giải pháp thay thế lưu trữ mô hình trên các máy chủ ở phương Tây, chẳng hạn như Perplexity.
Nguồn: Kela
Như các nhà nghiên cứu giải thích trong báo cáo của họ, có thể "bẻ khóa" AI tạo sinh để vượt qua các hạn chế của nó mà không gặp quá nhiều khó khăn. Các nhà nghiên cứu đã có thể thao túng mô hình để thuyết phục nó bỏ qua các bộ lọc nội dung và các ràng buộc về mặt đạo đức do những người thiết kế đặt ra.
DeepSeek, một AI dễ bị thao túng
Các nhà nghiên cứu tại Kela đã có thể sử dụng DeepSeek để "tạo ra các kết quả độc hại, chẳng hạn như phát triển phần mềm tống tiền, tạo nội dung nhạy cảm hoặc cung cấp hướng dẫn chi tiết để chế tạo chất độc và thiết bị nổ". Nói tóm lại, tội phạm có thể sử dụng AI như một vũ khí. Đối với Kela, rõ ràng "rằng khả năng ấn tượng của DeepSeek R1 không thể sánh bằng các tính năng bảo mật mạnh mẽ". Lưu ý rằng có thể dễ dàng thao túng các phiên bản đầu của ChatGPT theo cách tương tự. Với các phiên bản AI mới hơn, chẳng hạn như ChatGPT 4o, OpenAI đã khắc phục tình trạng này và đưa vào các biện pháp bảo vệ hiệu quả hơn.
Trễ hai năm
Hơn nữa, các nhà nghiên cứu chỉ rõ rằng DeepSeek dễ bị mắc bẫy bởi "nhiều kỹ thuật khác nhau, bao gồm các phương pháp đã được công bố hơn hai năm trước". Các chuyên gia trích dẫn một chiến thuật được gọi là “Evil Jailbreak”. Nó chỉ đơn giản bao gồm việc thúc đẩy AI áp dụng "một nhân vật 'ác', không bị ràng buộc về mặt đạo đức".
Để thuyết phục chatbot, người dùng phải giả vờ rằng đây là một thử nghiệm cho một tác phẩm hư cấu hoặc trò chơi nhập vai. Chỉ cần một vài truy vấn được điều chỉnh tốt, mô hình sẽ quên đi những hạn chế của nó và có thể viết nội dung phạm tội về "cách tốt nhất để rửa tiền từ các hoạt động bất hợp pháp" hoặc việc sản xuất ma túy đá. Nó cũng có thể mã hóa phần mềm độc hại có khả năng đánh cắp dữ liệu cá nhân và thông tin ngân hàng.
AI “không chỉ cung cấp hướng dẫn chi tiết mà còn tạo ra một tập lệnh độc hại được thiết kế để trích xuất dữ liệu thẻ tín dụng từ các trình duyệt cụ thể và truyền đến một máy chủ từ xa,” Kela giải thích. Trong một thí nghiệm khác, DeepSeek đã đưa ra lời khuyên về việc thiết kế chất nổ không thể phát hiện để tấn công sân bay. AI của Trung Quốc cũng đồng ý tìm kiếm, thu thập và chia sẻ dữ liệu cá nhân của nhân viên OpenAI, vi phạm luật hiện hành ở Châu Âu và Hoa Kỳ.
Vụ việc bị phát hiện ngay sau khi ChatGPT ra mắt vào đầu năm 2023. OpenAI đã khắc phục lỗ hổng bị khai thác bằng GPT 4 và các bản vá khác. Như các thử nghiệm của Kela cho thấy, các truy vấn đánh lừa DeepSeek không đủ để bẫy ChatGPT. Không giống như ChatGPT, DeepSeek minh bạch về quá trình lý luận đằng sau mỗi phản hồi của nó. Tính minh bạch này giúp tin tặc dễ dàng thao túng trí tuệ nhân tạo hơn, đặc biệt là với các cuộc tấn công đối đầu hoặc tấn công tiêm mã ngay lập tức.
Cái bóng của Trung Quốc
Tóm lại, DeepSeek “tụt hậu về mặt bảo mật, quyền riêng tư và an toàn”. Hơn nữa, AI cũng đáng lo ngại vì mối liên hệ của nó với chính phủ Trung Quốc. Báo cáo của Kela chỉ ra rằng luật pháp Trung Quốc yêu cầu công ty phải chia sẻ dữ liệu của mình với các cơ quan chức năng nếu được yêu cầu.
Như Adrianus Warmenhoven, một chuyên gia bảo mật tại NordVPN, đã giải thích với 01net, chính sách bảo mật của DeepSeek "nêu rõ rằng dữ liệu người dùng, bao gồm các cuộc trò chuyện và phản hồi được tạo ra, được lưu trữ trên các máy chủ đặt tại Trung Quốc.".
Để kiểm tra DeepSeek, chúng tôi khuyên bạn nên sử dụng một giải pháp thay thế lưu trữ mô hình trên các máy chủ ở phương Tây, chẳng hạn như Perplexity.
Nguồn: Kela