Hầu như mọi thứ bạn nói với Meta AI đều có trên internet.

theanh

Administrator
Nhân viên
Đây là một lỗ hổng bảo mật đặt ra những câu hỏi nghiêm trọng về sự phát triển AI tạo sinh của Meta. Hầu như mọi thứ bạn hỏi Meta AI trên Instagram, Facebook và WhatsApp đều kết thúc ở dạng văn bản thuần túy trên một nguồn cấp dữ liệu mà mọi người trên internet đều có thể truy cập. Lý do là việc triển khai ứng dụng Meta AI và nguồn cấp dữ liệu Discover gần đây, được thiết kế để "chia sẻ và khám phá cách người khác sử dụng AI". Dưới vỏ bọc là một mạng xã hội, nền tảng AI của gã khổng lồ Hoa Kỳ này đang thúc đẩy nhiều người dùng vô tình chia sẻ các cuộc trao đổi của họ trên một nguồn cấp dữ liệu công khai, có thể truy cập được cho mọi người.

Các cuộc trò chuyện riêng tư của bạn không phải là riêng tư​

Theo mặc định, không phải tất cả các cuộc trò chuyện của bạn đều được chia sẻ công khai. Ngoại trừ sau mỗi lần tương tác với AI, nền tảng này sẽ mời bạn chia sẻ cuộc trò chuyện của mình trên Discover, dẫn đến việc xuất bản văn bản, hình ảnh và thậm chí cả bản ghi âm không được mã hóa, có thể truy cập được cho mọi người trên internet. Mức độ nghiêm trọng của vấn đề nằm ở bản chất của nội dung bị tiết lộ: những câu hỏi riêng tư về bản dạng giới tính, yêu cầu hình ảnh gợi ý, chia sẻ tài liệu y tế, pháp lý hoặc chuyên môn, đôi khi liên quan đến bút danh hoặc ảnh đại diện cho phép người dùng được xác định. Theo BBC, ít nhất một yêu cầu được chia sẻ dưới dạng văn bản rõ ràng sẽ có thể xác định chính xác danh tính của người dùng Internet nhờ ảnh đại diện của họ.

Lỗi thiết kế, không phải lỗi​

Meta hiển thị cảnh báo khi chia sẻ, nhưng thường bị bỏ qua hoặc hiểu nhầm. Cơ chế chia sẻ, rất giống với cách sử dụng phương tiện truyền thông xã hội, không phải lúc nào cũng phân biệt rõ ràng bài đăng riêng tư với bài đăng công khai. Do đó, hàng trăm cuộc trò chuyện riêng tư bị tiết lộ, trong khi phần lớn người dùng tin rằng họ đang tương tác hoàn toàn "bảo mật" với trợ lý cá nhân.

Công ty tuyên bố rằng các cuộc trò chuyện là riêng tư theo mặc định và người dùng phải chọn rõ ràng để công khai chúng. Tuy nhiên, tính công thái học của dịch vụ và việc thiếu nội dung giáo dục dẫn đến sự nhầm lẫn lớn, phức tạp hơn nữa là hoạt động của chatbot có thể được liên kết với tài khoản Instagram hoặc Facebook.

Còn ở Châu Âu thì sao?​

Ở Châu Âu, tình hình khá phức tạp. Trong khi Meta buộc phải trì hoãn việc triển khai đầy đủ Meta AI do các yêu cầu về bảo vệ dữ liệu của cơ quan quản lý, công ty vẫn có kế hoạch sử dụng nội dung công khai của người dùng để đào tạo AI của mình, trừ khi có sự phản đối rõ ràng. Tin nhắn riêng tư không được sử dụng để đào tạo trừ khi được chia sẻ với Meta AI thông qua tính năng chuyên dụng. Nhưng ranh giới giữa riêng tư và công khai vẫn còn mờ nhạt đối với nhiều người dùng, đặc biệt là vì quy trình thực hiện truy vấn hoàn toàn riêng tư hoặc phản đối việc sử dụng dữ liệu của họ vẫn phức tạp để tìm và kích hoạt.

Có những giải pháp nào để bảo vệ quyền riêng tư của bạn?​

  • Kiểm tra cài đặt quyền riêng tư một cách có hệ thống và tránh chia sẻ nội dung nhạy cảm qua Meta AI.
  • Không liên kết tài khoản Instagram hoặc Facebook của bạn với ứng dụng Meta AI nếu hồ sơ là công khai.
  • Sử dụng các tùy chọn để xóa hoặc riêng tư hóa các truy vấn trong phần cài đặt.
  • Thực hiện quyền phản đối việc sử dụng dữ liệu của bạn cho mục đích đào tạo AI thông qua các biểu mẫu do Meta tại Châu Âu cung cấp.
Bất chấp các cảnh báo, bản thân thiết kế của Meta AI lại khuyến khích việc tiết lộ dữ liệu cá nhân một cách không tự nguyện, gây ra rủi ro lớn cho bảo mật của người dùng. Cho đến khi giáo dục và tính minh bạch được tăng cường, cần phải thận trọng: việc tránh sử dụng Meta AI cho bất kỳ yêu cầu nhạy cảm hoặc bí mật nào có vẻ là lựa chọn hợp lý nhất và ít rủi ro nhất.
 
Back
Bên trên