AI tạo sinh như ChatGPT đang trở thành công cụ thiết yếu cho hàng triệu người dùng trên toàn thế giới. Có khả năng trò chuyện, trợ giúp và tạo nội dung, chatbot có thể làm được rất nhiều việc. Tuy nhiên, khả năng học hỏi và ghi nhớ thông tin từ các cuộc trao đổi của chúng ta lại đặt ra những vấn đề quan trọng về quyền riêng tư. Như Tạp chí Phố Wall chỉ ra, có một số thông tin không bao giờ được tin cậy.
Sau đây là năm loại thông tin tuyệt đối không bao giờ được chia sẻ với ChatGPT. Điều quan trọng cần lưu ý là quy tắc thận trọng này cũng áp dụng cho các AI đàm thoại phổ biến khác, chẳng hạn như Google Gemini, Microsoft Copilot, Le Chat của Mistral AI, Perplexity và Claude của Anthropic.
Tuy nhiên, bạn có thể yêu cầu ChatGPT trợ giúp để tạo mật khẩu an toàn thì khác. AI có thể tạo ra một AI cho bạn hoặc tư vấn cho bạn về các biện pháp thực hành tốt nhất mà không cần bạn phải chia sẻ thông tin xác thực hiện có của mình.
Sau đây là năm loại thông tin tuyệt đối không bao giờ được chia sẻ với ChatGPT. Điều quan trọng cần lưu ý là quy tắc thận trọng này cũng áp dụng cho các AI đàm thoại phổ biến khác, chẳng hạn như Google Gemini, Microsoft Copilot, Le Chat của Mistral AI, Perplexity và Claude của Anthropic.
Thông tin cá nhân và danh tính
Không bao giờ chia sẻ số an sinh xã hội, thông tin thẻ căn cước hoặc hộ chiếu, địa chỉ bưu chính đầy đủ hoặc số điện thoại của bạn. Ngay cả khi có bộ lọc, nguy cơ rò rỉ hoặc khai thác thông tin cơ bản này vẫn còn. Vào tháng 3 năm 2023, một sự cố tại OpenAI đã cho phép một số người dùng xem được đoạn trích cuộc trò chuyện của người khác. Lỗi này đã được khắc phục nhanh chóng và mức độ nghiêm trọng đã được hạn chế, nhưng nó cũng là lời nhắc nhở về nhu cầu tiếp tục cảnh giác.Kết quả y tế
Hãy kiềm chế sự cám dỗ yêu cầu xem xét lại kết quả y tế của bạn. Chatbot không phải tuân theo các nghĩa vụ bảo mật nghề nghiệp giống như bác sĩ hoặc cơ sở chăm sóc sức khỏe. Việc tiết lộ thông tin y tế nhạy cảm có thể dẫn đến việc sử dụng sai mục đích, ví dụ như cho mục đích quảng cáo có mục tiêu hoặc trong trường hợp tệ nhất là phân biệt đối xử (bảo hiểm, việc làm).Dữ liệu tài chính nhạy cảm
Không bao giờ được chia sẻ số tài khoản, thông tin đăng nhập ngân hàng trực tuyến hoặc bất kỳ thông tin nào liên quan đến tài chính cá nhân của bạn. Các nền tảng này không phải là môi trường an toàn được thiết kế để lưu trữ dữ liệu quan trọng như vậy. Rò rỉ có thể gây ra hậu quả nghiêm trọng.Dữ liệu bí mật của công ty
Sử dụng ChatGPT cho các nhiệm vụ kinh doanh rất hấp dẫn, nhưng hãy tránh nhập dữ liệu chiến lược, bí mật thương mại hoặc thông tin nội bộ bí mật vào đó nếu công ty bạn không sử dụng phiên bản doanh nghiệp riêng tư và an toàn của công cụ này. Dữ liệu được chia sẻ với bản phát hành công khai có thể được lưu lại và có khả năng được sử dụng để đào tạo các mô hình trong tương lai. Thông tin nhạy cảm sau đó có thể vô tình bị tiết lộ.Mật khẩu và thông tin đăng nhập:
Điều bắt buộc là bạn không bao giờ giao phó mật khẩu hoặc thông tin đăng nhập của mình cho một công cụ AI. Những công cụ này hoàn toàn không được thiết kế để quản lý mật khẩu an toàn. Thay vào đó, hãy sử dụng trình quản lý mật khẩu chuyên dụng và luôn bật xác thực hai yếu tố cho các tài khoản quan trọng của bạn.Tuy nhiên, bạn có thể yêu cầu ChatGPT trợ giúp để tạo mật khẩu an toàn thì khác. AI có thể tạo ra một AI cho bạn hoặc tư vấn cho bạn về các biện pháp thực hành tốt nhất mà không cần bạn phải chia sẻ thông tin xác thực hiện có của mình.