5 điều bạn không bao giờ nên nói với ChatGPT

theanh

Administrator
Nhân viên
AI tạo sinh như ChatGPT đang trở thành công cụ thiết yếu cho hàng triệu người dùng trên toàn thế giới. Có khả năng trò chuyện, trợ giúp và tạo nội dung, chatbot có thể làm được rất nhiều việc. Tuy nhiên, khả năng học hỏi và ghi nhớ thông tin từ các cuộc trao đổi của chúng ta lại đặt ra những vấn đề quan trọng về quyền riêng tư. Như Tạp chí Phố Wall chỉ ra, có một số thông tin không bao giờ được tin cậy.

Sau đây là năm loại thông tin tuyệt đối không bao giờ được chia sẻ với ChatGPT. Điều quan trọng cần lưu ý là quy tắc thận trọng này cũng áp dụng cho các AI đàm thoại phổ biến khác, chẳng hạn như Google Gemini, Microsoft Copilot, Le Chat của Mistral AI, Perplexity và Claude của Anthropic.

Thông tin cá nhân và danh tính​

Không bao giờ chia sẻ số an sinh xã hội, thông tin thẻ căn cước hoặc hộ chiếu, địa chỉ bưu chính đầy đủ hoặc số điện thoại của bạn. Ngay cả khi có bộ lọc, nguy cơ rò rỉ hoặc khai thác thông tin cơ bản này vẫn còn. Vào tháng 3 năm 2023, một sự cố tại OpenAI đã cho phép một số người dùng xem được đoạn trích cuộc trò chuyện của người khác. Lỗi này đã được khắc phục nhanh chóng và mức độ nghiêm trọng đã được hạn chế, nhưng nó cũng là lời nhắc nhở về nhu cầu tiếp tục cảnh giác.

Kết quả y tế​

Hãy kiềm chế sự cám dỗ yêu cầu xem xét lại kết quả y tế của bạn. Chatbot không phải tuân theo các nghĩa vụ bảo mật nghề nghiệp giống như bác sĩ hoặc cơ sở chăm sóc sức khỏe. Việc tiết lộ thông tin y tế nhạy cảm có thể dẫn đến việc sử dụng sai mục đích, ví dụ như cho mục đích quảng cáo có mục tiêu hoặc trong trường hợp tệ nhất là phân biệt đối xử (bảo hiểm, việc làm).

Dữ liệu tài chính nhạy cảm​

Không bao giờ được chia sẻ số tài khoản, thông tin đăng nhập ngân hàng trực tuyến hoặc bất kỳ thông tin nào liên quan đến tài chính cá nhân của bạn. Các nền tảng này không phải là môi trường an toàn được thiết kế để lưu trữ dữ liệu quan trọng như vậy. Rò rỉ có thể gây ra hậu quả nghiêm trọng.

Dữ liệu bí mật của công ty​

Sử dụng ChatGPT cho các nhiệm vụ kinh doanh rất hấp dẫn, nhưng hãy tránh nhập dữ liệu chiến lược, bí mật thương mại hoặc thông tin nội bộ bí mật vào đó nếu công ty bạn không sử dụng phiên bản doanh nghiệp riêng tư và an toàn của công cụ này. Dữ liệu được chia sẻ với bản phát hành công khai có thể được lưu lại và có khả năng được sử dụng để đào tạo các mô hình trong tương lai. Thông tin nhạy cảm sau đó có thể vô tình bị tiết lộ.

Mật khẩu và thông tin đăng nhập:​

Điều bắt buộc là bạn không bao giờ giao phó mật khẩu hoặc thông tin đăng nhập của mình cho một công cụ AI. Những công cụ này hoàn toàn không được thiết kế để quản lý mật khẩu an toàn. Thay vào đó, hãy sử dụng trình quản lý mật khẩu chuyên dụng và luôn bật xác thực hai yếu tố cho các tài khoản quan trọng của bạn.

Tuy nhiên, bạn có thể yêu cầu ChatGPT trợ giúp để tạo mật khẩu an toàn thì khác. AI có thể tạo ra một AI cho bạn hoặc tư vấn cho bạn về các biện pháp thực hành tốt nhất mà không cần bạn phải chia sẻ thông tin xác thực hiện có của mình.

Tại sao cần phải thận trọng như vậy?​

Những AI này cải thiện thông qua các cuộc trò chuyện. Họ có thể ghi nhớ thông tin cá nhân để điều chỉnh phản hồi theo sở thích của bạn, khiến chúng phù hợp hơn. Mọi thông tin được chia sẻ với trợ lý AI đều có khả năng được lưu trữ, phân tích hoặc công khai. Mặc dù AI mang đến những khả năng phi thường, nhưng chúng không nên được coi là người bạn tâm giao.

AI tạo sinh là công cụ mạnh mẽ, không phải là người bạn tâm giao​

Khi bạn nhập nội dung gì đó vào chatbot, "bạn sẽ mất quyền sở hữu nội dung đó", Jennifer King, thành viên của Viện Trí tuệ nhân tạo lấy con người làm trung tâm Stanford (HAI), giải thích. Bà chỉ ra rằng mặc dù chatbot được thiết kế để tham gia trò chuyện, nhưng người dùng phải tự xác định giới hạn những gì họ chia sẻ.
 
Back
Bên trên