Sau ChatGPT và DeepSeek, đến lượt Replika, một chatbot trí tuệ nhân tạo (AI) do công ty Luka Inc phát triển, lọt vào tầm ngắm của "Guarante" tại Ý. Cơ quan giám sát quyền riêng tư của nước này – tương đương với CNIL của Pháp – đã phạt công ty Mỹ này 5 triệu euro. Đồng thời, trong thông cáo báo chí được công bố vào thứ Hai, ngày 19 tháng 5, công ty đã thông báo rằng họ đang mở một cuộc điều tra mới về việc sử dụng và xử lý dữ liệu cá nhân trong quá trình phát triển và đào tạo công cụ AI.
Replika, ít được biết đến hơn ChatGPT, là một công cụ AI được trình bày như một "người bạn ảo" có thể cải thiện sức khỏe của người dùng. Ra mắt vào năm 2017 trước khi được hỗ trợ AI, ứng dụng sau có thể đảm nhiệm nhiều vai trò khác nhau, bao gồm người tâm sự, nhà trị liệu hoặc thậm chí là đối tác lãng mạn. Chatbot được cá nhân hóa này đã được ghim vào năm 2023 sau khi người dùng yêu thích "người bạn ảo" của họ. Không xác minh độ tuổi của người dùng. Và đối với CNIL của Ý, công ty đứng sau Replika đã không tuân thủ quy định của châu Âu về bảo vệ dữ liệu cá nhân, GDPR: do đó, công ty này phải nộp khoản tiền phạt 5 triệu euro và thực hiện các biện pháp thích hợp để tuân thủ luật châu Âu này. Trong thông cáo báo chí, cơ quan này lưu ý rằng tính đến tháng 2 năm 2023, công ty Mỹ này vẫn chưa chọn "cơ sở pháp lý" trước khi thu thập dữ liệu cá nhân - một điều kiện tiên quyết do quy định của châu Âu về dữ liệu cá nhân, GDPR, áp đặt. Vấn đề thứ hai: theo cơ quan chức năng của Ý, các quy tắc về quyền riêng tư của công ty là "không đầy đủ".
Khiếu nại thứ ba: công ty cũng không cung cấp, vào tháng 2 năm 2023, cơ chế xác minh độ tuổi của người dùng, tại thời điểm đăng ký dịch vụ hoặc trong quá trình sử dụng, theo ghi nhận của CNIL Ý. Tuy nhiên, Luka Inc. tuyên bố rằng họ không cung cấp dịch vụ cho trẻ vị thành niên. Và kể từ đó, hệ thống vẫn tiếp tục có những thiếu sót, Garante viết.
Tại Châu Âu, Garante là một trong những cơ quan tích cực nhất về bảo vệ dữ liệu cá nhân. Công ty sau này đã điều tra DeepSeek, công nghệ AI của Trung Quốc khiến các gã khổng lồ trong ngành của Mỹ phải sợ hãi khi nó được ra mắt vào tháng 1 năm ngoái. ChatGPT, tác nhân đàm thoại của OpenAI, cũng đã được các dịch vụ của công ty này giám sát chặt chẽ. Năm 2024, công ty của Sam Altman đã bị phạt một số tiền thậm chí còn cao hơn – 15 triệu euro – vì không tuân thủ GDPR. Chatbot này thậm chí còn bị cấm ở quốc gia này trong bốn tuần vào tháng 4 năm 2023. Cơ quan giám sát quyền riêng tư của Ý đã phán quyết rằng OpenAI đã sử dụng dữ liệu cá nhân của người dùng ChatGPT để đào tạo các mô hình AI tạo sinh của mình... mà không có sự cho phép của họ.
Nguồn: Thông cáo báo chí từ Guarantor (tiếng Ý)
Replika, ít được biết đến hơn ChatGPT, là một công cụ AI được trình bày như một "người bạn ảo" có thể cải thiện sức khỏe của người dùng. Ra mắt vào năm 2017 trước khi được hỗ trợ AI, ứng dụng sau có thể đảm nhiệm nhiều vai trò khác nhau, bao gồm người tâm sự, nhà trị liệu hoặc thậm chí là đối tác lãng mạn. Chatbot được cá nhân hóa này đã được ghim vào năm 2023 sau khi người dùng yêu thích "người bạn ảo" của họ. Không xác minh độ tuổi của người dùng. Và đối với CNIL của Ý, công ty đứng sau Replika đã không tuân thủ quy định của châu Âu về bảo vệ dữ liệu cá nhân, GDPR: do đó, công ty này phải nộp khoản tiền phạt 5 triệu euro và thực hiện các biện pháp thích hợp để tuân thủ luật châu Âu này. Trong thông cáo báo chí, cơ quan này lưu ý rằng tính đến tháng 2 năm 2023, công ty Mỹ này vẫn chưa chọn "cơ sở pháp lý" trước khi thu thập dữ liệu cá nhân - một điều kiện tiên quyết do quy định của châu Âu về dữ liệu cá nhân, GDPR, áp đặt. Vấn đề thứ hai: theo cơ quan chức năng của Ý, các quy tắc về quyền riêng tư của công ty là "không đầy đủ".
Khiếu nại thứ ba: công ty cũng không cung cấp, vào tháng 2 năm 2023, cơ chế xác minh độ tuổi của người dùng, tại thời điểm đăng ký dịch vụ hoặc trong quá trình sử dụng, theo ghi nhận của CNIL Ý. Tuy nhiên, Luka Inc. tuyên bố rằng họ không cung cấp dịch vụ cho trẻ vị thành niên. Và kể từ đó, hệ thống vẫn tiếp tục có những thiếu sót, Garante viết.
Một cuộc điều tra mới đã được mở
Cùng lúc đó, Garante đã mở một cuộc điều tra mới: họ muốn biết thêm thông tin về "các biện pháp được áp dụng để bảo vệ dữ liệu trong các giai đoạn phát triển và đào tạo khác nhau của mô hình ngôn ngữ cơ sở Replika, các loại và danh mục dữ liệu được sử dụng và khả năng triển khai các biện pháp ẩn danh hoặc giả danh", báo cáo viết.Tại Châu Âu, Garante là một trong những cơ quan tích cực nhất về bảo vệ dữ liệu cá nhân. Công ty sau này đã điều tra DeepSeek, công nghệ AI của Trung Quốc khiến các gã khổng lồ trong ngành của Mỹ phải sợ hãi khi nó được ra mắt vào tháng 1 năm ngoái. ChatGPT, tác nhân đàm thoại của OpenAI, cũng đã được các dịch vụ của công ty này giám sát chặt chẽ. Năm 2024, công ty của Sam Altman đã bị phạt một số tiền thậm chí còn cao hơn – 15 triệu euro – vì không tuân thủ GDPR. Chatbot này thậm chí còn bị cấm ở quốc gia này trong bốn tuần vào tháng 4 năm 2023. Cơ quan giám sát quyền riêng tư của Ý đã phán quyết rằng OpenAI đã sử dụng dữ liệu cá nhân của người dùng ChatGPT để đào tạo các mô hình AI tạo sinh của mình... mà không có sự cho phép của họ.
Nguồn: Thông cáo báo chí từ Guarantor (tiếng Ý)