Liệu Meta, công ty mẹ của WhatsApp, Facebook và Instagram, có dán nhãn sai cho công cụ AI tạo sinh của mình là "Llama" là "nguồn mở" để tránh áp dụng Đạo luật AI, quy định của Châu Âu về trí tuệ nhân tạo không? Khoảng ba mươi MEP, tác giả của một lá thư gửi tới Ủy ban châu Âu và được Contexte phát hiện vào thứ Hai tuần này, ngày 14 tháng 4, đã trả lời là có. Meta không phải là công ty duy nhất quan ngại.
Trong thông điệp gửi vào ngày 10 tháng 4 tới Henna Virkkunen, Ủy viên châu Âu về Chủ quyền công nghệ và hai ủy viên khác, bao gồm người Pháp Stéphane Séjourné (Ủy viên châu Âu về Chiến lược công nghiệp), các MEP trung tả này giải thích rằng một số công ty đã mô tả sai mô hình AI của họ là "nguồn mở".
Quy định của Châu Âu về AI, có hiệu lực từ ngày 1 tháng 8 năm 2024, không định nghĩa "AI nguồn mở" (OS). Nhưng luật này quy định rằng "các hệ thống AI được phân phối miễn phí" thông qua một số giấy phép "miễn phí và nguồn mở" nhất định không phải tuân thủ một số điều khoản hạn chế. Nói cách khác, văn bản này định nghĩa các quy tắc ít nghiêm ngặt hơn cho các mô hình phân phối trong OS, nếu giấy phép người dùng của chúng cho phép "bất kỳ ai sử dụng, nghiên cứu, sửa đổi và chia sẻ hệ thống mà không có hạn chế nào đối với người dùng hoặc trường hợp sử dụng". Tuy nhiên, có ba trường hợp ngoại lệ: nếu các công cụ này được đưa ra thị trường, nếu chúng là các hệ thống AI có rủi ro cao hoặc nếu chúng là các mô hình mục đích chung, CNIL chỉ ra trong ghi chú phân tích tháng 6 năm 2024 về chủ đề này.
Do đó, các hệ thống AI nguồn mở được miễn một phần theo Đạo luật AI: nhưng chỉ một phần thôi. Việc tuân thủ các quy định là trách nhiệm của những người triển khai hoặc phát triển chúng. Như 30 thành viên MEP đã chỉ ra, mục đích của các quy tắc nới lỏng này là để tạo cho cộng đồng nguồn mở nhiều không gian hoạt động hơn. Ý tưởng: cung cấp cho họ "không gian cần thiết để thử nghiệm và xây dựng các giải pháp sáng tạo, có thể được tái sử dụng trên khắp Liên minh Châu Âu."
Vào tháng 7 năm 2023, Meta đã ra mắt Llama 2, giới thiệu công cụ AI của mình là "nguồn mở". Kể từ đó, gã khổng lồ của Mỹ vẫn chưa công bố toàn bộ mã nguồn hoặc dữ liệu đào tạo được sử dụng. Sáng kiến Nguồn mở (OSI) ước tính trong một bài đăng trên blog năm 2023 rằng nếu không có những yếu tố này, các hệ thống này không thể được gọi là mã nguồn mở.
«Meta nhầm lẫn giữa “nguồn mở” với “các nguồn tài nguyên có sẵn cho một số người dùng nhất định trong những điều kiện nhất định”, hai điều rất khác nhau. "Chúng tôi đã yêu cầu ông ấy sửa lỗi này", OSI viết. Khi được 01net.com liên hệ, nhóm của Mark Zuckerberg vẫn chưa phản hồi yêu cầu bình luận của chúng tôi tại thời điểm bài viết này được xuất bản. Nhưng một năm trước đó, công ty mẹ của Facebook, Instagram và WhatsApp đã giải thích với các đồng nghiệp của chúng tôi tại CNTT cho doanh nghiệps rằng "không thể có một định nghĩa duy nhất về AI nguồn mở. Việc định nghĩa nó là một thách thức, vì các định nghĩa trước đây không bao hàm được sự phức tạp của các mô hình AI hiện tại."
Và sTrong hai yếu tố này, những người dùng hoặc nhà phát triển này, những người phải tuân thủ Đạo luật AI, khó có thể thực hiện được. Trên thực tế, họ được cho là sẽ đánh giá các rủi ro tiềm ẩn liên quan đến bảo vệ dữ liệu, sự thiên vị trong các công cụ AI và bản quyền, một đánh giá không thể thực hiện được nếu không có quyền truy cập vào mã nguồn và dữ liệu đào tạo, 30 MEP nhấn mạnh.
Do đó, các MEP đang yêu cầu Ủy ban chấm dứt tình trạng này bằng cách định nghĩa rõ ràng về AI nguồn mở và chỉ rõ "rằng các hệ thống được mô tả (chẳng hạn như hệ thống của Meta) không thể được coi là nguồn mở theo nghĩa của quy định." Stefano Maffulli đã đưa ra lập luận này. Trong một bài báo được công bố trên Nature vào ngày 27 tháng 3, Tổng giám đốc OSI đã tuyên bố rằng: "Llama2 và Llama 3.x (do Meta phát triển), cũng như Grok (do X, công ty của Elon Musk phát triển), cũng như Phi-2 (Microsoft) hay Mixtral (Mistral AI) đều không tương thích với các nguyên tắc nguồn mở."
Trong thông điệp gửi vào ngày 10 tháng 4 tới Henna Virkkunen, Ủy viên châu Âu về Chủ quyền công nghệ và hai ủy viên khác, bao gồm người Pháp Stéphane Séjourné (Ủy viên châu Âu về Chiến lược công nghiệp), các MEP trung tả này giải thích rằng một số công ty đã mô tả sai mô hình AI của họ là "nguồn mở".
Kẻ thua cuộc sẽ áp dụng luật cho AI nguồn mở?
Tuy nhiên, mô tả này, có vẻ giống như một cuộc cãi vã cục bộ, hoặc thậm chí là một chiêu trò tiếp thị, lại có hậu quả pháp lý. Bằng cách tự chỉ định là nguồn mở, các công ty AI thực chất đang tìm cách trốn tránh Đạo luật AI, các tác giả của bức thư lập luận, một tài liệu có thể được đọc trên tài khoản BlueSky của Birgit Sippel, một MEP người Đức là một trong những người ký kết.Quy định của Châu Âu về AI, có hiệu lực từ ngày 1 tháng 8 năm 2024, không định nghĩa "AI nguồn mở" (OS). Nhưng luật này quy định rằng "các hệ thống AI được phân phối miễn phí" thông qua một số giấy phép "miễn phí và nguồn mở" nhất định không phải tuân thủ một số điều khoản hạn chế. Nói cách khác, văn bản này định nghĩa các quy tắc ít nghiêm ngặt hơn cho các mô hình phân phối trong OS, nếu giấy phép người dùng của chúng cho phép "bất kỳ ai sử dụng, nghiên cứu, sửa đổi và chia sẻ hệ thống mà không có hạn chế nào đối với người dùng hoặc trường hợp sử dụng". Tuy nhiên, có ba trường hợp ngoại lệ: nếu các công cụ này được đưa ra thị trường, nếu chúng là các hệ thống AI có rủi ro cao hoặc nếu chúng là các mô hình mục đích chung, CNIL chỉ ra trong ghi chú phân tích tháng 6 năm 2024 về chủ đề này.
Do đó, các hệ thống AI nguồn mở được miễn một phần theo Đạo luật AI: nhưng chỉ một phần thôi. Việc tuân thủ các quy định là trách nhiệm của những người triển khai hoặc phát triển chúng. Như 30 thành viên MEP đã chỉ ra, mục đích của các quy tắc nới lỏng này là để tạo cho cộng đồng nguồn mở nhiều không gian hoạt động hơn. Ý tưởng: cung cấp cho họ "không gian cần thiết để thử nghiệm và xây dựng các giải pháp sáng tạo, có thể được tái sử dụng trên khắp Liên minh Châu Âu."
Có nên là mã nguồn mở hay không
Tuy nhiên, trong những tháng gần đây, "một số ít công ty AI rất lớn đã tuyên bố rằng AI của họ là mã nguồn mở, đồng thời áp đặt các hạn chế sử dụng nhằm ngăn chặn sự xuất hiện của đối thủ cạnh tranh và đe dọa đến an ninh của người dùng," những người ký tên vào văn bản này tỏ ra hối tiếc. Ví dụ, Meta cấm "việc sử dụng các mô hình Llama để đào tạo các hệ thống AI khác". Nhóm của Mark Zuckerberg "yêu cầu bất kỳ ai phát triển hệ thống AI hiệu suất cao dựa trên Llama phải đàm phán một giấy phép đặc biệt với nhóm. Về bản chất, AI của họ là miễn phí và mở cho đến khi một công ty muốn cạnh tranh với họ", họ than thở.Vào tháng 7 năm 2023, Meta đã ra mắt Llama 2, giới thiệu công cụ AI của mình là "nguồn mở". Kể từ đó, gã khổng lồ của Mỹ vẫn chưa công bố toàn bộ mã nguồn hoặc dữ liệu đào tạo được sử dụng. Sáng kiến Nguồn mở (OSI) ước tính trong một bài đăng trên blog năm 2023 rằng nếu không có những yếu tố này, các hệ thống này không thể được gọi là mã nguồn mở.
«Meta nhầm lẫn giữa “nguồn mở” với “các nguồn tài nguyên có sẵn cho một số người dùng nhất định trong những điều kiện nhất định”, hai điều rất khác nhau. "Chúng tôi đã yêu cầu ông ấy sửa lỗi này", OSI viết. Khi được 01net.com liên hệ, nhóm của Mark Zuckerberg vẫn chưa phản hồi yêu cầu bình luận của chúng tôi tại thời điểm bài viết này được xuất bản. Nhưng một năm trước đó, công ty mẹ của Facebook, Instagram và WhatsApp đã giải thích với các đồng nghiệp của chúng tôi tại CNTT cho doanh nghiệps rằng "không thể có một định nghĩa duy nhất về AI nguồn mở. Việc định nghĩa nó là một thách thức, vì các định nghĩa trước đây không bao hàm được sự phức tạp của các mô hình AI hiện tại."
Các MEP kêu gọi đưa ra định nghĩa về AI nguồn mở
Tuy nhiên, chính việc thiếu định nghĩa về "AI nguồn mở" lại gây ra vấn đề, các MEP ký tên, bao gồm cả người Pháp Pierre Jouvet (Tổng thư ký Đảng Xã hội) và Murielle Laurent (Đảng Xã hội), về cơ bản nhấn mạnh. Một mặt, việc đủ điều kiện là nguồn mở cho phép các công ty tránh phải tuân thủ một số điều khoản của Đạo luật AI. Mặt khác, các nhà phát triển và người dùng muốn tái sử dụng hoặc làm việc trên công cụ AI không có quyền truy cập vào toàn bộ mã nguồn hoặc dữ liệu đào tạo.Và sTrong hai yếu tố này, những người dùng hoặc nhà phát triển này, những người phải tuân thủ Đạo luật AI, khó có thể thực hiện được. Trên thực tế, họ được cho là sẽ đánh giá các rủi ro tiềm ẩn liên quan đến bảo vệ dữ liệu, sự thiên vị trong các công cụ AI và bản quyền, một đánh giá không thể thực hiện được nếu không có quyền truy cập vào mã nguồn và dữ liệu đào tạo, 30 MEP nhấn mạnh.
Do đó, các MEP đang yêu cầu Ủy ban chấm dứt tình trạng này bằng cách định nghĩa rõ ràng về AI nguồn mở và chỉ rõ "rằng các hệ thống được mô tả (chẳng hạn như hệ thống của Meta) không thể được coi là nguồn mở theo nghĩa của quy định." Stefano Maffulli đã đưa ra lập luận này. Trong một bài báo được công bố trên Nature vào ngày 27 tháng 3, Tổng giám đốc OSI đã tuyên bố rằng: "Llama2 và Llama 3.x (do Meta phát triển), cũng như Grok (do X, công ty của Elon Musk phát triển), cũng như Phi-2 (Microsoft) hay Mixtral (Mistral AI) đều không tương thích với các nguyên tắc nguồn mở."