Facebook đang phải đối mặt với "nội dung khủng bố" và phải có biện pháp khắc phục: đây là kết luận của Coimisiún na Meán, tương đương với Arcom ở Ireland, một cơ quan có thẩm quyền trong một số trường hợp thay mặt cho Liên minh Châu Âu. Trong tuyên bố được công bố trên trang web của mình vào thứ Hai, ngày 16 tháng 12, cơ quan chức năng của Ireland tin rằng Meta, công ty mẹ của Facebook, đã không làm đủ để chống lại nội dung khủng bố trên mạng xã hội của mình.
Cơ quan chức năng của châu Âu, đơn vị kiểm soát (nhiều) nền tảng được thành lập tại Ireland, đang hành động trong khuôn khổ quy định của châu Âu chống lại nội dung khủng bố trực tuyến. Văn bản này yêu cầu các mạng xã hội phải thực hiện các biện pháp nhằm ngăn chặn việc phát tán nội dung khủng bố trực tuyến: ví dụ, các mạng xã hội phải xóa trong vòng một giờ sau khi có báo cáo "các chương trình phát sóng trực tiếp kích động, mời chào hoặc góp phần vào các hành vi phạm tội khủng bố, cung cấp hướng dẫn cho các hành vi phạm tội đó hoặc kích động mọi người tham gia vào một nhóm khủng bố". Điều tương tự cũng áp dụng cho bất kỳ lời giải thích nào liên quan đến việc sản xuất hoặc sử dụng thuốc nổ.
Và kể từ thứ Hai, ngày 16 tháng 12, Facebook đã gia nhập danh sách các công ty phải thực hiện các biện pháp cụ thể chống lại việc phát tán nội dung khủng bố, một tháng sau quyết định tương tự nhắm vào một mạng xã hội Meta khác là Instagram. Các nền tảng nhận được ít nhất hai lệnh xóa loại nội dung này trong 12 tháng qua có thể nằm trong danh mục này, đó là trường hợp của Meta ở đây.
Cụ thể, hậu quả đối với nhóm của Mark Zuckerberg là gì? Bây giờ, họ phải "thực hiện các biện pháp cụ thể để ngăn chặn việc các dịch vụ của mình bị sử dụng để phát tán nội dung khủng bố." Nhóm của Mark Zuckerberg cũng có nghĩa vụ gửi báo cáo tới chính quyền Ireland, nêu chi tiết các biện pháp đã được thực hiện trong vòng ba tháng kể từ khi nhận được quyết định. Các biện pháp phải "có hiệu quả, có mục tiêu và tương xứng, đồng thời tôn trọng các quyền cơ bản của người dùng", cơ quan này nhắc lại.
Mặc dù vẫn chưa biết nội dung khủng bố nào được tìm thấy trên Facebook và được thông báo cho cơ quan quản lý, Facebook sẽ phải áp dụng các biện pháp mới để ứng phó với cơ quan quản lý của Ireland. Điều này có thể dẫn đến các điều khoản sử dụng mới, cấm việc phát tán nội dung khủng bố. Sau ba tháng, cơ quan có thẩm quyền sẽ đánh giá các biện pháp đã thực hiện. Nếu cho rằng những điều này là không đủ, có thể phải chịu mức phạt nặng lên tới 4% doanh thu toàn cầu. Trong tuyên bố của mình, cơ quan này nói thêm rằng người dùng các nền tảng có thể báo cáo nội dung khủng bố cho nền tảng hoặc cho một cơ quan địa phương khác.
Được TechCrunch hỏi vào thứ Hai, ngày 16 tháng 12, Meta tin rằng họ có "một trong những cách tiếp cận toàn diện nhất trong ngành để nhắm mục tiêu vào các tổ chức và cá nhân nguy hiểm." Công ty Mỹ tuyên bố đã "phát hiện và xóa hơn 99% nội dung bạo lực loại này trước khi chúng được báo cáo với chúng tôi" trong quý trước.
Một tháng trước, cơ quan chức năng Ireland đã nhắm mục tiêu vào các công ty khác: ngoài Instagram, TikTok và X cũng được đưa vào danh sách các nền tảng tiếp xúc với nội dung khủng bố. Irish Arcom, đơn vị chịu trách nhiệm kiểm soát việc phân phối loại nội dung này, hợp tác với Ủy ban Châu Âu, đơn vị này có trách nhiệm quản lý rộng rãi hơn việc kiểm duyệt các nền tảng rất lớn theo DSA, quy định của Châu Âu về các dịch vụ kỹ thuật số.
Cơ quan chức năng của châu Âu, đơn vị kiểm soát (nhiều) nền tảng được thành lập tại Ireland, đang hành động trong khuôn khổ quy định của châu Âu chống lại nội dung khủng bố trực tuyến. Văn bản này yêu cầu các mạng xã hội phải thực hiện các biện pháp nhằm ngăn chặn việc phát tán nội dung khủng bố trực tuyến: ví dụ, các mạng xã hội phải xóa trong vòng một giờ sau khi có báo cáo "các chương trình phát sóng trực tiếp kích động, mời chào hoặc góp phần vào các hành vi phạm tội khủng bố, cung cấp hướng dẫn cho các hành vi phạm tội đó hoặc kích động mọi người tham gia vào một nhóm khủng bố". Điều tương tự cũng áp dụng cho bất kỳ lời giải thích nào liên quan đến việc sản xuất hoặc sử dụng thuốc nổ.
Và kể từ thứ Hai, ngày 16 tháng 12, Facebook đã gia nhập danh sách các công ty phải thực hiện các biện pháp cụ thể chống lại việc phát tán nội dung khủng bố, một tháng sau quyết định tương tự nhắm vào một mạng xã hội Meta khác là Instagram. Các nền tảng nhận được ít nhất hai lệnh xóa loại nội dung này trong 12 tháng qua có thể nằm trong danh mục này, đó là trường hợp của Meta ở đây.
Facebook phải áp dụng các biện pháp cụ thể
Cụ thể, hậu quả đối với nhóm của Mark Zuckerberg là gì? Bây giờ, họ phải "thực hiện các biện pháp cụ thể để ngăn chặn việc các dịch vụ của mình bị sử dụng để phát tán nội dung khủng bố." Nhóm của Mark Zuckerberg cũng có nghĩa vụ gửi báo cáo tới chính quyền Ireland, nêu chi tiết các biện pháp đã được thực hiện trong vòng ba tháng kể từ khi nhận được quyết định. Các biện pháp phải "có hiệu quả, có mục tiêu và tương xứng, đồng thời tôn trọng các quyền cơ bản của người dùng", cơ quan này nhắc lại.
Mặc dù vẫn chưa biết nội dung khủng bố nào được tìm thấy trên Facebook và được thông báo cho cơ quan quản lý, Facebook sẽ phải áp dụng các biện pháp mới để ứng phó với cơ quan quản lý của Ireland. Điều này có thể dẫn đến các điều khoản sử dụng mới, cấm việc phát tán nội dung khủng bố. Sau ba tháng, cơ quan có thẩm quyền sẽ đánh giá các biện pháp đã thực hiện. Nếu cho rằng những điều này là không đủ, có thể phải chịu mức phạt nặng lên tới 4% doanh thu toàn cầu. Trong tuyên bố của mình, cơ quan này nói thêm rằng người dùng các nền tảng có thể báo cáo nội dung khủng bố cho nền tảng hoặc cho một cơ quan địa phương khác.
Facebook ước tính rằng họ đã xóa "hơn 99% nội dung bạo lực loại này trước khi chúng tôi nhận được báo cáo"
Được TechCrunch hỏi vào thứ Hai, ngày 16 tháng 12, Meta tin rằng họ có "một trong những cách tiếp cận toàn diện nhất trong ngành để nhắm mục tiêu vào các tổ chức và cá nhân nguy hiểm." Công ty Mỹ tuyên bố đã "phát hiện và xóa hơn 99% nội dung bạo lực loại này trước khi chúng được báo cáo với chúng tôi" trong quý trước.
Một tháng trước, cơ quan chức năng Ireland đã nhắm mục tiêu vào các công ty khác: ngoài Instagram, TikTok và X cũng được đưa vào danh sách các nền tảng tiếp xúc với nội dung khủng bố. Irish Arcom, đơn vị chịu trách nhiệm kiểm soát việc phân phối loại nội dung này, hợp tác với Ủy ban Châu Âu, đơn vị này có trách nhiệm quản lý rộng rãi hơn việc kiểm duyệt các nền tảng rất lớn theo DSA, quy định của Châu Âu về các dịch vụ kỹ thuật số.