Ít nội dung bị xóa khỏi Facebook và Instagram hơn, ít lỗi kiểm duyệt hơn và không còn bài đăng "có vấn đề" hoặc có hại nữa. Đây là cách Meta, công ty mẹ của Instagram, Facebook và WhatsApp, trình bày đánh giá đầu tiên của mình về các quy tắc mới nhằm quản lý nội dung sai lệch, gây hiểu lầm hoặc bất hợp pháp được chia sẻ trên các nền tảng của công ty. Gã khổng lồ kỹ thuật số tin rằng chính sách kiểm duyệt mới của mình, được công bố vào tháng 1 năm ngoái, đang mang lại kết quả, trong một báo cáo được công bố vào thứ năm, ngày 29 tháng 5 trên trang web của mình.
Theo số liệu do Meta đưa ra, người dùng của họ đã tiếp xúc với một hoặc hai nội dung thù địch cho mỗi 10.000 bài đăng được xem trong ba tháng đầu năm 2025, so với hai hoặc ba vào cuối năm ngoái. Công ty Mỹ này tuyên bố rằng ở "hầu hết các lĩnh vực có vấn đề", tỷ lệ bài đăng vi phạm nguyên tắc sử dụng (như nội dung thù địch, quấy rối, v.v.) "hầu như không thay đổi".
Trong hệ thống mới này, người dùng có thể thêm ghi chú hoặc chỉnh sửa vào nội dung có thể chứa thông tin sai lệch hoặc gây hiểu lầm. Đồng thời, Meta đã loại trừ các chủ đề như nhập cư, bản dạng tình dục và giới tính khỏi danh sách kiểm duyệt của mình. Những thay đổi hiện cho phép người dùng Instagram và Facebook đăng các bài đăng bị các nhà hoạt động nhân quyền coi là "gây thù hận" - đặc biệt là những bài đăng nhắm vào người nhập cư hoặc những người chuyển giới. Meta do đó cho phép "các khiếu nại về bệnh tâm thần hoặc bất thường khi dựa trên giới tính hoặc khuynh hướng tình dục", theo phương tiện truyền thông Mỹ Wired.
Để biện minh cho những thay đổi này, người sáng lập nhóm, Mark Zuckerberg, đã nhấn mạnh rằng hệ thống kiểm tra thực tế của công ty đã dẫn đến "quá nhiều lỗi và quá nhiều kiểm duyệt". Meta đảm bảo rằng những lỗi này hiện sẽ giảm đi một nửa, mặc dù không có lời giải thích nào về phương pháp tính toán con số này. Tuy nhiên, gã khổng lồ của Mỹ hứa rằng các báo cáo trong tương lai của họ "sẽ bao gồm số liệu về lỗi của chúng tôi để mọi người có thể theo dõi tiến trình của chúng tôi".
Tương tự như vậy,nội dung bạo lực, được mô tả là "tôn vinh bạo lực hoặc ca ngợi sự đau khổ hoặc sự sỉ nhục của người khác trên Facebook và Instagram», đã từ 6 đến 7 lượt xem trong số 10.000 bài đăng vào năm 2025 đến 9 lượt xem trong số 10.000 vào cuối năm 2024. Mặc dù báo cáo này cung cấp tổng quan tương đối về tình hình sau khi hệ thống kiểm duyệt của Meta thay đổi vào tháng 1 năm 2025, nhưng vẫn cònmột tài liệu do Meta– với các số liệu do gã khổng lồ của Mỹ cung cấp độc quyền, chưa được các tổ chức bên thứ ba xác minh độc lập.
Các nhà nghiên cứu tại Đại học Northeastern (Boston, Hoa Kỳ) cũng đã chứng minh rằng việc kiểm duyệt trên các mạng xã hội thường đến quá muộn, với các bài đăng gây tranh cãi đã được một số lượng lớn người dùng xem trước khi bị xóa. Một nghiên cứu mới được công bố vào ngày 28 tháng 4 năm 2025 trên Tạp chí về Niềm tin và An toàn Trực tuyến đã xem xét kỹ lưỡng hoạt động kiểm duyệt trên Facebook vào năm 2023—một năm mà hoạt động kiểm duyệt nghiêm ngặt hơn hệ thống hiện tại. Và theo các tác giả, các bài đăng đã bị xóa vì vi phạm các quy tắc của mạng xã hội đã tiếp cận được ít nhất ba phần tư đối tượng mục tiêu của họ tại thời điểm họ xóa.
Theo số liệu do Meta đưa ra, người dùng của họ đã tiếp xúc với một hoặc hai nội dung thù địch cho mỗi 10.000 bài đăng được xem trong ba tháng đầu năm 2025, so với hai hoặc ba vào cuối năm ngoái. Công ty Mỹ này tuyên bố rằng ở "hầu hết các lĩnh vực có vấn đề", tỷ lệ bài đăng vi phạm nguyên tắc sử dụng (như nội dung thù địch, quấy rối, v.v.) "hầu như không thay đổi".
Theo Meta, lỗi kiểm duyệt đã giảm một nửa
Đánh giá này, có lợi cho Meta, hẳn sẽ khiến các chuyên gia - cũng như Hội đồng giám sát của công ty mẹ Facebook - ngạc nhiên - vì họ lo ngại rằng các tin nhắn thù địch hoặc bất hợp pháp sẽ gia tăng trên Instagram và Facebook sau khi Meta thay đổi chiến lược vào tháng 1 năm ngoái. Năm tháng trước, nhóm của Mark Zuckerberg đã giải thích rằng họ giao phó quyền kiểm duyệt Facebook và Instagram cho người dùng của mình, nhằm "khôi phục quyền tự do ngôn luận" trên các nền tảng của mình. Sau vụ bê bối Cambridge Analytica năm 2016, Facebook đã tìm cách chứng minh uy tín của mình bằng cách triển khai chương trình kiểm tra thực tế, đặc biệt dựa vào các hãng thông tấn. Được cho là mang tính chính trị quá mức, hệ thống này đã được thay thế tại Hoa Kỳ bằng các ghi chú cộng đồng, tương tự như những gì hiện có trên X, nền tảng của Elon Musk.Trong hệ thống mới này, người dùng có thể thêm ghi chú hoặc chỉnh sửa vào nội dung có thể chứa thông tin sai lệch hoặc gây hiểu lầm. Đồng thời, Meta đã loại trừ các chủ đề như nhập cư, bản dạng tình dục và giới tính khỏi danh sách kiểm duyệt của mình. Những thay đổi hiện cho phép người dùng Instagram và Facebook đăng các bài đăng bị các nhà hoạt động nhân quyền coi là "gây thù hận" - đặc biệt là những bài đăng nhắm vào người nhập cư hoặc những người chuyển giới. Meta do đó cho phép "các khiếu nại về bệnh tâm thần hoặc bất thường khi dựa trên giới tính hoặc khuynh hướng tình dục", theo phương tiện truyền thông Mỹ Wired.
Để biện minh cho những thay đổi này, người sáng lập nhóm, Mark Zuckerberg, đã nhấn mạnh rằng hệ thống kiểm tra thực tế của công ty đã dẫn đến "quá nhiều lỗi và quá nhiều kiểm duyệt". Meta đảm bảo rằng những lỗi này hiện sẽ giảm đi một nửa, mặc dù không có lời giải thích nào về phương pháp tính toán con số này. Tuy nhiên, gã khổng lồ của Mỹ hứa rằng các báo cáo trong tương lai của họ "sẽ bao gồm số liệu về lỗi của chúng tôi để mọi người có thể theo dõi tiến trình của chúng tôi".
Chúng ta có thể kết luận gì từ báo cáo này do Meta phát hành, với các số liệu do... Meta cung cấp?
Chi tiết, báo cáo cho thấy có ít bài đăng bị xóa hơn trong ba tháng đầu năm 2025 so với các giai đoạn trước.Mặc dù có sự sụt giảm chung này, Meta lưu ý hai danh mục mà tần suất các trường hợp có vấn đề đã tăng lên. Các trường hợp bắt nạt và quấy rối trực tuyến tăng nhẹ trong quý đầu tiên năm 2025 so với ba tháng cuối năm 2024, từ 6 lượt xem trên 10.000 bài đăng lên 7 lượt xem trên 10.000 bài đăng. sans-serif, 'Biểu tượng cảm xúc màu táo', 'Biểu tượng cảm xúc Segoe UI', 'Biểu tượng cảm xúc Segoe UI', 'Biểu tượng cảm xúc Noto Color';">.Tương tự như vậy,nội dung bạo lực, được mô tả là "tôn vinh bạo lực hoặc ca ngợi sự đau khổ hoặc sự sỉ nhục của người khác trên Facebook và Instagram», đã từ 6 đến 7 lượt xem trong số 10.000 bài đăng vào năm 2025 đến 9 lượt xem trong số 10.000 vào cuối năm 2024. Mặc dù báo cáo này cung cấp tổng quan tương đối về tình hình sau khi hệ thống kiểm duyệt của Meta thay đổi vào tháng 1 năm 2025, nhưng vẫn cònmột tài liệu do Meta– với các số liệu do gã khổng lồ của Mỹ cung cấp độc quyền, chưa được các tổ chức bên thứ ba xác minh độc lập.
Các nhà nghiên cứu tại Đại học Northeastern (Boston, Hoa Kỳ) cũng đã chứng minh rằng việc kiểm duyệt trên các mạng xã hội thường đến quá muộn, với các bài đăng gây tranh cãi đã được một số lượng lớn người dùng xem trước khi bị xóa. Một nghiên cứu mới được công bố vào ngày 28 tháng 4 năm 2025 trên Tạp chí về Niềm tin và An toàn Trực tuyến đã xem xét kỹ lưỡng hoạt động kiểm duyệt trên Facebook vào năm 2023—một năm mà hoạt động kiểm duyệt nghiêm ngặt hơn hệ thống hiện tại. Và theo các tác giả, các bài đăng đã bị xóa vì vi phạm các quy tắc của mạng xã hội đã tiếp cận được ít nhất ba phần tư đối tượng mục tiêu của họ tại thời điểm họ xóa.