Hình ảnh được tạo ra bởi trí tuệ nhân tạo ngày càng trở nên chân thực hơn. Một số được sử dụng để thao túng dư luận hoặc ủng hộ các chiến dịch sai sự thật. Một công cụ mới tìm cách cảnh báo khi nghi ngờ được phép.
Ảnh giả, khuôn mặt nhân tạo, dàn dựng trông giống thật... Trí tuệ nhân tạo ngày càng làm mờ ranh giới giữa thực tế và hư cấu. Trên mạng xã hội, một số hình ảnh do AI tạo ra đang được lưu hành như thể chúng là tài liệu xác thực. Vấn đề này đang bùng nổ, đặc biệt là trong thời kỳ bầu cử hoặc trong các cuộc xung đột hiện tại.
Hiện tượng này không còn là chuyện phiếm nữa. Một báo cáo do Anthropic công bố cho thấy rằng những kẻ xấu đã sử dụng AI Claude của họ để tạo nội dung trực quan nhằm mục đích tuyên truyền thông tin sai lệch. Hàng chục bot trên Facebook và X đã được thử nghiệm để đăng tải, bình luận và chia sẻ những hình ảnh này bằng nhiều ngôn ngữ, với mục đích tác động một cách kín đáo đến một số cuộc tranh luận chính trị. Các hoạt động này được thực hiện để được trả công và nhằm mục đích: đưa ý kiến thành sự thật.
Cho đến gần đây, đã có những dấu hiệu giúp dễ dàng phát hiện ra hình ảnh do AI tạo ra: bàn tay biến dạng, khuôn mặt mờ hoặc bóng không nhất quán. Nhưng các mô hình đã tiến bộ đáng kể. Ví dụ, trình tạo hình ảnh mới nhất của ChatGPT tạo ra hình ảnh rất gần với thực tế, ngay cả các chi tiết. Trong bối cảnh này, chỉ có xác minh tự động mới có thể theo kịp. Những công cụ phát hiện này có thể trở nên thiết yếu đối với các nhà báo, tổ chức hoặc mạng xã hội. Cuộc đua giữa thế hệ và phát hiện chỉ mới bắt đầu.

Ảnh giả, khuôn mặt nhân tạo, dàn dựng trông giống thật... Trí tuệ nhân tạo ngày càng làm mờ ranh giới giữa thực tế và hư cấu. Trên mạng xã hội, một số hình ảnh do AI tạo ra đang được lưu hành như thể chúng là tài liệu xác thực. Vấn đề này đang bùng nổ, đặc biệt là trong thời kỳ bầu cử hoặc trong các cuộc xung đột hiện tại.
Hiện tượng này không còn là chuyện phiếm nữa. Một báo cáo do Anthropic công bố cho thấy rằng những kẻ xấu đã sử dụng AI Claude của họ để tạo nội dung trực quan nhằm mục đích tuyên truyền thông tin sai lệch. Hàng chục bot trên Facebook và X đã được thử nghiệm để đăng tải, bình luận và chia sẻ những hình ảnh này bằng nhiều ngôn ngữ, với mục đích tác động một cách kín đáo đến một số cuộc tranh luận chính trị. Các hoạt động này được thực hiện để được trả công và nhằm mục đích: đưa ý kiến thành sự thật.
Một công cụ có thể phát hiện xem hình ảnh có được tạo ra bởi AI hay không
Đối mặt với Để giải quyết mối đe dọa này, một số công ty đang phát triển các công cụ có khả năng tự động phát hiện xem hình ảnh có được tạo ra bởi AI hay không. Ví dụ, Adobe hiện đã cung cấp một công nghệ có tên là Content Credentials, cho phép xác định nội dung được tạo ra một cách giả tạo bằng chữ ký số. Những công ty khác như Google, OpenAI và Anthropic đang nghiên cứu các phương pháp phát hiện tương tự, đôi khi được tích hợp trực tiếp vào trình duyệt hoặc nền tảng. Đối với công chúng nói chung, các chương trình này vẫn chưa có, nhưng chúng có thể sớm được tích hợp vào các công cụ tìm kiếm, mạng xã hội hoặc các ứng dụng nhắn tin.Cho đến gần đây, đã có những dấu hiệu giúp dễ dàng phát hiện ra hình ảnh do AI tạo ra: bàn tay biến dạng, khuôn mặt mờ hoặc bóng không nhất quán. Nhưng các mô hình đã tiến bộ đáng kể. Ví dụ, trình tạo hình ảnh mới nhất của ChatGPT tạo ra hình ảnh rất gần với thực tế, ngay cả các chi tiết. Trong bối cảnh này, chỉ có xác minh tự động mới có thể theo kịp. Những công cụ phát hiện này có thể trở nên thiết yếu đối với các nhà báo, tổ chức hoặc mạng xã hội. Cuộc đua giữa thế hệ và phát hiện chỉ mới bắt đầu.