Một báo cáo mới cho thấy các công cụ trí tuệ nhân tạo đang bị sử dụng sai mục đích. Các hành vi sử dụng có hại đang gia tăng, bao gồm tạo ra vi-rút, thao túng chính trị và cung cấp việc làm giả mạo. Ngay cả những người thiếu kinh nghiệm giờ đây cũng có thể thực hiện các hành động phức tạp.
Trí tuệ nhân tạo giờ đây đã trở thành một phần của cuộc sống hàng ngày. Nó có thể viết văn bản, tạo hình ảnh hoặc tạo mã. Nhưng trong khi những khả năng này hữu ích trong nhiều lĩnh vực, chúng cũng bị những cá nhân có ác ý lạm dụng. Ngày càng có nhiều trường hợp cho thấy AI đang trở thành công cụ trong tay tội phạm mạng, cho phép chúng hoạt động nhanh hơn hoặc giống như Gemini, cho phép chúng thực hiện các cuộc tấn công mạng.
Đây là nội dung của một nghiên cứu gần đây do Anthropic, công ty phát triển chatbot Claude, thực hiện. Báo cáo của ông, được công bố vào tháng 4 năm 2025, chỉ ra một số trường hợp sử dụng bất hợp pháp mô hình AI này. Những người có kỹ năng thấp có thể tạo phần mềm độc hại tiên tiến. Những kẻ khác đã tạo ra nội dung chính trị giả mạo để thao túng phương tiện truyền thông xã hội hoặc tạo ra các lời mời làm việc giả mạo trên quy mô lớn.
Anthropic cũng xác định được một vụ gian lận tuyển dụng trực tuyến. Những kẻ lừa đảo đóng giả là doanh nghiệp sử dụng Claude để viết tin nhắn chuyên nghiệp. AI đã được sử dụng để chỉnh sửa phong cách của tin nhắn, sao cho chúng trông đáng tin cậy hơn bằng tiếng Anh. Công ty đã chặn các tài khoản có trách nhiệm, nhưng cảnh báo rằng tình trạng sử dụng này sẽ tiếp tục phát triển. Trong trường hợp không có khuôn khổ pháp lý rõ ràng, biện pháp phòng vệ duy nhất vẫn là phân tích nội bộ và báo cáo tự nguyện. Rủi ro không còn chỉ đến từ các chuyên gia nữa mà từ bất kỳ ai có quyền truy cập vào một chatbot mạnh mẽ.

Trí tuệ nhân tạo giờ đây đã trở thành một phần của cuộc sống hàng ngày. Nó có thể viết văn bản, tạo hình ảnh hoặc tạo mã. Nhưng trong khi những khả năng này hữu ích trong nhiều lĩnh vực, chúng cũng bị những cá nhân có ác ý lạm dụng. Ngày càng có nhiều trường hợp cho thấy AI đang trở thành công cụ trong tay tội phạm mạng, cho phép chúng hoạt động nhanh hơn hoặc giống như Gemini, cho phép chúng thực hiện các cuộc tấn công mạng.
Đây là nội dung của một nghiên cứu gần đây do Anthropic, công ty phát triển chatbot Claude, thực hiện. Báo cáo của ông, được công bố vào tháng 4 năm 2025, chỉ ra một số trường hợp sử dụng bất hợp pháp mô hình AI này. Những người có kỹ năng thấp có thể tạo phần mềm độc hại tiên tiến. Những kẻ khác đã tạo ra nội dung chính trị giả mạo để thao túng phương tiện truyền thông xã hội hoặc tạo ra các lời mời làm việc giả mạo trên quy mô lớn.
Claude đã được sử dụng để tạo ra vi-rút, thao túng cử tri và mô phỏng những người tuyển dụng
Theo báo cáo, một kẻ xấu đã sử dụng Claude để phân tích các mã định danh từ các camera bị hack. Một công cụ khác đã biến đổi một bộ phần mềm độc hại nguồn mở đơn giản có khả năng nhận dạng khuôn mặt. Ví dụ thứ ba cho thấy cách nó tạo ra nội dung cho các hoạt động chính trị có trả phí thông qua hàng trăm tài khoản tự động trên mạng xã hội. Những bot này tương tác với hàng nghìn tài khoản thực, bằng nhiều ngôn ngữ khác nhau, để truyền tải những thông điệp nhất định.Anthropic cũng xác định được một vụ gian lận tuyển dụng trực tuyến. Những kẻ lừa đảo đóng giả là doanh nghiệp sử dụng Claude để viết tin nhắn chuyên nghiệp. AI đã được sử dụng để chỉnh sửa phong cách của tin nhắn, sao cho chúng trông đáng tin cậy hơn bằng tiếng Anh. Công ty đã chặn các tài khoản có trách nhiệm, nhưng cảnh báo rằng tình trạng sử dụng này sẽ tiếp tục phát triển. Trong trường hợp không có khuôn khổ pháp lý rõ ràng, biện pháp phòng vệ duy nhất vẫn là phân tích nội bộ và báo cáo tự nguyện. Rủi ro không còn chỉ đến từ các chuyên gia nữa mà từ bất kỳ ai có quyền truy cập vào một chatbot mạnh mẽ.