AI của Elon Musk hoàn toàn mốt, nó tiết lộ cách chế tạo vũ khí hóa học

theanh

Administrator
Nhân viên
Grok 3, trí tuệ nhân tạo mới do xAI phát triển, đã gây ra nhiều lo ngại kể từ khi ra mắt. Người dùng đã thành công Nhận hướng dẫn toàn diện về cách tạo vũ khí hóa học và thực hiện các cuộc tấn công chết người.

Robot_patron.jpg


Trí tuệ nhân tạo đang đạt đến ngưỡng quan trọng mới. Với các mô hình ngày càng tiên tiến hơn, vấn đề rủi ro liên quan đến việc sử dụng chúng trở nên quan trọng. Một số công ty trong ngành áp dụng các quy tắc nghiêm ngặt để ngăn chặn tình trạng lạm dụng, nhưng những công ty khác lại chọn cách tiếp cận cởi mở hơn, ngay cả khi điều đó có thể gây ra những tình huống đáng lo ngại. Đây là trường hợp của Grok 3, AI mới nhất vừa được xAI, công ty của Elon Musk, ra mắt. Được giới thiệu là một người mẫu mạnh mẽkhông bị kiểm duyệt, cô ấy đã vượt qua ChatGPT và Gemini trong một số bài kiểm tra logic và toán học. Nhưng việc thiếu kiểm soát của nó đã gây ra một cuộc tranh cãi.

Trong vài ngày, một số người dùng phát hiện ra rằng Grok có thể cung cấp hướng dẫn chi tiết để chế tạo vũ khí hóa học, thậm chí còn liệt kê các vật liệu cần mua và các trang web để đặt hàng chúng. Một nhà phát triển đã thành công đáng chú ý trong việc: có được một tài liệu dài hàng chục trang giải thích cách thiết kế một loại chất độc chết ngườisử dụng nó trong một thành phố để tối đa hóa hiệu quả của nó. AI thậm chí còn sử dụng công cụ tìm kiếm nâng cao để xác minh độ chính xác của thông tin và tinh chỉnh các chi tiết.

Grok 3 cung cấp hướng dẫn chi tiết về cách chế tạo vũ khí hóa học​

Grok 3 không phải là mô hình duy nhất gây ra vấn đề. Gần đây, AI DeepSeek R1 cũng được chú ý vì khả năng cung cấp thông tin nhạy cảm. Các nhà nghiên cứu đã chỉ ra rằng phương pháp này có khả năng giải thích các hiện tượng hóa học nguy hiểm cao hơn 3,5 lần so với các phương pháp khác. Một trong những trường hợp đáng lo ngại nhất liên quan đến khí mù tạt, một loại vũ khí hóa học bị cấm, mà AI đã mô tả chi tiết các tương tác với DNA, do đó tạo điều kiện cho việc hiểu biết về quá trình sản xuất của nó.

Khi đối mặt với tranh cãi, xAI đã phản ứng khẩn cấp bằng cách chặn một số yêu cầu và thêm hạn chế vào Grok 3. Nhưng trường hợp này lại mở lại cuộc tranh luận về những giới hạn áp dụng cho các mô hình AI tiên tiến. DeepSeek R1 cũng bị chỉ trích vì tỷ lệ kiểm duyệt thấp, được xếp hạng trong số 20% mô hình kém an toàn nhất. Mặc dù chỉ có 6,68% phản hồi chứa thông tin thực sự nguy hiểm, nhưng vẫn đủ để cảnh báo các chuyên gia và chính quyền. Với sự phát triển nhanh chóng của các mô hình này, áp lực ngày càng gia tăng nhằm tăng cường quy định và ngăn chặn các công nghệ này rơi vào tay kẻ xấu.

 
Back
Bên trên