OpenAI, công ty khởi nghiệp đằng sau ChatGPT, đang gióng lên hồi chuông cảnh báo. Trong một bài đăng trên blog được công bố vào thứ Tư, ngày 18 tháng 6 năm 2025, công ty Mỹ giải thích rằng họ kỳ vọng các mô hình AI trong tương lai có thể giúp người dùng Internet thiết kế vũ khí sinh học. Trong tay những người thiếu hiểu biết hoặc thiếu kinh nghiệm, trí tuệ nhân tạo có thể làm tăng nguy cơ vũ khí sinh học không được kiểm soát.
Tháng 4 năm ngoái, OpenAI đã gióng lên hồi chuông cảnh báo về những rủi ro do AI gây ra liên quan đến các tác nhân gây bệnh cho mục đích quân sự. Để ngăn chặn việc lạm dụng, công ty khởi nghiệp của Sam Altman đã thực hiện các bước để ngăn các mô hình cơ sở của ChatGPT cung cấp lời khuyên về các mối đe dọa sinh học. OpenAI đã xây dựng các biện pháp bảo vệ vào mã của o3 và o4-mini, hai mô hình lý luận của nó.
Trong báo cáo của mình, gã khổng lồ về trí tuệ nhân tạo cho biết họ đã quyết định tăng cường thử nghiệm các mô hình AI hiện đang được phát triển. Kế hoạch giảm thiểu rủi ro của OpenAI bao gồm việc đánh giá từng mô hình, bao gồm cả các hành vi lạm dụng tiềm ẩn, trước khi triển khai. Là một phần của các đánh giá này, công ty cam kết tham khảo ý kiến của các chuyên gia và cơ quan công quyền được công nhận. Quy trình này yêu cầu sự chấp thuận từ hai cơ quan giám sát, một bên trong và một bên ngoài. Cả hai cơ quan đều phải chấp thuận trước khi phát hành một mô hình AI.
Ngoài ra, các biện pháp bảo mật mới đã được triển khai để chặn mọi yêu cầu hỗ trợ tạo vi-rút. Khi phát hiện ra một yêu cầu có khả năng gây hại, OpenAI sẽ tạm dừng phản hồi của AI. Sau đó, tình hình sẽ được đánh giá bởi một thuật toán, rồi đến con người.
Như Johannes Heidecke giải thích, "Chúng ta vẫn chưa sống trong một thế giới mà ở đó có một sự sáng tạo hoàn toàn mới và chưa từng biết đến về các mối đe dọa sinh học chưa từng tồn tại trước đây." Ở giai đoạn này, các mô hình có khả năng tạo điều kiện cho "tái tạo những thứ mà các chuyên gia đã biết rất rõ" bởi những cá nhân chưa được đào tạo.
Tháng 4 năm ngoái, OpenAI đã gióng lên hồi chuông cảnh báo về những rủi ro do AI gây ra liên quan đến các tác nhân gây bệnh cho mục đích quân sự. Để ngăn chặn việc lạm dụng, công ty khởi nghiệp của Sam Altman đã thực hiện các bước để ngăn các mô hình cơ sở của ChatGPT cung cấp lời khuyên về các mối đe dọa sinh học. OpenAI đã xây dựng các biện pháp bảo vệ vào mã của o3 và o4-mini, hai mô hình lý luận của nó.
OpenAI lo ngại "sự gia tăng của những người mới vào nghề"
Theo OpenAI, mối nguy hiểm do các mô hình AI gây ra trong lĩnh vực tác nhân sinh học sắp leo thang. Khi được Axios phỏng vấn, Johannes Heidecke, giám đốc hệ thống bảo mật tại OpenAI, chỉ ra rằng công ty kỳ vọng rằng "một số người kế nhiệm" của mô hình o3 sẽ có thể hướng dẫn người dùng tạo ra vũ khí sinh học. Công ty khởi nghiệp này lo ngại về một hiện tượng mà họ gọi là "sự trỗi dậy của người mới vào nghề". Tóm lại, AI có thể trao cho bất kỳ ai khả năng tạo ra các chất có khả năng gây nguy hiểm mà không cần hiểu rõ các rủi ro.Trong báo cáo của mình, gã khổng lồ về trí tuệ nhân tạo cho biết họ đã quyết định tăng cường thử nghiệm các mô hình AI hiện đang được phát triển. Kế hoạch giảm thiểu rủi ro của OpenAI bao gồm việc đánh giá từng mô hình, bao gồm cả các hành vi lạm dụng tiềm ẩn, trước khi triển khai. Là một phần của các đánh giá này, công ty cam kết tham khảo ý kiến của các chuyên gia và cơ quan công quyền được công nhận. Quy trình này yêu cầu sự chấp thuận từ hai cơ quan giám sát, một bên trong và một bên ngoài. Cả hai cơ quan đều phải chấp thuận trước khi phát hành một mô hình AI.
Ngoài ra, các biện pháp bảo mật mới đã được triển khai để chặn mọi yêu cầu hỗ trợ tạo vi-rút. Khi phát hiện ra một yêu cầu có khả năng gây hại, OpenAI sẽ tạm dừng phản hồi của AI. Sau đó, tình hình sẽ được đánh giá bởi một thuật toán, rồi đến con người.
Như Johannes Heidecke giải thích, "Chúng ta vẫn chưa sống trong một thế giới mà ở đó có một sự sáng tạo hoàn toàn mới và chưa từng biết đến về các mối đe dọa sinh học chưa từng tồn tại trước đây." Ở giai đoạn này, các mô hình có khả năng tạo điều kiện cho "tái tạo những thứ mà các chuyên gia đã biết rất rõ" bởi những cá nhân chưa được đào tạo.