Khái niệm này rất đơn giản, thậm chí có phần điên rồ: một trí tuệ nhân tạo có khả năng tiến hành nghiên cứu khoa học từ đầu đến cuối mà không cần sự can thiệp của con người. Đây chính là những gì các nhà nghiên cứu tại Sakana, một công ty trẻ có trụ sở tại Tokyo. Nguyên mẫu của họ, được gọi là "Nhà khoa học AI", có khả năng xác định câu hỏi khoa học, xây dựng giả thuyết, tiến hành thí nghiệm, phân tích kết quả và thậm chí viết báo cáo. Và để xác minh mọi thứ, một mô hình AI thứ hai có trách nhiệm thực hiện đánh giá quan trọng, theo cách đọc của ủy ban.
Nhưng hãy cẩn thận, chúng ta vẫn còn rất xa mới có được công cụ hoàn hảo. Nhóm nghiên cứu đã xác định được một số hạn chế: lỗi tính toán, diễn giải không chắc chắn, đôi khi báo cáo gây nhầm lẫn. Ví dụ, trong một thử nghiệm, AI thích thay đổi các tham số để kéo dài thời gian thực hiện thí nghiệm hơn là tối ưu hóa mã của riêng bạn. Hành vi bất ngờ, nhưng lại thể hiện một hình thức chủ động.
Mặc dù dự án này mới ở giai đoạn đầu, AI đã được sử dụng trong nghiên cứu khoa học, thường là không nói ra. Một nghiên cứu mới công bố ước tính rằng hơn 60.000 bài viết đã được “cải thiện” nhờ các công cụ như ChatGPT. Đánh bóng một văn bản, sửa một cách diễn đạt, xây dựng lại một kết luận... AI đã âm thầm được áp dụng trong các phòng thí nghiệm.
Vấn đề về tính minh bạch vẫn còn đó. Tôi có nên báo cáo rằng bài viết được đồng sáng tác bởi AI không? Đối với Robert Lange, câu trả lời là có: "Chúng ta có thể hình dung ra hình mờ trong các bài báo khoa học để có thể rõ ràng ngay từ đầu". Ông cũng ủng hộ việc mở mã nguồn các mô hình để toàn thể cộng đồng các nhà khoa học có thể nắm bắt và cải thiện chúng.
Mục đích cuối cùng không phải là thay thế các nhà nghiên cứu mà là giúp đỡ họ. Robert Lange tóm tắt rằng: “AI có thể cho phép con người tập trung vào những gì họ làm tốt nhất”. Công việc thực sự vẫn là của con người: đặt câu hỏi đúng, xác minh kết quả, tìm ra ý nghĩa cho... những gì AI tạo ra.
Một mô hình kết nối các giả thuyết, thử nghiệm và báo cáo
Đối với Robert Lange, nhà nghiên cứu và đồng sáng lập Sakana, dự án này giống với các mô hình tạo văn bản đầu tiên như GPT-1. “Đây là điểm khởi đầu. Chúng ta bắt đầu thấy được loại AI này thực sự có thể mang lại những gì cho khoa học", ông giải thích.Nhưng hãy cẩn thận, chúng ta vẫn còn rất xa mới có được công cụ hoàn hảo. Nhóm nghiên cứu đã xác định được một số hạn chế: lỗi tính toán, diễn giải không chắc chắn, đôi khi báo cáo gây nhầm lẫn. Ví dụ, trong một thử nghiệm, AI thích thay đổi các tham số để kéo dài thời gian thực hiện thí nghiệm hơn là tối ưu hóa mã của riêng bạn. Hành vi bất ngờ, nhưng lại thể hiện một hình thức chủ động.
Mặc dù dự án này mới ở giai đoạn đầu, AI đã được sử dụng trong nghiên cứu khoa học, thường là không nói ra. Một nghiên cứu mới công bố ước tính rằng hơn 60.000 bài viết đã được “cải thiện” nhờ các công cụ như ChatGPT. Đánh bóng một văn bản, sửa một cách diễn đạt, xây dựng lại một kết luận... AI đã âm thầm được áp dụng trong các phòng thí nghiệm.
Vấn đề về tính minh bạch vẫn còn đó. Tôi có nên báo cáo rằng bài viết được đồng sáng tác bởi AI không? Đối với Robert Lange, câu trả lời là có: "Chúng ta có thể hình dung ra hình mờ trong các bài báo khoa học để có thể rõ ràng ngay từ đầu". Ông cũng ủng hộ việc mở mã nguồn các mô hình để toàn thể cộng đồng các nhà khoa học có thể nắm bắt và cải thiện chúng.
Mục đích cuối cùng không phải là thay thế các nhà nghiên cứu mà là giúp đỡ họ. Robert Lange tóm tắt rằng: “AI có thể cho phép con người tập trung vào những gì họ làm tốt nhất”. Công việc thực sự vẫn là của con người: đặt câu hỏi đúng, xác minh kết quả, tìm ra ý nghĩa cho... những gì AI tạo ra.