Khi đọc báo cáo mới nhất dài 145 trang của Google DeepMind, bạn có thể cảm thấy như mình đang đọc một kịch bản khoa học viễn tưởng về tương lai của nhân loại. Thật vậy, với các thông báo hàng tuần từ những công ty lớn nhất trong lĩnh vực trí tuệ nhân tạo và sự xuất hiện của những công ty mới như Manus.ai, các chuyên gia AI lớn nhất cho biết AGI (Trí tuệ nhân tạo tổng quát) có thể xuất hiện trong vòng 5 năm tới.
Mặc dù khái niệm trí tuệ nhân tạo "tổng quát" vẫn còn rất mơ hồ, nhưng các nhà nghiên cứu tại Google DeepMind, đáng chú ý là người phụ trách Gemini AI của Google, gần đây đã tuyên bố rằng công nghệ này có thể đạt đến độ hoàn thiện trong tương lai rất gần. Thật không may, điều này không khiến các nhà nghiên cứu này nhiệt tình, mà là một mối lo ngại sâu sắc có thể làm đảo lộn thế cờ...
Thật vậy, đây chính là điều mà các nhà nghiên cứu Google DeepMind dường như đang ủng hộ, bao gồm Shane Legg, một trong những người đồng sáng lập dự án tại công ty Mỹ này. Mặc dù tác giả không nêu rõ chính xác AGI có thể gây ra "thiệt hại nghiêm trọng" cho nhân loại như thế nào, nhưng tác giả muốn có tầm nhìn xa.
Vì mục đích này, tác giả muốn đề xuất các phòng thí nghiệm nghiên cứu AI khác thực hiện các biện pháp nghiêm ngặt để tránh sự tuyệt chủng của nhân loại.
Thông tin này, kết hợp với báo cáo mới nhất từ Google DeepMind, đặc biệt đáng lo ngại theo phòng thí nghiệm của công ty Mỹ này. Thật vậy, theo các nhà nghiên cứu, mặc dù trí tuệ nhân tạo hiện đang được sử dụng để thúc đẩy nghiên cứu, nhưng nó cũng sẽ có những tác động có hại.
Nghiên cứu Google DeepMind đã có thể phân loại chúng thành bốn loại, từ cái gọi là sử dụng "lạm dụng" đối với những cá nhân sử dụng AI cho mục đích có hại hoặc "sai lệch" sẽ vô tình gây ra cùng một kết quả, thông qua lỗi thiết kế hoặc thậm chí là rủi ro về cấu trúc có thể tạo ra xung đột giữa các tổ chức, quốc gia và theo nghĩa mở rộng là AI.
Để tránh một kịch bản thảm khốc, các nhà nghiên cứu Google DeepMind muốn thuyết phục các chuyên gia AI giỏi nhất bằng cách thiết lập một chiến lược giảm thiểu rủi ro. Thật không may, ý tưởng này không nhận được sự đồng thuận. Anthony Aguirre, giám đốc điều hành của Viện Tương lai Cuộc sống, cho biết: với tạp chí Fortune rằng «nỗ lực đáng ngưỡng mộ» này không đủ để đối phó với những rủi ro này.
Mặc dù khái niệm trí tuệ nhân tạo "tổng quát" vẫn còn rất mơ hồ, nhưng các nhà nghiên cứu tại Google DeepMind, đáng chú ý là người phụ trách Gemini AI của Google, gần đây đã tuyên bố rằng công nghệ này có thể đạt đến độ hoàn thiện trong tương lai rất gần. Thật không may, điều này không khiến các nhà nghiên cứu này nhiệt tình, mà là một mối lo ngại sâu sắc có thể làm đảo lộn thế cờ...
Theo Google DeepMind, AGI có thể "hủy diệt nhân loại"
Nếu các chức năng của công cụ AI ngày nay cho phép chúng ta lập trình, tạo hình ảnh và thậm chí thực hiện giao dịch mua hàng vào ngày mai tại địa điểm của bạn như Amazon hứa, thì nó cũng có thể quyết định tương lai của bạn trên trái đất.Thật vậy, đây chính là điều mà các nhà nghiên cứu Google DeepMind dường như đang ủng hộ, bao gồm Shane Legg, một trong những người đồng sáng lập dự án tại công ty Mỹ này. Mặc dù tác giả không nêu rõ chính xác AGI có thể gây ra "thiệt hại nghiêm trọng" cho nhân loại như thế nào, nhưng tác giả muốn có tầm nhìn xa.
Vì mục đích này, tác giả muốn đề xuất các phòng thí nghiệm nghiên cứu AI khác thực hiện các biện pháp nghiêm ngặt để tránh sự tuyệt chủng của nhân loại.
Quy định về AI sẽ ra mắt trong vài năm tới?
Vào tháng 3 năm ngoái, Demis Hassabis, Giám đốc điều hành của DeepMind, đã nói với NBC News rằng trí tuệ nhân tạo nói chung sẽ ra mắt trong vòng năm đến mười năm nữa, đồng thời cho biết năm 2030 hiện là thời điểm có khả năng xảy ra nhất.Thông tin này, kết hợp với báo cáo mới nhất từ Google DeepMind, đặc biệt đáng lo ngại theo phòng thí nghiệm của công ty Mỹ này. Thật vậy, theo các nhà nghiên cứu, mặc dù trí tuệ nhân tạo hiện đang được sử dụng để thúc đẩy nghiên cứu, nhưng nó cũng sẽ có những tác động có hại.
Nghiên cứu Google DeepMind đã có thể phân loại chúng thành bốn loại, từ cái gọi là sử dụng "lạm dụng" đối với những cá nhân sử dụng AI cho mục đích có hại hoặc "sai lệch" sẽ vô tình gây ra cùng một kết quả, thông qua lỗi thiết kế hoặc thậm chí là rủi ro về cấu trúc có thể tạo ra xung đột giữa các tổ chức, quốc gia và theo nghĩa mở rộng là AI.
Để tránh một kịch bản thảm khốc, các nhà nghiên cứu Google DeepMind muốn thuyết phục các chuyên gia AI giỏi nhất bằng cách thiết lập một chiến lược giảm thiểu rủi ro. Thật không may, ý tưởng này không nhận được sự đồng thuận. Anthony Aguirre, giám đốc điều hành của Viện Tương lai Cuộc sống, cho biết: với tạp chí Fortune rằng «nỗ lực đáng ngưỡng mộ» này không đủ để đối phó với những rủi ro này.