Rủi ro liên quan đến AI, bảo mật, quyền riêng tư ... Những người thua cuộc lớn từ Hội nghị thượng đỉnh Paris

theanh

Administrator
Nhân viên
Đằng sau các khoản đầu tư được công bố là 109 tỷ đô la cho Pháp và 200 tỷ đô la cho Liên minh châu Âu, "Hội nghị thượng đỉnh hành động AI" tại Paris kết thúc vào thứ Ba, ngày 11 tháng 2, có thúc đẩy các vấn đề an ninh trước những rủi ro liên quan đến hệ thống AI hay không? Các quốc gia trên thế giới đã đạt được sự đồng thuận về vấn đề cực kỳ nhạy cảm này chưa?
Đối với một số chuyên gia, hội nghị thượng đỉnh AI tại Paris đã không đạt được bất kỳ tiến triển nào: ngược lại, họ lưu ý rằng vấn đề này đang được xem xét ít hơn. Điều này trái ngược với tuyên bố của Emmanuel Macron ủng hộ "khuôn khổ tin cậy" cần thiết cho sự phát triển của AI. Và điều này bất chấp khởi đầu đầy hứa hẹn của hội nghị thượng đỉnh.

"Tôi không đến đây để nói về an toàn AI"



Vào ngày 6 tháng 2, trước sự kiện, một "báo cáo về an toàn AI" đã được công bố, một dạng "tổng hợp các tài liệu khoa học về an toàn AI"
, tương đương với báo cáo của IPCC về AI. Các sự kiện và hội nghị song song đã được tổ chức – ví dụ như bởi tổ chức phi chính phủ Pause IA.
Nhưng đó là chưa kể đến bài phát biểu xúc phạm của Phó Tổng thống Hoa Kỳ V.D. Vance, người đến để dập tắt mọi hy vọng giải quyết vấn đề này. "Tôi không đến đây để nói về bảo mật AI", chuyên gia công nghệ này phát biểu tại lễ bế mạc sự kiện vào thứ Ba, ngày 11 tháng 2. Về cơ bản, ông nói rằng đã đến lúc phải chấp nhận rủi ro và gạt bỏ sự thận trọng thái quá, đồng thời chỉ trích mong muốn "siết chặt" AI và các gã khổng lồ kỹ thuật số của Mỹ bằng các quy định "quá mức" và "gây phiền hà" của người châu Âu.
Tuy nhiên, hai năm trước đó, bảo mật AI là chủ đề chính của hội nghị thượng đỉnh Bletchley, được tổ chức vào năm 2023 tại Vương quốc Anh. Nhưng phần sau đã bị đẩy xuống hạng mục thứ hai – hoặc thậm chí là hạng mục cuối cùng. Điều này hầu như không được đề cập trong tuyên bố cuối cùng của Pháp.

Một bước thụt lùi của một số chuyên gia​


Một khoảng cách có thể được giải thích vì nhiều lý do. Đầu tiên, vì chính quyền mới của Mỹ đang bảo vệ cách tiếp cận phi quản lý. Donald Trump đã gỡ bỏ một số biện pháp bảo vệ mà Joe Biden đưa ra trong lĩnh vực này và bắt đầu đối đầu với phần còn lại của thế giới - bao gồm cả châu Âu - để đảm bảo rằng không có ràng buộc pháp lý nào cản trở sự phát triển của những người ủng hộ ông tại Mỹ.
Nước này cũng từ chối ký vào tuyên bố cuối cùng của hội nghị thượng đỉnh. Trong văn bản không ràng buộc này, sáu mươi bên ký kết (bao gồm Liên minh Châu Âu và Trung Quốc) cam kết thúc đẩy AI “an toàn và đáng tin cậy”. Cùng với Hoa Kỳ, Vương quốc Anh và Các Tiểu vương quốc Ả Rập Thống nhất cũng đã chọn không ký văn bản, chứng tỏ rằng khó có thể đạt được sự đồng thuận, ngay cả đối với một tuyên bố thiện chí đơn giản.
Tương tự như vậy, mặc dù một cơ quan cụ thể của Pháp đã được thành lập trước hội nghị thượng đỉnh – INESIA (Viện Đánh giá và An ninh AI Quốc gia) – nhưng cơ quan này có rất ít nguồn lực – và chưa được phân bổ nguồn tài trợ riêng. Đây thực sự là một bước thụt lùi, khiến một số tổ chức, như Trung tâm An ninh AI (CeSIA), một hiệp hội của Pháp gồm các nhà nghiên cứu và chuyên gia, hối tiếc.
Trong thông cáo báo chí được công bố vào cuối thứ Ba, hiệp hội này lấy làm tiếc về "khoảng cách lớn giữa các khoản đầu tư lớn vào AI và các nguồn lực được phân bổ cho bảo mật AI." Câu chuyện tương tự từ Yoshua Bengio, người chiến thắng Giải thưởng Turing năm 2018, người sáng lập và giám đốc khoa học của Mila, Viện Trí tuệ nhân tạo Quebec, người mà hội nghị thượng đỉnh này "đã bỏ lỡ cơ hội" để "giải quyết một cách thực tế câu hỏi cấp bách về những rủi ro liên quan đến sự phát triển nhanh chóng của các mô hình tiên tiến", ông đã viết trên tài khoản X của mình.
"Khoa học chứng minh rằng AI gây ra những rủi ro lớn trong một khoảng thời gian đòi hỏi các nhà lãnh đạo thế giới phải coi trọng vấn đề này hơn nhiều", ông viết.
Ông chủ của công ty khởi nghiệp AI Anthropic, Dario Amodei, cũng than thở về "cơ hội đã thất bại" này. "Thời gian đang cạn kiệt", ông viết trong một tuyên bố, "các cuộc thảo luận quốc tế" phải "giải quyết chi tiết hơn những rủi ro an ninh ngày càng gia tăng của công nghệ này".

Không có đánh giá rủi ro nào của các công cụ AI do các cơ quan công quyền thực hiện​


Đặc biệt là vì các cơ quan quản lý có ít phương tiện để đánh giá các rủi ro vốn có trong một công cụ AI tạo ra trước khi cung cấp cho người dùng. Những công ty sau này phải đối mặt với hiện tượng "hộp đen" mà những gã khổng lồ AI từ chối mở, giống như trường hợp của các mạng xã hội.
Trong trường hợp này, rất khó để đo lường và đánh giá rủi ro nếu không có sự tiếp cận và hợp tác từ các công ty công nghệ. Cựu Thủ tướng Anh than thở vào năm 2023 tại hội nghị thượng đỉnh Bletchey rằng các công ty AI đang tự đánh giá công việc của mình. Hai năm sau, chúng ta vẫn ở cùng một điểm bất chấp Đạo luật AI, quy định của Châu Âu về AI và bất chấp bộ quy tắc thực hành tốt về trí tuệ nhân tạo đã được phát triển kể từ tháng 9 năm 2024.
Đối với Mathias Cormann, Tổng thư ký OECD, người đã phát biểu tại một cuộc họp bàn tròn vào ngày 11 tháng 2 trong hội nghị thượng đỉnh, "OECD đã xây dựng các nguyên tắc về AI đã được cập nhật gần đây để tạo điều kiện thuận lợi cho việc phát triển AI an toàn, đáng tin cậy và lấy con người làm trung tâm, nhưng chúng ta cần (...) xác định rủi ro một cách có hệ thống và triển khai các phương pháp tiếp cận để giảm thiểu những rủi ro này. Tại OECD, chúng tôi có một hệ thống theo dõi sự cố (…), chúng tôi có một loại đài quan sát để xác định các biện pháp chính trị được đưa ra." Nhưng "chúng ta cần (…) một khuôn khổ quản trị, một khuôn khổ quy định chung. Hiện tại, chúng ta còn rất xa điều đó và chúng ta cần phải bắt kịp để có thể hưởng lợi một cách an toàn từ những lợi thế của AI."

Theo giáo sư này, chúng ta phải "quan tâm đến các công cụ AI hiện tại"​


Đối với Paul Salmon, một giáo sư tại Đại học Sunshine Coast ở Úc, "sự thờ ơ của chính phủ và công chúng đối với các vấn đề an toàn AI" có thể được giải thích bằng một số hiểu lầm. Trong The Conversation, bài viết sau giải thích rằng chúng ta phải "quan tâm đến các công cụ AI hiện tại." Ông nói thêm rằng những công nghệ này "đã và đang gây ra thiệt hại đáng kể cho con người và xã hội", đồng thời đặc biệt nêu rõ "sự can thiệp vào các cuộc bầu cử, thay thế lao động, ra quyết định thiên vị, deepfake, thông tin sai lệch và thông tin sai lệch".
An ninh không phải là chủ đề duy nhất bị gạt sang một bên trong hội nghị thượng đỉnh. Như đã lưu ý trong Contexte
https://www.contexte.com/actualite/...r-lia_218053.html?go-back-to-briefitem=218053vào thứ Tư, ngày 12 tháng 2, cam kết "bảo vệ dữ liệu cá nhân và quyền riêng tư", một nội dung được đề cập trong phiên bản đầu tiên của tuyên bố cuối cùng của hội nghị thượng đỉnh, cuối cùng đã biến mất khỏi văn bản có chữ ký của sáu mươi quốc gia. Trong thông cáo báo chí được công bố vào ngày đầu tiên của hội nghị thượng đỉnh, Người bảo vệ quyền, cơ quan có thẩm quyền của Pháp chịu trách nhiệm bảo vệ các quyền và tự do của chúng ta, đã nhấn mạnh "rằng các quyền cơ bản không được phép bị lãng quên vào thời điểm quan trọng này."
 
Back
Bên trên