Robot giết người đang là vấn đề pháp lý đau đầu

theanh

Administrator
Nhân viên
Vào tháng 3 năm 2025, Phòng tư vấn pháp lý của trường Đại học Caen đã tổ chức một phiên tòa giả định chưa từng có, đối đầu với sinh viên trong một vụ án pháp lý chưa từng có: một người máy cảnh sát bị buộc tội giết người. Tình huống này đặt ra một câu hỏi mới, nhưng câu hỏi này có nguy cơ trở thành vấn đề cơ bản trong một xã hội mà AI và rô-bốt ngày càng trở nên quan trọng: liệu người máy có nên bị coi là những thực thể tự chủ và do đó phải chịu trách nhiệm hình sự trong trường hợp xảy ra tai nạn hay những người thiết kế ra chúng phải chịu trách nhiệm về hành động của mình thay cho những cỗ máy của họ?

Tình trạng pháp lý: một sự phân biệt cơ bản​

Theo luật pháp Pháp, rô-bốt không được coi là một con người theo nghĩa pháp lý, dù là tự nhiên hay hợp pháp. Mặc dù ý tưởng về một “cá tính éđiện tử” đã được đề cập ở trên, nhưng nó chưa bao giờ được ghi nhận trong luật pháp hiện hành. Cụ thể hơn, một con rô-bốt, ngay cả những con được trang bị trí thông minh nhân tạo tiên tiến như trong phim Detroit Become Human, cũng không có ý thức theo đúng nghĩa đen của từ này và chỉ hoạt động nhờ vào các thuật toán và cơ sở dữ liệu xử lý thông tin theo các tham số được lập trình sẵn.

Trong phiên tòa giả định này, tình hình có hơi khác một chút. Vì người máy là con người một phần, họ vẫn giữ nguyên địa vị là một con người tự nhiên, làm dấy lên câu hỏi về trách nhiệm hình sự của họ. Sự khác biệt cơ bản này giữa robot và người máy là điểm khởi đầu cho bất kỳ sự phản ánh pháp lý nào về trách nhiệm pháp lý của các thực thể robot, đồng thời làm nổi bật các vấn đề pháp lý và đạo đức vốn có trong luật về robot.

Ý thức, ý chí tự do và trách nhiệm hình sự​

Luật hình sự về trách nhiệm, đặc biệt là trong trường hợp giết người, hàm ý sự cố ý và khả năng hiểu được thiện và ác. Đối với người máy, câu hỏi quan trọng là liệu cấy ghép não có làm thay đổi ý thức bằng cách cản trở ý chí tự do hay không.

Không giống như con người, robot hoạt động bằng cách thực thi các thuật toán và không đưa ra những lựa chọn thực sự có ý thức. Vậy khi người máy trong phiên tòa giả định nổ súng vào nạn nhân vì tiếng hét bị coi là mối đe dọa, liệu đây có phải là sự thiên vị của người máy chứ không phải là sự lựa chọn có chủ ý? Ranh giới mờ nhạt giữa quá trình ra quyết định của con người và quá trình thực thi thuật toán này đặt ra những câu hỏi mới về đạo đức, đặc biệt là khi một cá nhân trở nên phụ thuộc vào các thiết bị cấy ghép hoặc AI tích hợp.

Một sự pha trộn pháp lý​

Trong trường hợp không có trách nhiệm giải trình trực tiếp từ cảnh sát người máy, một số tác nhân có thể bị liên lụy. Nhà nước cho phép triển khai các lực lượng thực thi pháp luật tăng cường này, nhà thiết kế xã hội trong trường hợp có lỗi lập trình hoặc trung tâm “huấn luyện” và lưu trữ robot... chuỗi trách nhiệm minh họa cho tất cả các vấn đề pháp lý phức tạp liên quan đến hệ thống tự động, cũng như tầm quan trọng của việc thiết lập một khuôn khổ pháp lý rõ ràng.

Ba nguyên tắc nổi lên từ sự phản ánh hư cấu này do Maria Castillo, Giảng viên Luật công tại trường đại học Caen Normandy và Amandine Cayol, giảng viên HDR về luật tư tại trường đại học Caen Normandy dẫn đầu: phân biệt rõ ràng tình trạng pháp lý của robot và người máy, phát triển các công cụ để đánh giá tác động của công nghệ đối với ý chí tự do của con người và xác định mạng lưới các trách nhiệm thay thế để đảm bảo bảo vệ công dân.
 
Back
Bên trên