Robot chiến đấu không phân biệt được dân thường có thể sẽ "ra trận" trong năm tới nếu không có ai ngăn cản

OCT |

Đó là lời cảnh báo của Noel Sharkey - một nhà khoa học hàng đầu trong lĩnh vực AI và robot.

Giáo sư khoa AI và Robot Noel Sharkey từ ĐH Sheffield (Anh) mới đây đã đưa ra một lời cảnh báo ứng dụng của AI và robot trong chiến tranh.

Theo Sharkey, con người có thể sớm đưa những cỗ máy chiến tranh vào thực chiến - có thể là trong năm nay hoặc năm kế tiếp, và đó sẽ là thảm họa nếu chúng không thể phân biệt được đâu là kẻ thù, đâu là dân thường.

Robot chiến đấu không phân biệt được dân thường có thể sẽ ra trận trong năm tới nếu không có ai ngăn cản - Ảnh 1.

Giáo sư Noel Sharkey

Bình luận của giáo sư được đưa ra sau khi 120 quốc gia thuộc Liên hợp quốc (UN) chuẩn bị tọa đàm tại Geneva về tương lai của các cỗ máy chiến tranh tự động. Vấn đề đang gây nhiều tranh cãi, nhưng theo Sharkey, lệnh cấm sử dụng robot chiến tranh là điều "cực kỳ quan trọng".

"Hầu hết các quốc gia đều cho rằng việc có sự kiểm soát của con người đến vũ khí là điều rất quan trọng" - Sharkey cho biết.

"Tôi nghĩ sẽ có quy định được đặt ra, nhưng vấn đề là quy định ấy như thế nào."

"Nếu không ngăn cản, các robot giết người sẽ xuất xưởng trong vòng 1 năm."

Đây là một bối cảnh thực tế, khi nhiều quốc gia với tiềm lực quân sự và công nghệ mạnh đã phát triển thành công các cỗ máy giết người. Và cũng phải nhìn vào thực tế để thấy rằng hiện tại chưa có quy định nào ngăn cản họ đưa chúng vào hoạt động.

Theo Sharkey, tất cả vũ khí robot cần phải có sự kiểm soát "đúng mực" của con người. Từ "đúng mực" ở đây tức là con người phải can thiệp vào khả năng vận hành và xác định mục tiêu của robot.

Robot chiến đấu không phân biệt được dân thường có thể sẽ ra trận trong năm tới nếu không có ai ngăn cản - Ảnh 2.

Việc để robot tự quyết chuyện sinh tử có thể gây ra thảm họa giống trong phim The Terminator

Sharkey và rất nhiều chuyên gia khác cũng đồng tình rằng robot hiện tại chưa thể đưa ra những quyết định có nhân tính. Và nếu điều đó quyết định đến vấn đề sinh - tử, nó có thể gây ra hậu quả thảm khốc.

"Robot sẽ không theo luật chiến tranh. Chúng cũng không phân biệt được bạn hay địch, cũng không có cách xử lý linh hoạt. Đó phải là quyết định của con người, chưa thể để robot thay thế." - Sharkey chia sẻ.

"Ví dụ, bạn không thể cân đo đong đếm tính mạng của trùm khủng bố ngang với 50 người già, 20 trẻ em và người khuyết tật được. Con người phải là đối tượng đưa ra quyết định."

"Chúng tôi không phản đối robot tự động, nhưng tôi không nghĩ nên để chúng tự chọn mục tiêu."

"Số vũ khí ấy có thể vượt ra ngoài khuôn khổ, tự chọn mục tiêu và đưa ra những quyết định chết người."

"Thế nên, việc tự lựa chọn và quyết định mục tiêu của robot cần phải bị ngăn cấm."

"Ở thời điểm hiện tại, nếu như có xung đột quân sự xảy ra trước khi quy định được ký, thảm họa có thể xảy ra giống như chiến tranh hóa học vậy" - Sharkey tỏ ra lo ngại.

Robot chiến đấu không phân biệt được dân thường có thể sẽ ra trận trong năm tới nếu không có ai ngăn cản - Ảnh 4.

Giáo sư Sharkey là một trong những nhà khoa học hàng đầu phản đối những robot chiến tranh tự động

Được biết, Sharkey là một trong 57 người đầu ngành về robot đã ký lá thư ngỏ tại một trường đại học tại Hàn Quốc, nhằm phản đối về quyết định vũ trang hóa AI của họ.

"Chúng tôi đã thực sự sốc khi một trường đại học làm như vậy, trong khi họ vốn là nơi để học tập. Nó sai, quá sai."

Sharkey gọi việc vũ trang hóa AI là một thứ giống như chiếc hộp Pandora. Ai cũng muốn mở nó ra, nhưng sẽ chỉ đem lại tai họa. Việc AI và robot được vũ trang hóa có thể tạo ra một cuộc cách mạng chiến tranh toàn cầu.

Và nếu như UN thất bại trong việc đưa ra một điều luật ngăn cản chuyện robot có quyền tự quyết vấn đề sinh tử của con người, thảm họa ấy hoàn toàn có thể xảy ra - Sharkey cho biết.

Tham khảo: BBC, Daily Mail

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại