Stephen Hawking tiếp tục lên tiếng cảnh báo "thảm họa khôn lường" của loài người

Nguyễn Hằng |

Stephen Hawking mới đây đưa ra cảnh báo mới về sự nguy hiểm tiềm ẩn của trí thông minh nhân tạo đối với sự sống của nhân loại trong tương lai.

Trước đó, nhà vật lý thiên tài từng nhiều lần cảnh báo lo ngại về trí thông minh nhân tạo (AI) có thể gây tổn hại lớn đối với con người. Đặc biệt là chiến tranh hạt nhân và sinh học có sức hủy diệt cao.

Hawking chia sẻ với tờ The Times: "Kể từ khi nền văn minh bắt đầu, những cuộc "xâm lược" đã có ích vì chúng mang lại những lợi ích sống còn nhất định.

Hiện nay, tuy công nghệ về chiến tranh hạt nhân và sinh học đã tiến bộ đến tốc độ mà sự xâm chiếm (hay hiếu chiến) có thể tiêu diệt tất cả chúng ta, nhưng con người cần phải kiểm soát được bản năng kế thừa này bằng lý trí và tư duy logic".

Stephen Hawking tiếp tục lên tiếng cảnh báo thảm họa khôn lường của loài người - Ảnh 1.

Trái Đất đang bị sự tiến bộ trong công nghệ "đe dọa". Ảnh: Alamy Stock

Giáo sư Hawking cho rằng con người đã phát triển công nghệ ưu việt đến mức có thể phá hủy Trái Đất và cải tạo một thế giới mới, nơi mà các robot đang dần thay thế nhiều cho những công việc hằng ngày.

Bên cạnh lo ngại về trí tuệ nhân tạo, giáo sư đại học Cambridge cho biết, quá trình quá tải, biến đổi khí hậu và bệnh tật là một trong những mối đe dọa hàng đầu mà hành tinh của chúng ta phải đối mặt.

Giải pháp tối ưu để chống lại "thảm họa"

Viết trong một bài bình luận trên tờ The Guardian, giáo sư Hawking giải thích những điều khiến ông quan ngại về tương lai của hành tinh chúng ta: "Đối với tôi, điều thật sự cần làm ngay bây giờ, hơn bất kỳ thời điểm nào trong lịch sử, là con người chúng ta cần phải chung tay với nhau.

Chúng ta phải đối mặt với những thách thức môi trường: Biến đổi khí hậu, việc sản xuất lương thực, bùng nổ dân số, sự tàn phá các loài khác, dịch bệnh và axit hóa đại dương. Chúng cũng chính là một lời nhắc nhở rằng, chúng ta đang ở thời điểm nguy hiểm nhất trong sự phát triển của nhân loại".

Nhà vật lý học Hawking tin rằng: "Có lẽ trong vài trăm năm tới, chúng ta sẽ thiết lập được các thuộc địa giữa những vì sao, nhưng hiện tại chúng ta chỉ có một hành tinh, và chúng ta cần chung tay hợp tác để bảo vệ nó".

Stephen Hawking tiếp tục lên tiếng cảnh báo thảm họa khôn lường của loài người - Ảnh 2.

Trí tuệ nhân tạo phát triển quá mạnh có thể trở thành hiểm họa khôn lường với loài người trong tương lai. Ảnh: Express.co.uk

Nhà vật lý nổi tiếng thế giới trước đây đã đưa ra cảnh báo rằng, robot có thể quét sạch nhân loại và để Trái Đất là hi vọng sống duy nhất của chúng ta khi hành tinh này đang trở thành một nơi nguy hiểm vì sự đe dọa của chiến tranh, bệnh tật và Trái Đất của chúng ta đang được đánh số từng ngày.

Cuộc sống trên Trái Đất đang ngày càng nguy cơ bị tàn phá bởi thảm họa, như cuộc chiến tranh hạt nhân đột ngột, virus biến đổi gen, hoặc các mối nguy hiểm khác. Hawking nghĩ rằng nhân loại không có tương lai nếu không ra ngoài không gian.

Khi được hỏi thế giới sẽ kết thúc như thế nào? Hawking cho biết, hầu hết các mối đe dọa mà nhân loại phải đối mặt đều xuất phát từ sự tiến bộ trong công nghệ.

Để thoát khỏi những mối đe dọa này, loài người sẽ phải định cư các hành tinh khác, mà Hawking tin rằng sẽ mất hơn một thế kỷ.

Stephen Hawking tiếp tục lên tiếng cảnh báo thảm họa khôn lường của loài người - Ảnh 3.

Nhà vật lý học thiên tài Stephen Hawking vẫn lạc quan tin rằng, chỉ cần con người chung tay và có thời gian chuẩn bị kỹ lưỡng thì vẫn có thể vượt qua "thảm họa" này. Ảnh: Getty

Stephen Hawking khẳng định loài người phải cùng nhau hợp tác mới có thể tồn tại trên Trái Đất, vượt qua giai đoạn nguy hiểm nhất lịch sử phát triển nhân loại này. Tuy nhiên để làm được điều này, con người cần phải có thời gian để chuẩn bị. Giáo sư Hawking nhận định:

"Chúng ta sẽ không tạo lập được các thuộc địa trong không gian trong ít nhất 100 năm tới, vì vậy chúng ta phải rất thận trọng trong giai đoạn này".

Giáo sư Hawking cũng từng phát biểu những điều tương tự khi giảng bài tại Reith Lectures của BBC vào ngày 07/01/2017.

Vào tháng 7 năm ngoái, giáo sư Hawking và tỷ phú Elon Musk dẫn đầu 1.000 chuyên gia về robot viết một bức thư ngỏ cảnh báo rằng vũ khí tự hành, robot vũ trang tự hành sẽ đe dọa sự tồn tại của loài người.

Nguồn: Dailymail, Express.co.uk

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại