Lược dịch từ bài viết của giáo sư Michael Garrett, giữ vị trí quan trọng trong ban Vật lý thiên văn của Đại học Manchester, và giám đốc Trung tâm Vật lý thiên văn Jodrell Bank.
Trong những năm qua, trí tuệ nhân tạo phát triển với một tốc độ đáng nể. Một số nhà khoa học còn đang tìm hướng phát triển siêu trí tuệ nhân tạo (artificial superintelligence - ASI), một dạng AI không chỉ vượt xa trí tuệ con người, mà tốc độ học của nó cũng không còn bị giới hạn khả năng tiếp thu của Homo sapien.
Tuy nhiên, giả sử rằng dấu mốc này không chỉ là một thành tựu đáng kể của con người? Có khi nào AI đại diện cho một điểm "nghẽn cổ chai" trong tiến trình phát triển của mọi nền văn minh, đến mức ngăn giống loài tồn tại?
Đây là ý tưởng trọng tâm được nêu bật trong báo cáo nghiên cứu mới được đăng tải trên Acta Astronautica. Liệu AI có phải là "bộ lọc vĩ đại", ngưỡng cửa mà tại đó phần lớn dạng sống không thể vượt qua, để trở thành một nền văn minh có khả năng du hành vũ trụ?
Đây cũng là khái niệm có thể giải thích tại sao những nỗ lực tìm kiếm trí thông minh ngoài Trái Đất vẫn thất bại, đến giờ ta vẫn chưa tìm thấy dấu vết của một nền văn minh sở hữu công nghệ tiên tiến.
Giả thuyết về "bộ lọc vĩ đại" là một trong số những câu trả lời cho Nghịch lý Fermi, đặt ra câu hỏi rằng tại sao trong vũ trụ rộng lớn và cổ xưa đến vậy, vốn có thể chứa tới hàng tỷ hành tinh hỗ trợ được sự sống, chúng ta vẫn chưa phát hiện ra dấu hiệu của những nền văn minh khác.
Giả thuyết này cho rằng trong tiến trình tiến hóa, của con người hay của bất kỳ giống loài thông minh nào, đều tồn tại một trở ngại ngăn nền văn minh phát triển tiếp. Nó có thể là một thảm họa tự nhiên hủy diệt sự sống trên quy mô lớn, hoặc bản chất của dạng sống thông minh là tự hủy.
Giáo sư Garrett tin rằng siêu trí tuệ nhân tạo có tiềm năng trở thành trở ngại này. Với tốc độ phát triển nhanh, AI chẳng mấy có thể trở thành ASI, và có thể cản trở quá trình phát triển của một nền văn minh. Cụ thể, nó có thể ngăn con người trở thành giống loài liên hành tinh.
Tốc độ phát triển của AI có thể quá nhanh, vượt quá khả năng kiểm soát của con người và nhanh hơn tốc độ khai phá Hệ Mặt Trời của chúng ta. Thử thách mà một hệ thống siêu trí tuệ đặt ra cho con người nằm ở khả năng tự hành, tự cường hóa và tự cải thiện của nó. AI nắm trong tay tiềm năng tự hoàn thiện mình, với tốc độ nhanh hơn cách con người phát triển hậu cách mạng công nghiệp.
Nguy cơ phát triển lệch hướng ngày một cao, tiềm tàng ẩn chứa nguy cơ suy tàn của cả nền văn minh nhân loại, trước khi chúng có cơ hội trở thành giống loài liên hành tinh. Ví dụ, nếu nếu các quốc gia ngày một dựa dẫm vào AI, và trao quyền lực cho một hệ thống AI tự hành để chúng đối đầu lẫn nhau, tiềm lực quân sự sẽ được dùng vào mục đích hủy diệt với một quy mô chưa từng có. Điều này có thể dẫn tới ngày tàn của nền văn minh, cũng như ngày tàn của AI.
Trong viễn cảnh này, giáo sư Garrett ước tính rằng một nền văn minh tích hợp công nghệ có thể kéo dài chưa đầy 100 năm. Từng đó năm tương ứng với khoảng thời gian từ lúc ta hạ cánh xuống Mặt Trăng lần đầu tiên (năm 1969) với mốc thời gian dự kiến ASI sẽ hình thành (năm 2040). So với tuổi đời vũ trụ thì con số này chẳng nhằm nhò là bao.
Khi ghép con số này vào với phương trình Drake, biểu thức toán học dùng để ước đoán số nền văn minh đang có trong Dải ngân hà, thì con số cho thấy vào bất cứ thời điểm nào, thì chỉ vài nền văn minh đang tồn tại ngoài kia. Hơn nữa, công nghệ của họ cũng "xoàng" giống chúng ta, nên hai nền văn minh cũng khó phát hiện ra nhau.
Hồi chuông cảnh tỉnh
Nghiên cứu này không chỉ mang tính cảnh báo. Nó còn là hồi chuông hối thúc con người hoàn thiện những đạo luật xoay quanh AI, bao gồm cả việc quản lý những hệ thống quân sự tự hành.
Đây không đơn thuần là ngăn AI làm việc xấu trên Trái Đất; nó sẽ còn đảm bảo tiến trình phát triển của AI khớp với mục đích sinh tồn của giống loài chúng ta. Nghiên cứu cho thấy chúng ta nên dồn thêm tài nguyên vào nỗ lực trở thành xã hội liên hành tinh, càng sớm càng tốt - đây là mục đích đã ngủ yên từ ngày hoàng kim của sứ mệnh Apollo, và mới được khơi dậy một lần nữa bởi các công ty tư nhân.
Như sử gia Yuval Noah Harari đã chỉ ra, lịch sử không thể giúp chúng ta chuẩn bị cho ngày giáng thế của thực thể siêu thông minh, có nhận thức. Cách đây ít lâu, những nguy cơ tiềm tàng của những quyết định được AI tự động đưa ra khiến các chuyên gia đầu ngành phải suy nghĩ lại, suy xét đến chuyện tạm hoãn phát triển AI cho tới khi nghiên cứu và soạn thảo xong những đạo luật xoay quanh trí tuệ nhân tạo.
Nhưng ngay cả khi các quốc gia đồng tình với định hướng phát triển AI, các cơ quan hành pháp cũng khó có thể quản lý cả những tổ chức ngoài vòng luật pháp.
Việc tích hợp AI tự hành vào các hệ thống quân sự cũng làm dấy lên nhiều lo ngại. Hành động này đẩy chúng ta ngày một gần tới viễn cảnh xấu, khi một hệ thống vũ khí tự hành hoạt động ngoài giới hạn đạo đức và qua mặt luật lệ quốc tế. Trong viễn cảnh này, việc trao quyền lực cho hệ thống AI để chiếm thế thượng phong sẽ gây ra một loạt hệ lụy xấu. Chỉ trong nháy mắt, nền văn minh trên hành tinh chúng ta tận diệt.
Con người đang đứng trước thời khắc quan trọng trong tiến trình phát triển công nghệ. Quyết định ngày hôm nay có thể xác định xem ngày mai, chúng ta sẽ trở thành nền văn minh liên sao, hay sụp đổ trước những thách thức đặt ra bởi chính tạo tác của mình.
Có thể coi dự án tìm kiếm trí thông minh ngoài hành tinh như một cách giúp chúng ta soi xét tương lai của mình, mở ra những góc nhìn mới về tương lai của AI. Chúng ta chỉ có thể dựa vào bản thân để đảm bảo rằng, khi vươn tay với tới những vì sao, chúng ta không trở thành lời cảnh tỉnh các nền văn minh khác, mà tự hào truyền cảm hứng về hy vọng sinh tồn - dưới danh nghĩa một giống loài đã học được cách chung sống thịnh vượng cùng AI.