Tỷ phú Elon Musk tại một sự kiện ở Gruenheide, đông nam Berlin, Đức, ngày 22/3/2022. Ảnh: AFP/ TTXVN
Hãng thông tấn Reuters (Anh) cho biết họ đưa ra đề nghị trên với lập luận về "nguy hiểm tiềm tàng cho xã hội".
Trong bức thư có đoạn: "Các hệ thống AI mạnh mẽ chỉ nên được phát triển một khi chúng ta tự tin rằng ảnh hưởng của chúng là tích vực và các rủi có thể được kiểm soát". Ngoài ra, nội dung bức thư có đề cập việc tạm dừng nên được áp dụng với các "hệ thống AI mạnh mẽ hơn GPT-4".
Bức thư này xuất hiện chỉ 2 tuần sau khi OpenAI công bố về GPT-4. OpenAI vào đầu tháng 3 này đã hé lộ về mô hình AI tiên tiến hơn có tên gọi GPT-4 được quảng bá có thể sáng tác nhạc, tóm tắt các tài liệu dài…
Ông Musk vào đầu tháng này từng phát biểu: "AI khiến tôi căng thẳng". Tỷ phú Musk là một trong những người đã thành lập OpenAI và công ty sản xuất ô tô của ông là Tesla cũng sử dụng AI cho hệ thống lái tự động.
Các tác giả của bức thư cũng khuyến khích ngừng phát triển AI tiên tiến cho đến khi giao thức an toàn chung được hình thành và họ đồng thời kêu gọi các nhà phát triển phối hợp với các nhà lập pháp về quản lý.
Có trên 1.000 cá nhân đã ký vào bức thư này, trong đó có cả tỷ phú Musk. Tuy nhiên, CEO của Alphabet và Microsoft cùng giám đốc điều hành của OpenAI đều không thuộc nhóm này.
Giáo sư Gary Marcus tại Đại học New York (Mỹ), người đã ký bức thư, nhận xét: "Bức thư không hoàn hảo, nhưng tinh thần là đúng: chúng ta cần chậm lại cho đến khi hiểu rõ hơn về hệ quả. Những người chơi lớn đang ngày càng trở nên bí mật về những gì họ đang làm, điều này khiến xã hội khó bảo vệ trước bất kỳ tác hại nào có thể xảy ra".