Ông trùm AI rời bỏ Google, cảnh báo về hiểm họa từ trí tuệ nhân tạo

Trung Hiếu |

Trong nửa thế kỷ, Tiến sĩ Geoffrey Hinton đã ấp ủ, phát triển công nghệ trở thành nền tảng lõi của các phần mềm chat tự động (chatbot) như ChatGPT. Giờ đây, chính ông lại đang lo ngại về hiểm họa mà trí tuệ nhân tạo có thể gây ra cho loài người.

Chuyên gia hàng đầu về AI nhận ra sự nguy hiểm của AI

Geoffrey Hinton là người tiên phong trong lĩnh vực trí tuệ nhân tạo (AI). Hồi năm 2012, Tiến sĩ Hinton và 2 sinh viên đã tốt nghiệp của ông tại Đại học Toronto (Canada) đã tạo ra công nghệ trở thành nền tảng trí tuệ cho các hệ thống AI mà các công ty lớn nhất của ngành công nghệ coi là chìa khóa cho tương lai của chính họ.

Ông trùm AI rời bỏ Google, cảnh báo về hiểm họa từ trí tuệ nhân tạo - Ảnh 1.

Hình ảnh minh họa về trí tuệ nhân tạo. Đồ họa: Fujitsu.

Tuy nhiên, hôm 1/5/2023, ông Hinton đã chính thức gia nhập đội ngũ các nhà phê bình cho rằng các công ty trên đang chạy đua với nhau để cùng lao vào vòng nguy hiểm bằng chiến dịch quyết liệt của họ hướng tới việc tạo ra các sản phẩm dựa trên trí tuệ nhân tạo có khả năng sản sinh - công nghệ làm nền tảng cho các chatbot phổ biến như ChatGPT.

Tiến sĩ Hinton cho hay, ông đã bỏ việc tại hãng Google, nơi ông đã làm việc trong một thập kỷ và trở thành một trong những nhân vật có tiếng nói trọng lượng nhất trong lĩnh vực này, để bảo đảm ông có thể tự do nói về các nguy cơ từ AI. Ông cho rằng một phần của chính ông giờ đây hối tiếc công việc ông đã làm trong cả đời.

Trong một cuộc phỏng vấn kéo dài vào tuần trước ở nhà mình tại Toronto, Tiến sĩ Hinton tâm sự: "Tôi thường tự an ủi bản thân bằng lời bào chữa thế này: Nếu mình không làm việc đó thì cũng có ai khác làm vậy". Từ nhà Hinton chỉ đi bộ một đoạn ngắn là tới nơi ông và sinh viên của mình đạt được bước đột phá trong nghiên cứu.

Việc Tiến sĩ Hinton mặc dù là người tạo nền tảng cho công nghệ AI nhưng lại quyết định nói lên những mối nguy hiểm do AI tạo ra là dấu mốc quan trọng cho ngành công nghiệp này trong nhiều thập kỷ.

Giới lãnh đạo ngành này tin rằng các hệ thống AI mới đóng vai trò quan trọng tương tự như việc trình duyệt web ra đời vào đầu thập niên 1990 và có thể dẫn tới các đột phá trong các lĩnh vực từ nghiên cứu dược cho tới giáo dục.

Nhưng nhiều người bên trong ngành công nghệ này cũng lo sợ rằng họ đang tiếp tay cho sự hoành hành của một thứ gì đó nguy hiểm. AI với năng lực sản sinh có thể là công cụ tạo thông tin giả. Trước mắt, AI đe dọa việc làm. Sau đó, những người lo ngại nói, đây có thể là mối đe dọa đối với nhân loại.

Tiến sĩ Hinton nói: "Làm thế nào để ngăn người xấu sử dụng công nghệ này phục vụ mục đích xấu - điều đó thực khó".

Sau khi công ty khởi nghiệp OpenAI ở San Francisco công bố một phiên bản mới của ChatGPT vào tháng 3/2023, hơn 1.000 chuyên gia hàng đầu và nhà nghiên cứu công nghệ đã ký bức thư nhỏ kêu gọi tạm ngừng phát triển các hệ thống mới bởi lẽ các công nghệ AI đặt ra "các rủi ro sâu sắc đối với xã hội và nhân loại".

Vài ngày sau đó, 19 cựu và đương kim lãnh đạo của Hiệp hội Thúc đẩy Trí tuệ nhân tạo (một hiệp hội học thuật có bề dày 40 năm) đã công bố lá thư riêng của họ cảnh báo các rủi ro do AI gây ra.

Nhóm đó bao gồm cả Eric Horvitz - người đứng đầu bộ phận khoa học tại hãng Microsoft, công ty đã triển khai công nghệ của OpenAI trên nhiều sản phẩm khác nhau, bao gồm cả công cụ tìm kiếm Bing.

Ông trùm AI rời bỏ Google, cảnh báo về hiểm họa từ trí tuệ nhân tạo - Ảnh 3.

Chân dung Tiến sĩ Hinton. Ảnh: Nytimes.

Tiến sĩ Hinton, hay được gọi là "cha đỡ đầu của AI", đã không ký vào bức thư nào trong số đó. Ông khi ấy nói rằng mình không muốn công khai chỉ trích Google và các ông ty khác chừng nào ông chưa thôi việc.

Tháng trước (tháng 4), ông thông báo cho công ty rằng mình chuẩn bị xin nghỉ việc. Hôm 27/4, ông nói chuyện qua điện thoại với Sundar Pichai - quản lý của Alphabet, công ty mẹ của hãng Google.

Trong một thông cáo, cán bộ khoa học chính của Google, Jeff Dean nói như sau: "Chúng tôi cam kết theo đuổi cách tiếp cận có trách nhiệm đối với vấn đề AI. Chúng tôi tiếp tục học cách hiểu các nguy cơ nổi lên, đồng thời cũng đổi mới một cách mạnh bạo".

Tiến sĩ Hinton, 75 tuổi, người gốc Anh, dành cả đời cho hoạt động nghiên cứu. Sự nghiệp của ông gắn với niềm tin cá nhân về việc phát triển và sử dụng AI.

Năm 1972, với tư cách người tốt nghiệp Đại học Edinburgh (Scotland), ông Hinton đã theo đuổi ý tưởng mang tên "mạng thần kinh nhân tạo" - một hệ thống toán học hình thành nên các kỹ năng thông qua việc phân tích dữ liệu. Vào thời kỳ đó, ít nhà nghiên cứu đặt niềm tin vào ý tưởng đó. Nhưng bây giờ ý tưởng đó đã trở thành công việc của đời ông.

Thập niên 1980, Tiến sĩ Hinton là giáo sư tin học tại Đại học Carnegie Mellon (Mỹ). Ông đã rời trường này để sang Canada do ông không muốn nhận tiền tài trợ của Lầu Năm Góc. Thời đó, hầu hết nghiên cứu về AI ở Mỹ đều được Bộ Quốc phòng Mỹ tài trợ... Tiến sĩ Hinton cực lực phản đối sử dụng trí tuệ nhân tạo trên chiến trường - điều mà ông gọi là các "quân nhân robot".

Năm 2012, Tiến sĩ Hinton cùng 2 học trò của mình xây dựng một mạng thần kinh nhân tạo có khả năng phân tích hàng ngàn bức ảnh và tự học để nhận diện các vật thể phổ biến như hoa, chó và ô tô.

Lương tâm của nhà khoa học lên tiếng

Google chi 44 triệu USD để mua một công ty do Tiến sĩ Hinton và 2 học trò của mình xây dựng. Và hệ thống của họ đã dẫn tới việc tạo ra các công nghệ ngày càng mạnh, bao gồm các chatbot mới như ChatGPT và Google Bard.

Năm 2018, ông và các học trò được nhận giải Turing, được xem là "Giải Noble Tin học" để ghi nhận đóng góp của họ trong phát triển các mạng thần kinh (neural).

Cũng khoảng thời gian đó, Google, OpenAI và các công ty khác bắt đầu xây dựng các mạng neural học hỏi lượng lớn văn bản số. Tiến sĩ Hinton nghĩ rằng đây là phương thức mạnh mẽ để máy hiểu được và tạo ra ngôn ngữ, nhưng nó vẫn kém hơn so với cách thức con người xử lý ngôn ngữ.

Nhưng năm 2022 vừa qua, khi Google và OpenAI xây dựng các hệ thống sử dụng dữ liệu có dung lượng lớn hơn nhiều, quan điểm của Hinton thay đổi.

Ông vẫn tin rằng các hệ thống này thấp kém hơn so với não người về một số phương diện nhưng ông đồng thời cho rằng chúng đang vượt qua trí tuệ con người ở một số mặt khác.

Ông nói: "Những gì đang diễn ra bên trong các hệ thống này thực sự tốt hơn nhiều những gì đang diễn ra trong bộ não con người".

Tiến sĩ Hinton tin rằng khi các công ty cải tiến hệ thống AI của mình, chúng sẽ trở nên ngày một nguy hiểm.

Ông nói về công nghệ AI: "Nhìn vào công nghệ này cách đây 5 năm và bây giờ. Hãy xem xét sự khác biệt và phổ biến điều đó. Thật đáng sợ".

Theo Hinton, cho tới năm ngoái, Google vẫn giám sát thận trọng công nghệ này, cẩn thận tránh công bố thứ gì đó có thể gây hại. Nhưng nay Microsoft đã bổ sung chatbot vào công cụ tìm kiếm của Bing, thách thức mảng kinh doanh cốt lõi của Google, thế nên Google đang chạy đua để triển khai công nghệ tương tự. Các ông lớn về công nghệ đang bị nhốt trong cuộc cạnh tranh có thể không dừng lại được.

Mối quan ngại trước mắt của Hinton là mạng internet sẽ ngập tràn các bức ảnh, đoạn video và văn bản giả, còn một người trung bình sẽ "không thể biết cái nào là thực nữa".

Vị tiến sĩ cũng lo ngại các công nghệ AI sẽ mau chóng thống lĩnh thị trường việc làm. Ngày nay, các chatbot như ChatGPT có xu hướng bổ trợ người lao động nhưng chúng có thể thay thế được nhiều vị trí như trợ lý luật sư, trợ lý cá nhân, biên dịch viên và những vị trí đòi hỏi sự lặp lại. "Tương lai, nó có thể lấy đi nhiều công việc khác nữa".

Hinton lo sợ rằng các cá nhân và các công ty sẽ cho phép các hệ thống AI không chỉ tạo ra mã vi tính riêng mà còn thực sự chạy các mã đó trên chính chúng. Và ông e sợ rằng sẽ có ngày các vũ khí tự chủ hoàn toàn - các robot sát thủ - sẽ trở thành hiện thực.

Hinton nói: "Trước đây tôi nghĩ thời điểm AI thông minh hơn con người sẽ diễn ra trong 30-50 năm tới. Nhưng giờ thì tôi không còn nghĩ thế nữa".

Hinton tin rằng cuộc đua giữa Google, Microsoft và các hãng khác sẽ leo thang thành một cuộc đua toàn cầu khó dừng nếu thiếu các quy định tầm toàn cầu.

Hinton phân tích, khác với vũ khí hạt nhân, không có cách nào biết được công ty hoặc nước nào đó đang phát triển công nghệ AI một cách bí mật.

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại