Ngay sau khi ChatGPT và một loạt ứng dụng AI tương tự được đưa ra thị trường, bên cạnh những lợi ích do chúng đem lại, thế giới đã phải chịu những hệ lụy do chúng gây ra, chủ yếu do bị lợi dụng.
Vi phạm bản quyền, quyền bảo vệ thương hiệu
Công nghệ AI không chỉ được liên tục phát triển, nâng cấp mà bản thân nó có thể tự phát triển những cấp độ cao hơn như máy học, học sâu… Dù người dùng ChatGPT hiện nay hầu hết là do tò mò nhưng các nhà chuyên môn cảnh báo sẽ xảy ra tình trạng lạm dụng siêu chatbot này cho mục đích xấu, thậm chí vi phạm pháp luật.
ChatGPT đang tạm thời bị cấm ở Nga, hạn chế ở Anh và nhiều quốc gia khác thuộc Liên minh châu Âu .Ảnh: REUTERS
Một trong những rắc rối mang tính pháp lý về lạm dụng AI là vụ Getty Images, công ty kinh doanh dịch vụ cung cấp hình ảnh và video lớn nhất thế giới, ngày 6-2 đã khởi kiện Stability AI vì "vi phạm trắng trợn quyền sở hữu trí tuệ của Getty Images".
Getty Images cho biết Stability AI đã sao chép không được phép hơn 12 triệu hình ảnh từ cơ sở dữ liệu của Getty Images để phục vụ cho việc huấn luyện mô hình AI của họ. Getty Images khẳng định Stability AI đã vi phạm cả bản quyền lẫn quyền bảo vệ thương hiệu.
Đã có những vụ "lừa" ChatGPT khiến nó vượt qua luật lệ (của nhà phát triển) để phục vụ cho ý đồ riêng của người dùng. Chẳng hạn, kẻ xấu có thể dùng các công cụ AI như ChatGPT để tìm kiếm thông tin, thậm chí giải pháp tham khảo cho mình.
Đặc biệt, với khả năng xử lý thông tin, dữ liệu "kinh khủng", các ứng dụng AI gây ra những vấn đề về bản quyền tác giả với những tác phẩm của "nửa người nửa máy" hay hoàn toàn AI tạo ra nhưng ký tên người nào đó.
Ngành giáo dục sẽ phải tìm cách xử lý những bài tập, bài luận có sự tham gia của AI. Trên website của mình, Check Point Research ngày 6-1 đã dẫn chứng 3 trường hợp ChatGPT đã bị kẻ xấu sử dụng để viết phần mềm đánh cắp thông tin, công cụ mã hóa và gian lận.
Khi được sử dụng ngày càng rộng rãi hơn mà không được "cha đẻ" trao cho khả năng phân biệt đúng sai, phi logic, thậm chí phân biệt tốt xấu..., các ứng dụng AI sẽ bị "quảng đại công chúng" cố tình "dạy" bậy bạ.
Quy chuẩn đạo đức nghiên cứu AI
Ngày 28-2, Viện Michael Dukakis, Diễn đàn Toàn cầu Boston (BGF), Liên minh Toàn cầu về quản trị số (GADG) tổ chức phiên thảo luận cấp cao đầu tiên với sự tham gia của các chuyên gia toàn cầu để xây dựng dự thảo khung Quy tắc quản trị ChatGPT và các trợ lý AI.
Ông Nguyễn Anh Tuấn - Giám đốc điều hành của BGF, nguyên Tổng Biên tập Báo điện tử VietNamNet - cho biết: "Công nghệ ChatGPT ngoài tiện ích cũng làm tăng các mối quan tâm về thương mại, cạnh tranh và tiêu chuẩn đạo đức.
Các chuyên gia về công nghệ, ngoại giao đang vật lộn với những vấn đề hóc búa đòi hỏi phải khẩn trương xây dựng khung pháp lý cho vấn đề AI. BGF và Viện Michael Dukakis tổ chức một loạt đối thoại cấp cao về ChatGPT và AI với sự tham gia của các chính khách, lãnh đạo, chuyên gia và nhà hoạch định chính sách nổi tiếng trong AI và quản trị để tham gia vào một dự án quan trọng nhằm đánh giá tác động của chúng đối với xã hội.
Theo ông Nguyễn Anh Tuấn, BGF và GADG nỗ lực tìm các giải pháp giải quyết các rủi ro và thách thức do AI đặt ra trong cuộc sống. Ông Tuấn cho biết:
"Chúng tôi đang hợp tác với các nhà phát triển trợ lý AI để quản lý và giảm thiểu rủi ro tiềm ẩn của chúng, đặt mục tiêu sử dụng các nguồn lực của mình để dẫn dắt việc tạo ra các chính sách và quy định về AI có trách nhiệm thông qua Hiệp định quốc tế về AI" .
Tại hội nghị ở Mountain View (bang California - Mỹ) ngày 13-2, huyền thoại công nghệ Vint Cerf - "cha đẻ của internet" đã đề nghị các công ty công nghệ lớn đừng tranh nhau đầu tư vào AI đàm thoại chỉ vì ChatGPT "thật sự thú vị".
Ngay cả "cha đẻ của ChatGPT" là Sam Altman, Giám đốc điều hành Công ty OpenAI, cũng đã cảnh báo rằng công nghệ này mang đến một số mối nguy hiểm thật sự và xã hội phải rất cẩn trọng.
Từ nhiều năm trước, các ông lớn công nghệ như Microsoft, Google… đã có những quy chuẩn đạo đức trong việc nghiên cứu phát triển AI.
Thậm chí có những lĩnh vực không được phép đưa AI vào. Microsoft đã thành lập Ủy ban AI, Đạo đức và Hiệu ứng trong kỹ thuật và nghiên cứu (Aether), đưa ra 6 nguyên tắc AI: công bằng, toàn diện, độ tin cậy và an toàn, minh bạch, quyền riêng tư và bảo mật cũng như trách nhiệm giải trình.
Google liên kết các hoạt động AI có trách nhiệm của họ với hoạt động phát triển phần mềm có trách nhiệm, nhấn mạnh các khía cạnh như tính công bằng, khả năng diễn giải, quyền riêng tư và bảo mật.
Facebook công nhận 5 trụ cột đối với AI có trách nhiệm: quyền riêng tư và bảo mật, công bằng và hòa nhập, mạnh mẽ và an toàn, minh bạch và kiểm soát, trách nhiệm giải trình và quản trị.
Một trong những vấn đề đau đầu là quyền sở hữu trí tuệ khi các ứng dụng AI được đào tạo dựa trên các nguồn dữ liệu đang có trên thế giới. Một kết quả do ứng dụng AI tạo ra chứa đựng vô số dữ liệu của các chủ nhân khác nhau.
Không ai có thể phủ nhận được những lợi ích mà AI đem lại cho con người khi nó được khai thác đúng đắn. Vì thế, vấn đề là cách con người quản lý AI - trước hết là các khung pháp lý và quy chuẩn đạo đức cho AI.
Nhiều nước hạn chế tác hại của AI
Ý trở thành quốc gia đầu tiên cấm sử dụng ChatGPT. CNBC dẫn thông tin từ Cơ quan Giám sát bảo vệ dữ liệu Ý (Garante) đầu tháng 4 cho biết đã yêu cầu OpenAI - "cha đẻ" ChatGPT tạm thời dừng xử lý dữ liệu của người dùng tại Ý giữa lúc đang mở cuộc điều tra vi phạm của nền tảng này.
Garante cho rằng ChatGPT vi phạm quy định về dữ liệu khi cho phép người dùng xem tiêu đề các cuộc hội thoại của những người dùng khác trong chatbot.
Cơ quan này cũng bày tỏ lo ngại về việc thiếu giới hạn độ tuổi trên ChatGPT và cách chatbot này cung cấp những thông tin thiếu chính xác trong câu trả lời của mình với câu hỏi của người dùng.
Chính phủ Anh đã công bố kế hoạch đưa ra các quy định pháp lý đối với các ứng dụng AI. Theo đó, nhà chức trách Anh phác thảo một số quy định chính để tất cả phải tuân theo khi sử dụng AI, gồm tính an toàn, sự minh bạch, công bằng, trách nhiệm giải trình và khả năng cạnh tranh.
Viện Khoa học và Công nghệ quốc gia Mỹ (NIST) cũng đã đưa ra một khuôn khổ pháp lý khắp liên bang để hướng dẫn cách quản lý rủi ro và tác hại tiềm ẩn cho các công ty sử dụng, thiết kế hoặc triển khai công nghệ AI.
Trung Quốc vẫn chưa cho phép triển khai ChatGPT hợp pháp trên lãnh thổ, luôn kiểm soát để bảo đảm các công ty công nghệ lớn trong nước phát triển những sản phẩm phù hợp với quy định nghiêm ngặt của mình.
EU cũng đề xuất một bộ luật đột phá đối với AI với tên gọi Đạo luật AI châu Âu. Các quy định trong đạo luật này sẽ hạn chế nghiêm ngặt việc sử dụng AI trong các cơ sở hạ tầng quan trọng, giáo dục, thực thi pháp luật và hệ thống tư pháp.
Đạo luật AI châu Âu có hiệu lực song hành với Quy định bảo vệ dữ liệu chung (GDPR) của EU - quy định cách thức xử lý và lưu trữ dữ liệu của các công ty hoạt động trong khối.
B.Hưng
Lập trình viên sợ AI "giành việc"
Sự phát triển chóng mặt của AI khiến các kỹ sư phần mềm và những người làm việc trong ngành công nghệ lo lắng bị mất việc - theo Business Insider.
Sự lo lắng của giới lập trình viên và những người làm việc trong ngành công nghệ cũng diễn ra trong bối cảnh các hãng công nghệ thời gian qua liên tục sa thải nhân viên với quy mô chưa từng có.
Trên mạng ẩn danh Blind, nhiều lập trình viên đang đặt câu hỏi liệu AI có khiến công việc của họ trở nên vô nghĩa hay không.
Hàng chục bài viết về vấn đề này được đăng lên, trong khi nhiều kỹ sư công nghệ cho rằng "giai đoạn vàng của lập trình viên đã kết thúc". "ChatGPT rất giỏi khiến công việc của kỹ sư phần mềm đang chết dần" - một lập trình viên của Microsoft viết và đã thu hút 500 phản hồi với nhiều bi quan rằng "mọi công việc của giới cổ cồn trắng đang chết dần".
Blind dù cho phép người tham gia bình luận ẩn danh về công việc và công ty họ đang làm nhưng người đăng ký tài khoản hoạt động bắt buộc phải cung cấp địa chỉ email công việc, vị trí, chức danh trong công ty.
Nền tảng Blind cũng thường xuyên gửi yêu cầu xác thực qua email sau một thời gian nhất định nhằm xác định thành viên hiện còn làm tại công ty đó hay không.
Tương tự, một khảo sát hỏi "Có phải các kỹ sư phần mềm trẻ tuổi sắp mất việc vì AI hay không?"
Câu hỏi đã thu về hơn 12.000 lượt bình chọn với 41,3% đồng tình, 37% cho rằng cơ hội việc làm không thay đổi, trong khi 21,7% khẳng định giờ đây có nhiều tiềm năng công việc hơn.
Một kỹ sư Google chia sẻ bản thân đang tự hỏi có nên làm lại sự nghiệp từ đầu hay không khi AI có thể thay thế các lập trình viên. Kỹ sư khác của Amazon cũng nhận định lĩnh vực mình đã trau dồi kiến thức suốt 15 năm qua đang thay đổi bởi AI.
Bên cạnh sự lo lắng, cũng có những người lạc quan tin tưởng AI sẽ đem lại lợi ích cho kỹ sư phần mềm. Một nhân viên Shopify cho rằng tâm lý tiêu cực của một số người về AI hiện tại giống như đã từng xảy ra hoài nghi về 5G, blockchain hay Web3 trước kia.
"Tất cả rồi sẽ ổn thôi. Hãy coi AI là công cụ tăng năng suất, thay vì đối thủ. Chúng ta tạo ra AI chứ không phải ngược lại" - một kỹ sư tại Microsoft lập luận.
Đăng Minh