Cảnh báo về rủi ro khi sử dụng các sản phẩm AI

Thanh Phương |

Ngày 10/4, Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc cảnh báo việc sử dụng công cụ trò chuyện (chatbot) ChatGPT do công ty OpenAI (Mỹ) phát triển, cũng như các công cụ theo dõi tương tự do con người tạo ra, có thể gây ra 'những rủi ro như rò rỉ dữ liệu xuyên biên giới'.

Cảnh báo về rủi ro khi sử dụng các sản phẩm AI - Ảnh 1.

Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc là một tổ chức chịu sự quản lý của ngân hàng trung ương Trung Quốc. Tuyên bố của hiệp hội này nêu rõ: "Nhân viên ngành thanh toán phải tuân thủ luật pháp và các quy tắc khi sử dụng những công cụ như ChatGPT và không nên đăng tải những thông tin mật liên quan tình hình đất nước và ngành tài chính".

Hiện OpenAI chưa hỗ trợ ChatGPT ở Trung Quốc, nhưng ứng dụng trí tuệ nhân tạo (AI) này đang thu hút sự quan tâm rất lớn, khi các công ty gấp rút tích hợp công nghệ vào các sản phẩm của mình và tung ra các giải pháp cạnh tranh.

Tuy không thể tạo tài khoản OpenAI, nhưng nhiều người ở Trung Quốc đã "né" lệnh cấm bằng cách sử dụng những mạng lưới ảo riêng tư và số điện thoại từ nước ngoài để truy cập hộp thoại.

"Cơn sốt" chạy đua phát triển chatbot đã thúc đẩy sự phục hồi của cổ phiếu công nghệ, truyền thông và viễn thông (TMT). Tuy nhiên, các nhà phân tích cảnh báo nguy cơ bong bóng từ thực trạng này. Ngày 10/4, Nhật báo Kinh tế (Economic Daily) của Trung Quốc đã đăng bài viết kêu gọi các cơ quan quản lý tăng cường giám sát và trấn áp đầu cơ trong lĩnh vực công nghệ AI.

Đường dây nóng: 0943 113 999

Soha
Tags

ai

Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại