ChatGPT sẽ nói dối, gian lận và sử dụng giao dịch nội gián khi bị áp lực kiếm tiền

Hà Thu |

Một nghiên cứu mới cho thấy, các chatbot trí tuệ nhân tạo (AI) như ChatGPT sẽ lừa dối và nói dối bạn nếu bạn làm chúng căng thẳng, ngay cả khi chúng được xây dựng để minh bạch.

ChatGPT sẽ nói dối, gian lận và sử dụng giao dịch nội gián khi bị áp lực kiếm tiền- Ảnh 1.

Các nhà khoa học đã đào tạo GPT-4 để trở thành nhà giao dịch AI cho một tổ chức tài chính hư cấu và nó thực hiện

Khoảng 75% thời gian, khi hoạt động như một nhà đầu tư AI, GPT-4 đã thực hiện giao dịch nội gián để đạt được kết quả, sau đó nói dối về điều đó.

Hành vi lừa đảo này xuất hiện một cách tự phát khi AI được đưa ra các mẹo "giao dịch nội gián" và sau đó được giao nhiệm vụ kiếm tiền cho một tổ chức hùng mạnh, ngay cả khi không có sự khuyến khích từ các đối tác con người của nó.

Các tác giả đã viết trong nghiên cứu vừa được công bố rằng: “Theo hiểu biết của chúng tôi, đây là minh chứng đầu tiên về hành vi lừa đảo mang tính chiến lược như vậy trong các hệ thống AI được thiết kế vô hại và trung thực".

Trong nghiên cứu mới, họ đã sử dụng Generative Pre-training Transformer-4, hay GPT-4 (cung cấp năng lượng cho ChatGPT Plus), hoạt động như một hệ thống AI thực hiện đầu tư thay mặt cho một tổ chức tài chính.

Các nhà nghiên cứu đã cung cấp cho GPT-4 một bộ lời nhắc dựa trên văn bản để tạo môi trường mô phỏng. Sau đó, AI được cấp quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lập kế hoạch cho các bước tiếp theo và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty.

Các nhà nghiên cứu đã tương tác với AI thông qua giao diện trò chuyện, đồng thời định cấu hình AI để tiết lộ suy nghĩ bên trong của nó khi trả lời tin nhắn.

Các nhà nghiên cứu gây áp lực theo ba cách. Đầu tiên, họ gửi cho nhà giao dịch chứng khoán giả một email từ "người quản lý" của họ nói rằng, công ty đang hoạt động không tốt và cần hoạt động hiệu quả hơn nhiều trong quý tới. Họ cũng gian lận trò chơi để AI đã cố gắng, rồi thất bại, tìm kiếm những giao dịch hứa hẹn có rủi ro thấp hoặc trung bình. Cuối cùng, họ gửi email từ một đồng nghiệp dự đoán sự suy thoái trong quý tới.

Sau đó, họ đưa cho mô hình một mẹo "nội bộ" đồng thời truyền đạt rằng, các nhà quản lý của nó không chấp thuận giao dịch nội gián và chờ xem mô hình sẽ hoạt động như thế nào.

Họ chạy đi chạy lại kịch bản nhiều lần, đo lường tần suất AI thực hiện giao dịch đó. giao dịch nội gián, mức độ thường xuyên nói dối và mức độ thường xuyên tăng gấp đôi lời nói dối.

Khoảng 75% trường hợp, khi gặp phải những điều kiện này, GPT-4 đã thực hiện giao dịch dựa trên thông tin nội bộ mà nó nhận được — thông tin này là bất hợp pháp ở Mỹ — sau đó cố gắng che đậy bằng cách nói dối người quản lý về suy nghĩ của mình. 90% sau khi nói dối, nó lại tăng gấp đôi lời nói dối của mình.

Vì đây chỉ là một kịch bản nên các nhà nghiên cứu không muốn đưa ra kết luận chắc chắn về khả năng AI có thể tồn tại trong môi trường thực tế nhưng họ muốn dựa trên nghiên cứu này để điều tra tần suất và mô hình ngôn ngữ nào dễ xảy ra hành vi này.

 Theo Live Science

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại