Vào đầu năm 2020, một quản lý ngân hàng ở Các Tiểu vương quốc Ả Rập Thống nhất (UAE) nhận được cuộc gọi từ một người có giọng nói quen thuộc. Đó là giám đốc tại một công ty mà ông từng nói chuyện trước đó.
Vị giám đốc này mang đến một tin vui: Công ty của ông ta sắp thực hiện một thương vụ thâu tóm, và đang cần ngân hàng phê duyệt số tiền chuyển khoản trị giá 35 triệu USD (805 tỷ đồng). Theo đó, một luật sư có tên Martin Zelner đã được công ty này thuê để điều phối các thủ tục của ngân hàng.
Về phía người quản lý ngân hàng, ông cũng đã nhận được email xác nhận từ luật sư Zelner và giám đốc của công ty nọ về địa chỉ cần chuyển tiền. Mọi quy trình đều được thực hiện chỉn chu và đầy đủ. Người quản lý tin rằng mọi thứ đều hợp lệ và bắt đầu thực hiện các giao dịch chuyển tiền.
Đáng nói, ông không hề hay biết việc mình đã trở thành nạn nhân của một phi vụ lừa đảo cực kỳ tinh vi, khi các nghi phạm sử dụng công nghệ cao để giả giọng nói của của giám đốc công ty kia.
Công nghệ được nhắc đến ở đây là "Deep voice" – một ‘biến thể" của công nghệ Deepfake, vốn sử dụng AI và các thuật toán phức tạp để giả giọng nói của bất kỳ ai với độ chân thật đạt mức hoàn hảo.
Theo Forbes, đây là chi tiết trong một tài liệu được gửi lên tòa án, khi giới chức UAE đề nghị các nhà điều tra Mỹ hỗ trợ truy tìm 400 nghìn USD bị đánh cắp, vốn đã được chuyển vào các tài khoản của Ngân hàng Centennial nằm tại nước này.
Giới chức UAE tin rằng, đây là một kế hoạch lừa đảo phức tạp với sự tham gia của ít nhất 17 cá nhân, khi các đối tượng này gửi tiền ăn cắp vào các tài khoản ngân hàng trên toàn cầu. Danh tính của nạn nhân trong phi vụ lừa đảo không được tiết lộ, theo Forbes.
Được biết, đây là phi vụ lừa đảo bằng công nghệ giả giọng "Deep Voice" thứ hai được phát hiện trên toàn cầu. Tuy nhiên, phi vụ này thành công hơn hẳn so với vụ đầu tiên diễn ra vào năm 2019. Vào thời điểm đó, các nghi phạm đã sử dụng "Deep Voice" để mạo danh CEO của một công ty năng lượng có trụ sở tại Anh, nhằm đánh cắp 240.000 USD, theo Wall Street Journal.
Vụ việc tại UAE cho thấy mối đe dọa từ các vụ lừa đảo công nghệ cao, trong bối cảnh AI ngày càng phát triển và được giới tội phạm mạng tận dụng triệt để nhằm tạo ra hình ảnh và giọng nói giả mạo.
"Chúng ta đang chứng kiến một làn sóng các đối tượng xấu sử dụng các công nghệ mới nhất để thao tung những người ngây thơ, vốn không biết gì về lĩnh vực Deepfake. Việc giả mạo giọng nói, vốn dễ dàn dựng hơn so với việc làm giả video, sẽ xuất hiện ngày một nhiều hơn. Nhiều doanh nghiệp sẽ dễ trở thành nạn nhân của hình thức lừa đảo này, do không ược cảnh báo về nguy cơ và thiếu những biện pháp xác thực tốt hơn", Jake Moore, cựu cảnh sát thuộc Sở Cảnh sát Dorset ở Vương quốc Anh và hiện là chuyên gia an ninh mạng tại công ty bảo mật ESET cho biết.
Từng chỉ xuất hiện trong các bộ phim bom tấn của Hollywood như "Nhiệm vụ bất khả thi", công nghệ giả mạo giọng nói giờ đây đã được hiện thực hóa và trở nên tinh vi đến khó lường. Bản thân công nghệ này cũng không được xếp vào dạng độc quyền, mà trái lại, được nghiên cứu và phát triển một cách rộng rãi. Nhiều công ty khởi nghiệp trên thế giới đang phát triển công nghệ giọng nói AI, đơn cử như Aflorithmic (Anh), Respeecher (Ukraine) và Canada (Resemble.AI).
Công nghệ này cũng từng gây xôn xao trong thời gian gần đây, khi "làm giả" thành công giọng nói của cố đầu bếp nổi tiếng Anthony Bourdain, trong một bộ phim tài liệu được thực hiện vài năm sau khi ông qua đời vào năm 2018.
Tham khảo Forbes