Nhận được cuộc gọi thông báo con trai gây tai nạn chết người, cặp vợ chồng già lập tức chuyển gần 400 triệu để đền bù: Sự thật về một cú lừa cay đắng!

Nguyễn Phượng |

Tin rằng đã được nói chuyện với chính con trai của mình, cặp vợ chồng không ngần ngại chuyển tiền cho kẻ mạo danh để rồi ôm hận vì mất trắng.

Theo Washington Post, tội phạm công nghệ bước lên tầm cao mới nhờ những bước tiến trong công nghệ trí tuệ nhân tạo (AI). Giờ đây chúng có thể giả giọng bất cứ thành viên nào trong gia đình bạn, sau đó thực hiện cuộc gọi “kêu cứu” và lấy tiền của nạn nhân trong sự ngỡ ngàng của chính họ.

Cơn ác mộng này đã đến với gia đình anh Benjamin Perkin (39 tuổi, Canada).

Theo đó, cha mẹ anh đã nhận được cuộc gọi từ một người tự xưng là luật sư. Người này nói, anh đã gây ra vụ tai nạn xe hơi, khiến một nhà ngoại giao Mỹ tử vong. Người này cho biết Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý.

Nhận được cuộc gọi thông báo con trai gây tai nạn chết người, cặp vợ chồng già lập tức chuyển gần 400 triệu để đền bù: Sự thật về một cú lừa cay đắng! - Ảnh 1.

AI phát triển khiến các trò lừa đảo, giả mạo người thân ngày càng tinh vi hơn - Ảnh minh hoạ

Để tăng độ tin cậy, "luật sư" chuyển máy cho Perkin, thực chất là kết nối với thiết bị AI giả giọng. Trong đó, "Perkin" nói rất cần tiền, chỉ còn biết tin tưởng vào cha mẹ.

"Giọng nói đủ gần gũi khiến cha mẹ tôi tin đó là tôi", Perkin kể với Washington Post.

Vài giờ sau, "luật sư" hối thúc cha mẹ anh chuyển tiền. Quá tin tưởng và lo lắng cho con nên họ đã ra ngân hàng rút và gửi đi 15.449 USD thông qua một hệ thống chuyển đổi sang Bitcoin. Cha mẹ anh nói họ có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn làm theo vì nghĩ đã nói chuyện với con trai. Tối hôm đó, khi Perkin gọi điện, tất cả mới vỡ lẽ.

Perkin nghi ngờ các video anh đăng trên YouTube là nguồn âm thanh cho kẻ lừa đảo huấn luyện AI. "Tiền đã mất. Không có bảo hiểm. Lấy lại là không thể", anh nói.

Một nạn nhân khác là bà Ruth Card, 73 tuổi ở Regina (Canada), nhận được cuộc gọi từ một người đàn ông có giọng giống cháu bà - anh Brandon. Kẻ lừa đảo nói anh Brandon đang bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.

"Trong đầu tôi lúc đó chỉ lóe lên suy nghĩ rằng tôi phải giúp thằng bé ngay lập tức", bà Ruth Card nói với Washington Post.

Nhận được cuộc gọi thông báo con trai gây tai nạn chết người, cặp vợ chồng già lập tức chuyển gần 400 triệu để đền bù: Sự thật về một cú lừa cay đắng! - Ảnh 2.

Bà Ruth Card là một trong những nạn nhân may mắn thoát nạn vì phát hiện ra trò lừa đảo kịp thời - Ảnh: Postmedia

Bà cùng chồng - ông Greg Grace (75 tuổi) vội đi đến ngân hàng và rút 3.000 CAD (2.207 USD) - mức tối đa bà có thể rút hàng ngày. Cả hai định qua ngân hàng thứ hai để lấy số tiền tương tự.

May mắn cho họ là vị giám đốc ngân hàng đã gọi cả hai vào văn phòng và nói rằng, một khách hàng khác cũng nhận được cuộc gọi giống hệt, cũng bị giả giọng người thân với mức "chính xác đến kỳ lạ".

Đó là khi họ nhận ra bị lừa. Cả hai sau đó đã gọi điện cho anh Brandon và biết rằng cháu mình không hề bị bắt.

"Chúng tôi bị cuốn theo câu chuyện mà không tìm hiểu kỹ. Khi đó, tôi tin chắc đang nói chuyện với Brandon mà không nghi ngờ", bà Card cho hay.

Các vụ lừa đảo mạo danh ở Mỹ nói riêng và trên toàn thế giới nói chung đang gia tăng. Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), trong năm 2022, mạo danh là hình thức lừa đảo phổ biến thứ hai ở Mỹ với hơn 36.000 báo cáo. Kẻ gian thường giả mạo bạn bè hoặc gia đình để khiến nạn nhân mắc lừa. Riêng lừa đảo qua điện thoại chiếm hơn 5.100 trường hợp, gây thiệt hại hơn 11 triệu USD.

Đáng chú ý, sự tiến bộ của AI ở nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. AI đang giúp những kẻ xấu bắt chước giọng nói dễ dàng với chi phí rẻ hơn, nhằm thuyết phục mọi người mà chủ yếu là người lớn tuổi rằng những người thân yêu của họ đang gặp nạn.

Chỉ bằng một mẫu âm thanh trong một vài câu nói thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.

Giới chuyên gia đánh giá, công cụ AI giả giọng nói đang tràn lan, nhưng các cơ quan quản lý vẫn loay hoay kiểm soát. Trong khi đó, hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới. Các công ty tạo ra AI cũng chưa phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.

"Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", Giáo sư Hany Farid tại Đại học California nhận xét. "Kẻ gian sẽ buộc nạn nhân phải phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".

Nhận được cuộc gọi thông báo con trai gây tai nạn chết người, cặp vợ chồng già lập tức chuyển gần 400 triệu để đền bù: Sự thật về một cú lừa cay đắng! - Ảnh 3.

Người già rất dễ bị các đối tượng nhằm vào để lừa tiền - Ảnh: Washington Post

Cũng theo ông, phần mềm AI ngày nay đủ thông minh để phân tích giọng nói của một người.

"Chỉ cần một bản ghi âm từ Facebook, TikTok, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây", giáo sư Farid nói.

ElevenLabs, công ty đứng sau VoiceLab - công cụ AI tái tạo giọng nói, cảnh báo ngày càng nhiều phần mềm giả giọng có mặt trên thị trường, dẫn đến tình trạng lạm dụng.

Trong khi đó, Will Maxson, hiện làm việc tại Ủy ban Thương mại liên bang Mỹ FTC, cho biết việc theo dõi kẻ lừa đảo giọng nói "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại và ở bất kỳ đâu. Theo ông, nếu nhận cuộc gọi từ người lạ hoặc từ người thân nhờ hỗ trợ, người dùng cần kiểm tra bằng cách gọi lại cho chính người đang gặp sự cố, cũng như gọi cho các thành viên khác trong gia đình để xác minh thông tin.

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại