Tội phạm đang sử dụng AI theo những cách đáng sợ như thế nào?

Kiệt Linh |

- Trí tuệ nhân tạo là con dao hai lưỡi. Nó đang thúc đẩy công nghệ y tế với tốc độ đáng kinh ngạc và cải thiện chất lượng cuộc sống trên toàn cầu, nhưng nó cũng đang được sử dụng cho những mục đích bất chính.

Tội phạm đang sử dụng AI theo những cách đáng sợ như thế nào?- Ảnh 1.

Bà Lisa Palmer, chiến lược gia trưởng về AI của công ty tư vấn AI Leaders, nói với The Post rằng, tình trạng lừa đảo trên mạng, “đang diễn ra trên quy mô toàn cầu. Đây không chỉ là điều đang xảy ra ở Mỹ. Đó là một vấn đề ở nhiều quốc gia.”

Thông qua AI, dữ liệu khuôn mặt của các cá nhân đã được sử dụng để tạo ra hình ảnh khiêu dâm, trong khi những người khác bị sao chép giọng nói cho mục đích lừa gia đình và bạn bè thân thiết của họ qua điện thoại – thường là để gửi tiền cho kẻ lừa đảo.

Có rất nhiều cách đáng sợ mà AI đang được sử dụng để khai thác và lừa đảo con người - và tình hình sẽ chỉ trở nên tồi tệ hơn.

AI tạo sinh và Deepfakes

Các ứng dụng ảnh phổ biến nơi người dùng gửi ảnh chụp của chính họ và nhờ AI biến chúng thành nhân vật khoa học viễn tưởng hoặc một tác phẩm nghệ thuật thời Phục hưng có một mặt rất đen tối. Khi Melissa Heikkilä của MIT Technology Review thử nghiệm ứng dụng đình đám Lensa AI, nó đã tạo ra "hàng tấn ảnh khỏa thân" và "khiêu dâm một cách công khai" mà không có sự đồng ý của cô ấy, cô ấy cho biết vào cuối năm 2022.

Bà Palmer, người hôm 8/5 đã có bài phát biểu quan trọng về những lợi ích và nhược điểm tiềm ẩn của AI cho Hiệp hội Quản lý Thông tin, cho biết: “Một vài trong số những ứng dụng đó, theo điều khoản dịch vụ, nói rất rõ ràng rằng bạn đang chia sẻ khuôn mặt của mình với bộ lưu trữ dữ liệu của họ”.

Các chuyên gia cảnh báo, AI đang trở nên tiên tiến đến mức chúng ta sẽ sớm không thể phân biệt được hình ảnh giả với hình ảnh thật.

Và nếu rơi vào tay kẻ xấu, việc đánh cắp dữ liệu sinh trắc học khuôn mặt của một người có thể là thảm họa.

Bà Palmer nói thêm rằng, “đó là một tình huống khủng khiếp khi ai đó có thể xâm phạm cơ sở quân sự hoặc chính phủ do có dữ liệu sinh trắc học của ai đó.”

Nội dung AI giả mạo được tạo ra một cách dễ dàng - như những hình ảnh sai sự thật về vụ bắt giữ cựu Tổng thống Donald Trump - cũng đang xuất hiện. Bà Palmer “đặc biệt lo ngại” đây sẽ là một vấn đề trong các cuộc bầu cử tiếp theo.

Đặc biệt, bà Palmer lo ngại những cách sử dụng phi đạo đức - nhưng không bất hợp pháp - mà một số chính trị gia có thể coi là “tiếp thị thông minh”.

Bà J.S. Nelson, một chuyên gia an ninh mạng và là nhà nghiên cứu về đạo đức kinh doanh tại Trường Luật Harvard, cũng lo ngại rằng việc dễ dàng tiếp cận AI tạo sinh có thể dẫn đến tin tức giả và sự hoảng loạn hàng loạt - chẳng hạn như một sự kiện thời tiết khắc nghiệt do máy tính tạo ra được chia sẻ rộng rãi trên mạng xã hội.

Chiến lược gia trưởng về AI của công ty tư vấn AI Leaders Palmer cho rằng, “nó sẽ tiếp tục đi chệch hướng. Chúng ta mới chỉ bắt đầu thấy những điều này xảy ra.”

Tấn công giả mạo (phishing)

Các chuyên gia cảnh báo, AI đang mang lại mức độ tinh vi cao cho các email lừa đảo và cuộc gọi tự động.

“Nó rất hấp dẫn,” bà Palmer nói đồng thời cho biết thêm rằng, “bây giờ họ có thể tạo những email lừa đảo này ở quy mô lớn và được cá nhân hóa,” đồng thời cho biết thêm rằng những kẻ lừa đảo sẽ bao gồm những mẩu thông tin cá nhân thuyết phục được lấy từ hồ sơ trực tuyến của mục tiêu.

ChatGPT gần đây đã giới thiệu Code Interpreter - một plug-in có thể truy cập và phân tích các bộ dữ liệu chính trong vài phút. Nó có thể làm cho cuộc sống của kẻ lừa đảo dễ dàng hơn nhiều.

AI cũng đang tăng cường khả năng tạo ra các cuộc gọi điện thoại giả mạo. Palmer cho biết, tất cả những gì cần thiết là ba giây ghi lại một người đang nói - 10 đến 15 giây sẽ có được kết quả gần như chính xác.

Tháng trước, một bà mẹ ở Arizona đã tin rằng con gái mình đã bị bắt cóc với số tiền chuộc 1 triệu USD sau khi nghe thấy giọng nói của đứa trẻ được sao chép qua điện thoại.

Trợ lý đặc vụ phụ trách văn phòng Phoenix của FBI Dan Mayo cho biết: “Nếu bạn công khai thông tin của mình, bạn đang cho phép mình bị lừa bởi những người như thế này. Họ sẽ tìm kiếm những hồ sơ công khai có càng nhiều thông tin về bạn càng tốt và khi họ nắm được thông tin đó, họ sẽ tìm hiểu sâu hơn về bạn.”

Bà Nelson dự đoán rằng các nhân viên, đặc biệt là trong lĩnh vực công nghệ và tài chính, cũng có thể nhận được cuộc gọi bằng giọng nói giả của sếp ở đầu bên kia. Bà cảnh báo: “Bạn đang làm việc với một chatbot có vẻ giống sếp của bạn theo đúng nghĩa đen”. Nhưng những công dân bình thường không phải là những người duy nhất gặp phải những vụ lừa đảo kiểu như vậy. Vào cuối tháng 4, Chủ tịch Cục Dự trữ Liên bang Mỹ Jerome Powell đã bị những kẻ giả mạo lừa rằng ông đang nói chuyện với Tổng thống Ukraine Volodymyr Zelensky. Những kẻ lừa đảo sau đó đã cho phát sóng cuộc trò chuyện kéo dài với ông Powell.

Ngay cả người đồng sáng lập Apple Steve Wozniak cũng lo ngại về tình trạng lừa đảo gia tăng. Ông Steve Wozniak nói với BBC News rằng: “AI rất thông minh, nó mở cửa cho những người chơi xấu, những kẻ muốn lừa bạn về danh tính của họ. Con người thực sự phải chịu trách nhiệm về những gì do AI tạo ra.”

Phần mềm độc hại (Malware)

Khả năng tăng cường phần mềm độc hại của AI mà các chuyên gia đã thử nghiệm gần đây với ChatGPT cũng đang khiến các chuyên gia cảnh báo.

Bà Palmer cho biết: “Phần mềm độc hại có thể được sử dụng để cung cấp cho kẻ xấu quyền truy cập vào dữ liệu bạn lưu trữ trên điện thoại hoặc trong iCloud của mình. Rõ ràng đó sẽ là những thứ như mật khẩu của bạn vào hệ thống ngân hàng, mật khẩu của bạn vào hồ sơ y tế, mật khẩu của bạn vào hồ sơ trường học của con bạn, bất kể trường hợp nào, bất cứ thứ gì được bảo mật.”

Cụ thể, những gì AI có thể làm để tăng cường phần mềm độc hại là tạo ra các biến thể tức thời, “điều này ngày càng gây khó khăn hơn cho những người đang nỗ lực bảo mật hệ thống để có thể đi trước chúng,” bà Palmer nói.

Ngoài những người bình thường - đặc biệt là những người có quyền truy cập vào hệ thống chính phủ - bà Palmer dự đoán rằng những cá nhân cấp cao sẽ là mục tiêu cho các nỗ lực tấn công được hỗ trợ bởi AI nhằm đánh cắp thông tin và ảnh nhạy cảm.

Bà nói: “Ransomware là một mục tiêu chính khác của những kẻ xấu. Họ chiếm quyền điều khiển hệ thống của bạn, thay đổi mật khẩu, khóa bạn khỏi hệ thống của chính bạn và sau đó yêu cầu bạn trả tiền chuộc.”

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại