deepfake

“Lật mặt” thách thức từ deepfake

“Lật mặt” thách thức từ deepfake

Công nghệ 2024-02-26T22:00:00

Gần đây, thuật ngữ “deepfake” được đề cập tới nhiều, đặc biệt xung quanh việc phát tán ảnh khỏa thân giả của ca sĩ nổi tiếng Taylor Swift trên X. Các chuyên gia từ Đại học RMIT thảo luận về tác động nguy hại của deepfake và đề xuất hướng giải quyết vấn nạn này.

Công nghệ phản deepfake

Công nghệ phản deepfake

Công nghệ 2023-12-14T13:31:00

Trong cuộc khảo sát vừa được Trường ĐH Đông Bắc (Mỹ) công bố, khoảng 50% người tham gia thừa nhận họ không thể phân biệt nội dung deepfake do AI tạo ra và nội dung được tạo ra bởi con người. "AI tạo sinh là công nghệ có thể làm thay đổi thế giới.

Cách nhận diện và phòng tránh thủ đoạn lừa đảo trực tuyến Deepfake

Cách nhận diện và phòng tránh thủ đoạn lừa đảo trực tuyến Deepfake

Công nghệ 2023-11-17T21:00:00

VTV.vn - Với sự phát triển của khoa học công nghệ, đặc biệt là sự bùng nổ của trí tuệ nhân tạo, việc phân biệt thật - giả trên mạng Internet ngày càng trở nên khó khăn.

Cách nhận diện lừa đảo lợi dụng Deepfake

Cách nhận diện lừa đảo lợi dụng Deepfake

Công nghệ 2023-10-22T15:00:00

Deepfake dần bị giới tội phạm mạng khai thác, trở thành công cụ lừa đảo dù mục đích ban đầu của công nghệ này là phục vụ giải trí.

Nhiều phụ nữ mất hàng trăm triệu sau cuộc gọi video cầu cứu, Bộ Công an cảnh báo thủ đoạn lừa đảo công nghệ cao

Nhiều phụ nữ mất hàng trăm triệu sau cuộc gọi video cầu cứu, Bộ Công an cảnh báo thủ đoạn lừa đảo công nghệ cao

Tri thức mới 2023-07-16T21:09:00

Đối tượng lừa đảo gọi video cho "con mồi" xem cảnh cấp cứu để làm tin rồi cầu cứu mong được giúp đỡ...

Công an khuyến cáo người dân đặc biệt cảnh giác với cuộc gọi có dấu hiệu này

Công an khuyến cáo người dân đặc biệt cảnh giác với cuộc gọi có dấu hiệu này

Tri thức mới 2023-07-12T14:00:00

Bộ Công an khuyến cáo người dân những thông tin để nhận diện và phòng ngừa đối với loại tội phạm lợi dụng công nghệ cao để lừa đảo, chiếm đoạt tài sản.

Bộ Công an khuyến cáo người dân cảnh giác trước cuộc gọi lừa đảo "Deepfake"

Bộ Công an khuyến cáo người dân cảnh giác trước cuộc gọi lừa đảo "Deepfake"
Tri thức mới 2023-07-11T21:46:00

Bộ Công an cho biết, thời gian gần đây, một số đối tượng lợi dụng công nghệ "Deepfake" để thực hiện các cuộc gọi video với hình ảnh, khuôn mặt giả mạo để lừa đảo "nạn nhân" nhằm thực hiện các hành vi vi phạm pháp luật.

Tuyên bố là ‘lính chiến ở Ukraine’ để thu lợi, tiktoker nhận kết đắng

Tuyên bố là ‘lính chiến ở Ukraine’ để thu lợi, tiktoker nhận kết đắng

Quốc tế 2023-07-03T11:25:00

Sử dụng công nghệ deepfake, một người tạo nội dung Douyin đã đăng nội dung bịa đặt về cuộc chiến tại Ukraine. Nghi ngờ nảy sinh khi người dùng tìm thấy địa chỉ IP của anh ta ở tỉnh Hà Nam, Trung Quốc.

Sự thật về bức ảnh cựu TT Trump bị bắt giữ: Công nghệ Deepfake giỏi 'đánh lừa' tới đâu vẫn lộ sơ hở

Sự thật về bức ảnh cựu TT Trump bị bắt giữ: Công nghệ Deepfake giỏi 'đánh lừa' tới đâu vẫn lộ sơ hở

Công nghệ 2023-04-04T07:17:01

Các bức ảnh giả với nội dung 'cựu Tổng thống Mỹ Donald Trump bị bắt' đã thu hút tới hơn 6,4 triệu lượt xem trong một bài đăng trên Twitter.

Cảnh giác với "bóng ma" lừa đảo Deepfake: Ghép mặt, giả giọng lừa tiền

Cảnh giác với "bóng ma" lừa đảo Deepfake: Ghép mặt, giả giọng lừa tiền

Tri thức mới 2023-04-01T15:38:00

LTS: Hoán đổi khuôn mặt và giọng nói tưởng chừng chỉ có trên phim, giờ đây người ta đã có thể thực hiện một cách dễ dàng với các ứng dụng Deepfake. Kéo theo đó là mối lo ngại giả mạo hình ảnh, giọng nói nhằm mục đích xấu, chiếm đoạt tài sản và hàng loạt hệ lụy khác.

Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh

Lừa đảo bằng công nghệ Deepfake: Chuyên gia chỉ rõ cách thức phòng tránh

Công nghệ 2023-03-31T14:12:00

Dù đã được cảnh báo bởi các thông tin lừa đảo chuyển tiền qua mạng xã hội, nhưng ít ai ngờ đến việc gọi video call xác thực người nhà là cách an toàn nhất mà giờ cũng bị làm giả.

Cách nhận biết chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo

Cách nhận biết chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo

Tri thức mới 2023-03-27T21:57:00

Đã xảy ra nhiều vụ lừa đảo bằng cách cắt ghép hình ảnh, giọng nói y như thật để lừa đảo. Ngô Minh Hiếu (Hiếu PC) - người sáng lập Dự án Chống Lừa Đảo, đã vạch rõ chiêu trò mới này.

Xem tiếp

Tâm điểm

Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại