Mất tiền đau vì tin vào cuộc gọi Deepfake

19/07/2023 07:46

Không chỉ lừa đảo chuyển tiền, tội phạm mạng còn sử dụng Deepfake để lồng ghép hình ảnh nạn nhân vào video khiêu dâm, thậm chí lan truyền tin giả gây bất ổn xã hội.

Lời tòa soạn:

Trong 6 tháng đầu năm 2023, lừa đảo trực tuyến tăng mạnh, hơn 64% so với cùng kỳ năm ngoái. Mặc dù có những cảnh báo liên tục, khuyến cáo không ngừng, nhiều người dân mất cảnh giác vẫn bị sập bẫy các chiêu thức lừa đảo ngày càng tinh vi, đa dạng trên không gian mạng.

VietNamNet mở tuyến bài "Cảnh báo lừa đảo trực tuyến" nhằm cung cấp cho bạn đọc thêm các thông tin và trang bị kỹ năng, kiến thức để không trở thành nạn nhân của loại hình tội phạm mới này.

Chuyển giúp anh 30 triệu nhé, mấy hôm nữa anh trả sau”, đó là nội dung tin nhắn Messenger mà một ông anh thân thiết gửi cho Lê Khải (TP.HCM). Tin nhắn được gửi đến lúc 22h tối, khoảng thời gian 2 anh em vẫn thường trao đổi với nhau lúc cuối ngày.

Thấy ông anh chỉ vừa đăng status kết quả một trận đấu bóng đá ít phút trước, Lê Khải không mảy may nghi ngờ nội dung tin nhắn. Nhưng khi nhớ tới mấy vụ lừa đảo đọc được trên báo, để thêm phần chắc chắn, anh quyết định gọi video call để kiểm tra.

Anh đây”, giọng nói cùng hình ảnh ông anh thân thuộc hiện ra qua màn hình điện thoại. Nhận thấy khung cảnh đằng sau có phần nhạy cảm, Khải không nghĩ nhiều, chỉ bảo “vâng” rồi cúp máy và âm thầm thực hiện lệnh chuyển tiền.

Phải đến ngày hôm sau, Khải mới biết rằng, trong tối hôm đó, anh cùng rất nhiều người quen khác của ông anh nọ đã trở thành nạn nhân của những kẻ lừa đảo.

Vụ việc kể trên là một kịch bản điển hình được bọn tội phạm mạng thường xuyên sử dụng thời gian gần đây. Trong kịch bản này, nạn nhân rất dễ rơi vào cái bẫy mà kẻ lừa đảo đã giăng sẵn bởi sự tiếp tay của Deepfake - công nghệ đang nổi lên như một mối hiểm họa mới.

Những cuộc gọi Deepfake, giả mạo người thân, bạn bè, cán bộ cơ quan quản lý nhà nước xuất hiện ngày càng nhiều thời gian gần đây. Ảnh: Trọng Đạt

"Tôn Hành Giả - Giả Hành Tôn" thời 4.0

Với những ai từng xem bộ phim truyền hình nổi tiếng Tây Du Ký, chắc hẳn họ sẽ không quên được câu chuyện Tôn Hành Giả - Giả Hành Tôn. Trong kiếp nạn Mỹ Hầu Vương giả, chỉ đến khi Phật Tổ Như Lai hiện thân, ngài mới có đủ bản lĩnh để phân biệt đâu là Giả Hành Tôn, đâu là Tôn Hành Giả.

Có một điều trớ trêu là câu chuyện Tôn Hành Giả - Giả Hành Tôn đang xuất hiện ngày một nhiều hơn trong thời đại 4.0. Không cần phải có nhiều phép thần thông biến hóa như trong phim, các Giả Hành Tôn thời 4.0 chỉ cần nắm trong tay một công cụ duy nhất, đó chính là Deepfake.

Xuất hiện và dần trở nên phổ biến từ năm 2017, Deepfake là một từ ghép của “deep” trong “deep learning” (học sâu) và “fake” (giả mạo). Deep learning là phương pháp AI tiên tiến sử dụng nhiều lớp thuật toán machine learning để trích xuất dần các tính năng cao cấp hơn từ dữ liệu đầu vào.

Nó có khả năng học hỏi từ dữ liệu phi cấu trúc, chẳng hạn như khuôn mặt con người, chuyển động vật lý và giọng nói. Các dữ liệu này sau đó sẽ được xử lý để tạo ra video Deepfake thông qua mạng GAN (Generative Adversarial Network). Mạng lưới này liên tục kiểm tra các hình ảnh tạo ra theo thiết lập từ trước, nhờ đó, hình ảnh sẽ ngày càng thuyết phục hơn.

Sự tiến bộ của công nghệ xử lý hình ảnh và giọng nói bằng các thuật toán học sâu cũng đi kèm với nó là nhiều hệ lụy. Ảnh: Minh họa

Chia sẻ với PV VietNamNet, ông Nguyễn Văn Cường, Giám đốc an ninh mạng, Tập đoàn công nghệ Bkav cho biết, Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video hoặc âm thanh của người khác.

Quá trình này bao gồm việc phân tích và tách riêng các đặc điểm của khuôn mặt và giọng nói, sau đó ghép chúng vào nội dung mới. Kết quả là một đoạn video hoặc âm thanh mới có thể hiển thị người mục tiêu đang nói hoặc thực hiện các hành động mà thực tế họ không thực sự làm. Deepfake có thể tạo ra nội dung giả mạo rất giống với nguyên bản, gây nhầm lẫn và khó phân biệt cho người xem, từ đó tạo ra những tác động tiêu cực cho cá nhân và xã hội.

Deepfake có thể được sử dụng để tạo ra video giả mạo bất kỳ ai, đặc biệt là trong các tình huống lừa đảo chiếm đoạt tài sản thông qua cuộc gọi video call giả mạo người thân để yêu cầu chuyển tiền.

Người tạo video Deepfake cũng có thể sử dụng chúng để phỉ báng, xâm phạm quyền riêng tư của người khác. Điều này có thể gây ra hậu quả nghiêm trọng cho danh dự và sự tin tưởng của người bị tác động.

Ngoài ra, Deepfake còn từng bị lạm dụng để tạo ra video giả mạo của các quan chức, chính trị gia hoặc người nổi tiếng, với các phát ngôn hoặc hành động có thể gây ra sự bất ổn xã hội.

Những tác động tiêu cực của Deepfake có thể lan rộng và gây ảnh hưởng đáng kể đến đời sống cá nhân, quan hệ xã hội, chính trị và kinh tế. Điều này đòi hỏi sự chú ý, phòng ngừa, nhận diện và giải quyết các vấn đề liên quan”, Giám đốc an ninh mạng Tập đoàn Bkav nói.

“Dịch dung” chỉ bằng 1 bức ảnh và 5 giây giọng nói

Không cần phải dùng tới các ca phẫu thuật thẩm mỹ phức tạp, tốn kém, trong thời đại công nghệ số, việc “dịch dung”, biến thân thành một người khác, thậm chí với khuôn mặt và giọng nói của một người cụ thể được thực hiện tương đối dễ dàng.

Theo bà Võ Dương Tú Diễm, Giám đốc vùng Việt Nam, Cambodia và Myanmar, công ty bảo mật Kaspersky, nhờ những tiến bộ trong machine learning (học máy), các video Deepfake mang tính thuyết phục có thể được thực hiện trong một khoảng thời gian rất ngắn, chỉ bằng 1 bức ảnh duy nhất và chỉ 5 giây giọng nói của nạn nhân.

Giải thích thêm, bà Diễm cho hay, nhiều người dùng hay đăng tải các video ngắn hoặc ảnh của họ lên mạng xã hội. Đây là nguồn nguyên liệu đầu vào để tội phạm mạng có thể tạo ra các tác phẩm Deepfake của hầu hết mọi người mà chúng muốn một cách dễ dàng. Thông qua Deepfake, nguồn dữ liệu người dùng này sẽ được sử dụng vào nhiều mục đích khác nhau, bao gồm trả thù, lừa đảo tài chính, thao túng chính trị và quấy rối.

Chỉ bằng 1 bức ảnh và 5 giây giọng nói của nạn nhân, tội phạm mạng đã có đủ thông tin để hình thành một video Deepfake. Ảnh minh họa.

Lĩnh vực đầu tiên và rõ ràng nhất mà Deepfake tập trung hướng đến là nội dung khiêu dâm. Những người nổi tiếng là những nạn nhân đầu tiên, thế nhưng ngay cả những người bình thường cũng bắt đầu lo lắng về vấn đề này.

Khi sở hữu khuôn mặt và giọng nói của người khác, kẻ xấu sẽ có vô vàn kịch bản sử dụng khác nhau như bắt nạt học đường, gọi điện lừa đảo chuyển tiền, tống tiền người quản lý công ty hoặc thậm chí cả các hoạt động gián điệp công nghiệp.

Với việc có ngày càng nhiều các ứng dụng Fintech (công nghệ tài chính), khối lượng dữ liệu tài chính gia tăng trở thành “miếng mồi” ngon thu hút tội phạm mạng. Bên cạnh đó, một lượng lớn thông tin cá nhân quan trọng hiện đang được lưu trữ trên thiết bị di động. Nhiều nhóm tội phạm mạng sử dụng Deepfake và các phần mềm độc hại cao cấp để tấn công vào điện thoại nhằm đánh cắp dữ liệu của nạn nhân.

Sau khi lừa đảo thành công, không có lý do gì để tội phạm mạng dừng hoạt động, từ đó dẫn đến ngày càng nhiều người bị mắc bẫy.

Tỉnh táo, cảnh giác với cuộc gọi bất thường

Theo ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin (Bộ TT&TT), với các cuộc gọi Deepfake, bằng mắt thường vẫn có thể nhận thấy một số các dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây, khuôn mặt của người trong cuộc gọi video giả mạo thường thiếu cảm xúc và khá "trơ" khi nói, tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể không nhất quán với nhau…

Ngoài ra, cũng có thể nhận thấy sự bất thường từ màu da của nhân vật trong video cuộc gọi, ánh sáng kỳ dị và bóng đổ không đúng vị trí, khiến cho video trông không tự nhiên. Âm thanh cũng là điểm có thể nhận thấy sự khác lạ, khi không đồng nhất với hình ảnh, có nhiều tiếng ồn lạc vào hoặc video không có âm thanh. Thông thường, kẻ gian sẽ ngắt cuộc gọi giữa chừng với lý do mất sóng, sóng yếu…

Những vụ giả danh công an để lừa đảo chuyển tiền hiện rất phổ biến. Với sự kết hợp của công nghệ Deepfake, tội phạm mạng thậm chí có thể giả danh bất cứ ai. Ảnh: Trọng Đạt

Theo ông Nguyễn Văn Cường, năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, do vậy, các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao.

Người dùng không nên tin các video clip có thời lượng ngắn, chất lượng thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ… Đó là những dấu hiệu giúp người dùng phân biệt và nhận ra video giả mạo”, vị chuyên gia này cảnh báo.

Để tránh trở thành nạn nhân của Deepfake, theo ông Cường, người dùng cần hạn chế chia sẻ thông tin cá nhân trên các nền tảng trực tuyến và mạng xã hội. Người dùng cũng nên cân nhắc trước khi đăng tải hình ảnh hoặc video cá nhân và chia sẻ với người khác để bảo vệ thông tin cá nhân khỏi bị rò rỉ vào tay giới tội phạm mạng.

Ở góc nhìn của mình, bà Võ Dương Tú Diễm cho hay, từ hàng trăm triệu tài khoản giả mạo trên mạng xã hội cho đến sự lan truyền của fake news và sự gia tăng liên tục của các cuộc tấn công lừa đảo, việc suy nghĩ kỹ về những gì chúng ta nhìn thấy chưa bao giờ quan trọng hơn thế.

Trong thời đại công nghệ số, người dùng chỉ có thể tự bảo vệ bản thân bằng cách hạn chế sự hiện diện công khai trên mạng xã hội, chuyển các bài đăng sang chế độ riêng tư. Người dùng nên thiết lập thói quen bảo mật tốt, sử dụng mật khẩu mạnh, mỗi tài khoản nên dùng một mật khẩu khác nhau, đồng thời sử dụng các giải pháp bảo mật để bảo vệ máy tính, smartphone và mạng Internet gia đình.

Bài liên quan
Nổi bật Việt Báo
Đừng bỏ lỡ
Mất tiền đau vì tin vào cuộc gọi Deepfake
POWERED BY ONECMS - A PRODUCT OF NEKO