Tin tặc dùng AI để phát động tấn công lừa đảo có mục tiêu
Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam thuộc Cục Phát thanh, truyền hình và thông tin điện tử (Bộ TT&TT) cuối tuần vừa qua đã phát cảnh báo về thủ đoạn sử dụng công nghệ DeepFake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng.
Theo đơn vị này, thực tế đã có những người dùng mạng xã hội tại Việt Nam bị kẻ xấu tống tiền bằng các hình ảnh, video được tạo từ DeepFake - công nghệ ứng dụng AI để tạo hình ảnh, video giả mạo rất giống thật, khiến người dùng khó phân biệt.
Trong các cảnh báo phát ra định kỳ hàng tuần về tình hình lừa đảo trực tuyến, Trung tâm Giám sát an toàn không gian mạng quốc gia - NCSC thuộc Cục An toàn thông tin (Bộ TT&TT) đã nhiều lần lưu ý việc các đối tượng sử dụng công nghệ DeepFake, DeepVoice để giả mạo cơ quan chức năng hoặc người thân của nạn nhân để gọi điện, chat hình ảnh nhằm gia tăng mức độ thành công của các vụ lừa đảo.
Chia sẻ tại sự kiện Vietnam Security Summit 2024 chủ đề “An toàn trong thời kỳ bùng nổ của trí tuệ nhân tạo” diễn ra cuối tháng 5, đại diện Cục An toàn thông tin đã nêu rõ quan điểm: AI là công nghệ lưỡng dụng, được sử dụng cho cả mục đích tấn công và phòng thủ.
Cũng theo Cục An toàn thông tin, một trong những mối đe dọa lớn là tin tặc sử dụng AI để phát động các cuộc tấn công lừa đảo có mục tiêu. Tại Việt Nam, mặc dù các cơ quan, tổ chức đã triển khai nhiều giải pháp, tuy nhiên việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện khá phổ biến và nhiều người dân đã bị lừa.
“Khả năng nhận diện và phòng tránh các hình thức lừa đảo trực tuyến ngày càng khó khăn, khi các đối tượng ứng dụng AI để tạo ra kịch bản, bằng chứng, minh chứng để lừa người dùng. Những kỹ thuật tấn công lừa đảo cũng ngày càng phát triển, từ việc đơn giản là lừa đảo, lấy cắp mật khẩu qua email, cho đến việc kết hợp công nghệ AI để tạo ra những âm thanh, hình ảnh, video giả mạo mà mắt thường của con người không thể phát hiện ra được, đó là DeepVoice, DeepFake...”, đại diện Cục An toàn thông tin phân tích.
Đánh giá về nguy cơ mất an toàn thông tin tại Việt Nam nửa đầu năm 2024, các chuyên gia Viettel Cyber Security cho biết, về hình thức, Viettel Threat Intelligence - Hệ thống giám sát và phân tích nguy cơ an ninh mạng của đơn vị không ghi nhận các hình thức lừa đảo mới xuất hiện. Thay vào đó, nhiều nhóm tội phạm đã gia tăng áp dụng công nghệ AI, cụ thể như sử dụng AI tạo kịch bản lừa đảo, hay sử dụng các công nghệ DeepFake, DeepVoice... trong các chiến dịch lừa đảo.
Đồng quan điểm, chuyên gia VSEC cho rằng, sự tiến bộ chưa từng có của AI trong 2 năm qua đang tiếp tục gây bối rối cho nhiều đơn vị, tổ chức trong việc đảm bảo an toàn thông tin. Việc sử dụng rộng rãi công nghệ AI khiến nguy cơ rò rỉ dữ liệu nhạy cảm tăng lên đáng kể. “Theo báo cáo khảo sát tình trạng AI và bảo mật được công bố tại sự kiện CyberRisk Summit hồi tháng 6/2024, hơn 95% số người được hỏi tin rằng nội dung động được tạo bởi trí tuệ nhân tạo sẽ làm phức tạp việc phát hiện các vụ lừa đảo”, chuyên gia VSEC thông tin thêm.
Nâng cao cảnh giác trước những thủ đoạn lừa đảo ‘biến tướng’ mới
Chia sẻ quan điểm về tình trạng tội phạm lừa đảo sử dụng AI để tạo những kịch bản lừa đảo được cá biệt hóa cho từng nhóm đối tượng, ông Nguyễn Văn Thứ, Tổng Giám đốc An ninh mạng của Bkav cho rằng: “Việc toàn bộ thông tin cá nhân được đưa lên môi trường số thông qua mạng xã hội, các cơ sở y tế, giáo dục… và rất khó tránh khỏi việc bị lộ lọt đang là yếu tố giúp cho AI hoặc các công nghệ tiên tiến khác được khai thác tốt, giúp ích rất nhiều cho những kẻ lừa đảo”.
Trao đổi với phóng viên VietNamNet, ông Nguyễn Hoàng Sơn, Giám đốc Kỹ thuật của VNCS Global phân tích: Trong kỷ nguyên số, việc sử dụng AI ngày càng phổ biến và không tránh khỏi kẻ xấu lợi dụng công nghệ mới này vào những mục đích không tốt.
Để có một kịch bản lừa đảo hoàn hảo nhắm vào một đối tượng cá biệt, kẻ xấu thường phải thu thập hoặc tìm kiếm được những thông tin của đối tượng đó trên không gian mạng. Ví dụ như 1 buổi livestream bán hàng hoặc trên trang thông tin không đảm bảo an toàn, dẫn đến thông tin của người dùng bị lộ lọt; từ đó, tội phạm mạng có thể khai thác, nắm được điểm yếu và tạo một kịch bản tiếp cận dễ dàng nhất với đối tượng bị nhắm đến tấn công.
Từ những phân tích trên, các chuyên gia khuyến nghị người dùng cẩn trọng khi chia sẻ thông tin cá nhân, hình ảnh, video riêng tư trên các nền tảng mạng xã hội. Đồng thời, người dùng cũng cần cẩn trọng khi nhận được những cuộc gọi lạ tự xưng từ những tổ chức hoặc cơ quan chức năng. Tốt nhất, người dùng nên xác thực toàn bộ thông tin từ người gọi và đến trực tiếp nơi cơ quan liên quan để giải quyết các vấn đề gặp phải, tránh tình huống bị kẻ xấu lợi dụng để khai thác lừa đảo.
Trong cuộc chiến chống lừa đảo trực tuyến nói chung và các hình thức lừa đảo được đối tượng sử dụng công nghệ AI nói riêng, các chuyên gia nhấn mạnh người dùng cần giữ tâm thế luôn chủ động tự nâng cao nhận thức, kiến thức về các mối hiểm họa trên không gian mạng; Trang bị các công nghệ và kỹ năng bảo đảm an toàn thông tin; Đồng thời, cập nhật thường xuyên các phương thức, thủ đoạn lừa đảo ‘biến tướng’ mới để luôn phản ứng tốt trong các tình huống.