PDA

View Full Version : Cảnh báo đỏ sử dụng Deepfake để lừa đảo


Romano
03-31-2023, 05:19
Các cá nhân, tổ chức, doanh nghiệp cần cẩn trọng trước thủ đoạn sử dụng công nghệ Deepfake - tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, h́nh ảnh hoặc video bằng ứng dụng trí tuệ nhân tạo (AI) - để lừa đảo.
Tạo h́nh ảnh, giọng nói và video giả mạo để lừa đảo

Mới đây, chị V.T.M. (trú tại quận Long Biên, Hà Nội ) nhận được tin nhắn của một người bạn thân đang sống ở nước ngoài, nhờ chuyển 75 triệu đồng vào tài khoản. Cẩn thận thực hiện cuộc gọi video cho bạn để kiểm tra, th́ phía bên kia hiện lên h́nh ảnh và nói đang cần tiền gấp, nên chị M. không ngần ngại chuyển tiền. Vài tiếng sau, trên Facebook cá nhân của người bạn đó đăng thông báo việc bị kẻ gian đánh cắp tài khoản để hỏi vay tiền bạn bè. Chị M. gọi điện lại, th́ người bạn xác nhận đă bị kẻ gian chiếm đoạt tài khoản mạng xă hội.

Chị M. chỉ là một trong số nhiều nạn nhân được công an TP. Hà Nội, TP.HCM, Hà Tĩnh và nhiều tỉnh, thành phố khác… mô tả, phát đi cảnh báo về chiêu thức lừa đảo mới với công nghệ Deepfake.

Tại cuộc họp báo thông tin về t́nh h́nh, kết quả các mặt công tác quư I/2023 của Bộ Công an tổ chức vào ngày 28/3, ông Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và Pḥng chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết, hiện các đối tượng đă sử dụng công nghệ Deepfake ứng dụng AI vào các mục đích lừa đảo, chiếm đoạt tài sản. Cụ thể, công nghệ Deepfake được dùng để giả h́nh ảnh, giọng nói của một người, rồi tương tác với bị hại. Khi chiếm được ḷng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt.

Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty NCS cho biết, Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của ḿnh vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước.

“Gần đây, những kẻ lừa đảo đă lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đă bị mất tiền do tưởng là người thân, đồng nghiệp, lănh đạo gọi cho ḿnh yêu cầu chuyển một khoản tiền cho họ”, ông Sơn cho biết.

Theo cơ quan công an, với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp. Để che lấp khuyết điểm này, các đối tượng thường tạo ra video với âm thanh khó nghe, h́nh ảnh không rơ nét, giống như cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu…

Pḥng chống lừa đảo như thế nào?

Ông Ngô Minh Hiếu, Nhà sáng lập Dự án Chống lừa đảo nhấn mạnh, các cuộc điện thoại video hiển thị khuôn mặt ít biểu cảm, hướng đầu và cơ thể của người trong video không nhất quán, màu da bất thường, ánh sáng kỳ lạ, nhiều tiếng ồn, h́nh ảnh nḥe… là dấu hiệu của cuộc gọi Deepfake lừa đảo.

Theo ông Hiếu, khi có một ai đó trên mạng xă hội trong danh sách bạn bè hỏi mượn tiền, hay gửi link lạ, mọi người nên kiểm chứng, xác thực bằng cách gọi điện thoại trực tiếp hoặc gọi video call ít nhất trên 1 phút, đặt ra những câu hỏi mà chỉ có bạn và người kia mới biết, v́ Deepfake sẽ không thể giả được một cuộc tṛ chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao.

Chuyên gia Vũ Ngọc Sơn cũng cho biết, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, h́nh ảnh không cao.

“Người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nḥe, không rơ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ...”, chuyên gia Vũ Ngọc Sơn khuyến nghị.

Hiện tại, các mạng xă hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng t́m cách để lách qua bộ lọc của mạng xă hội.

Các chuyên gia bảo mật cảnh báo, cách tốt nhất để tránh bị làm giả Deepfake là mọi người nên hạn chế chia sẻ h́nh ảnh, video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xă hội, email bằng mật khẩu có độ khó cao. Nếu chia sẻ video hay clip trên mạng, nên làm méo tiếng của ḿnh, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.

Cơ quan công an cũng khuyến cáo người dùng cá nhân, các tổ chức, doanh nghiệp cần nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, xác nhận qua video call; nên xác thực lại thông tin bằng cách gọi điện thoại hoặc gặp trực tiếp để trao đổi thông tin chính xác trước khi giao dịch. Bên cạnh đó, người dùng nên cẩn trọng khi chia sẻ các thông tin cá nhân trên mạng xă hội, không nên để lộ quá nhiều thông tin riêng tư như số nhà, số căn cước công dân...