PinaColada
03-29-2023, 22:38
Hiện nay ở Việt Nam, dữ liệu cá nhân là thông tin dễ thu thập hàng loạt, v́ vậy những kẻ lừa đảo sử dụng deepfake sẽ t́m cách tiếp cận nhiều người nhất có thể để tăng xác suất thành công.
https://intermati.com/forum/attachment.php?attac hmentid=2198434&stc=1&d=1680129399
Dữ liệu cá nhân bị buôn bán công khai trên các trang mạng xă hội, khiến những kẻ lừa đảo dễ tấn công nạn nhân bằng các công cụ giả mạo ảnh, video. Ảnh: Hoàng Nam.
Dựng video giả mạo người thân, bạn bè rồi sau đó vay mượn tiền, yêu cầu chuyển khoản là h́nh thức lừa đảo đang xuất hiện ngày càng phổ biến ở Việt Nam, theo cảnh báo của Cục Cảnh sát pḥng chống tội phạm sử dụng công nghệ cao (A05 -Bộ Công an).
"Tội phạm lừa đảo giả h́nh ảnh và giọng nói của người sở hữu tài khoản mạng xă hội nhằm chiếm được ḷng tin, sau đó yêu cầu thực hiện giao dịch tài chính vay tiền hoặc chuyển tiền", đại diện A05 cho biết tại họp báo chiều 28/3.
Dễ giả dạng bất kỳ ai
“ỞViệt Nam, t́nh trạng lọt lộ thông tin dữ liệu cá nhân xảy ra thường xuyên, rất đơn giản để các hacker thu thập. Trong khi đó, video deepfake không khó làm, sử dụng các công cụ mă nguồn mở”, ông Ngô Minh Hiếu, chuyên gia bảo mật tại dự án Chống Lừa Đảo, nói với Zing.
Giải thích kỹ hơn, ông Hiếu cho biết với công cụ cần thiết là một máy tính để bàn, có GPU rời, sử dụng phần mềm DeepFaceLab tải miễn phí trên mạng, chỉ mất vài giờ để ghép mặt một người vào một video nói chuyện.
Thậm chí những người có nhu cầu có thể tự học qua những video hướng dẫn đăng tải trên mạng, dài chỉ 6-10 phút, gồm toàn bộ quy tŕnh để dựng video deepfake từ một video gốc.
Các công cụ dựng video deepfake sẵn có trên mạng, bất kỳ ai cũng có thể sử dụng.
Nếu muốn làm “kỹ” hơn, có các công cụ deepvoice chuyên cho giọng nói và công cụ tinh chỉnh để khiến cho chuyển động môi khớp hơn với lời nói, chuyên gia cho biết. Các công cụ này đều sẵn có trên mạng, từ phần mềm đến hướng dẫn sử dụng. Càng có nhiều h́nh ảnh của một người, video deepfake càng có thể chân thực hơn, với khoảng yêu cầu lư tưởng là 300-2.000 h́nh ảnh.
Trao đổi với Zing, ông Vũ Ngọc Sơn, Giám đốc công nghệ tại Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS), cho biết nguồn dữ liệu cho những kẻ lừa đảo có thể đến từ các mạng xă hội, thậm chí một số trường hợp kẻ lừa đảo chiếm quyền tài khoản, sau đó thu thập trực tiếp các h́nh ảnh, video của người dùng.
“Các thuật toán deepfake hiện nay thường được xây dựng trên nền tảng mă nguồn mở của Google, và có khả năng tạo ra video với độ chân thực đáng kinh ngạc. Càng có nhiều video và h́nh ảnh gốc th́ thuật toán càng hoạt động chính xác và video giả mạo có độ chân thực càng cao”, ông Ngọc Sơn cho biết.
Chuyên gia này đánh giá đối tượng bị giả dạng có thể là bất kỳ ai, kẻ lừa đảo deepfake không nhắm vào một nhóm nạn nhân cụ thể nào mà sẽ t́m cách giả dạng người quen và tiếp cận nhiều người nhất có thể để tăng xác suất thành công.
Làm ǵ để không bị đánh lừa?
Chuyên gia cho biết kẻ lừa đảo lợi dụng các nội dung, t́nh tiết gay cấn để người nhận cuộc gọi video không đủ thời gian để quan sát, phát hiện ra bất thường, c̣n trên thực tế các công cụ deepfake đang được sử dụng tại Việt Nam có chất lượng h́nh ảnh không cao và để lại nhiều dấu vết.
Hiện tại, h́nh ảnh và video deepfake vẫn thường để lại các dấu hiệu có thể nhận biết, chẳng hạn như bàn tay kỳ lạ này trong ảnh deepfake Tổng thống Pháp. Ảnh: Twitter.
“Trong các sự việc đă ghi nhận tại Việt Nam, video có độ phân giải kém, thời gian ngắn, âm thanh không trơn tru. Về khuôn mặt có thể thấy nhân vật ít biểu cảm, và một số vùng khuôn mặt bệt màu, không di chuyển đồng bộ với các bộ phận khác”, ông Ngọc Sơn cho biết.
Ngoài ra trong các video deepfake nhân vật ít chớp mắt, không có các hành động đưa tay lên găi mặt hoặc dụi mắt, v́ các hành động này sẽ gây lỗi cho thuật toán.
Theo ông Minh Hiếu, người nhận video cần giữ b́nh tĩnh và t́m cách kiểm chứng lại thông tin, có thể bằng cách gọi điện trực tiếp đến số điện thoại người thân hoặc kéo dài thời gian gọi ít nhất trên một phút.
“Hăy đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết, v́ deepfake sẽ không thể giả được một cuộc tṛ chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao do hạn chế về cảm xúc, biểu cảm”, ông Minh Hiếu lưu ư.
Các chuyên gia cũng khuyến nghị người dùng mạng xă hội hạn chế chia sẻ công khai h́nh ảnh hay video cá nhân, và áp dụng bảo mật 2 bước (MFA) với các tài khoản mạng xă hội, email để tránh trường hợp h́nh ảnh, tài khoản rơi vào tay kẻ lừa đảo.
VietBF@ sưu tập
https://intermati.com/forum/attachment.php?attac hmentid=2198434&stc=1&d=1680129399
Dữ liệu cá nhân bị buôn bán công khai trên các trang mạng xă hội, khiến những kẻ lừa đảo dễ tấn công nạn nhân bằng các công cụ giả mạo ảnh, video. Ảnh: Hoàng Nam.
Dựng video giả mạo người thân, bạn bè rồi sau đó vay mượn tiền, yêu cầu chuyển khoản là h́nh thức lừa đảo đang xuất hiện ngày càng phổ biến ở Việt Nam, theo cảnh báo của Cục Cảnh sát pḥng chống tội phạm sử dụng công nghệ cao (A05 -Bộ Công an).
"Tội phạm lừa đảo giả h́nh ảnh và giọng nói của người sở hữu tài khoản mạng xă hội nhằm chiếm được ḷng tin, sau đó yêu cầu thực hiện giao dịch tài chính vay tiền hoặc chuyển tiền", đại diện A05 cho biết tại họp báo chiều 28/3.
Dễ giả dạng bất kỳ ai
“ỞViệt Nam, t́nh trạng lọt lộ thông tin dữ liệu cá nhân xảy ra thường xuyên, rất đơn giản để các hacker thu thập. Trong khi đó, video deepfake không khó làm, sử dụng các công cụ mă nguồn mở”, ông Ngô Minh Hiếu, chuyên gia bảo mật tại dự án Chống Lừa Đảo, nói với Zing.
Giải thích kỹ hơn, ông Hiếu cho biết với công cụ cần thiết là một máy tính để bàn, có GPU rời, sử dụng phần mềm DeepFaceLab tải miễn phí trên mạng, chỉ mất vài giờ để ghép mặt một người vào một video nói chuyện.
Thậm chí những người có nhu cầu có thể tự học qua những video hướng dẫn đăng tải trên mạng, dài chỉ 6-10 phút, gồm toàn bộ quy tŕnh để dựng video deepfake từ một video gốc.
Các công cụ dựng video deepfake sẵn có trên mạng, bất kỳ ai cũng có thể sử dụng.
Nếu muốn làm “kỹ” hơn, có các công cụ deepvoice chuyên cho giọng nói và công cụ tinh chỉnh để khiến cho chuyển động môi khớp hơn với lời nói, chuyên gia cho biết. Các công cụ này đều sẵn có trên mạng, từ phần mềm đến hướng dẫn sử dụng. Càng có nhiều h́nh ảnh của một người, video deepfake càng có thể chân thực hơn, với khoảng yêu cầu lư tưởng là 300-2.000 h́nh ảnh.
Trao đổi với Zing, ông Vũ Ngọc Sơn, Giám đốc công nghệ tại Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS), cho biết nguồn dữ liệu cho những kẻ lừa đảo có thể đến từ các mạng xă hội, thậm chí một số trường hợp kẻ lừa đảo chiếm quyền tài khoản, sau đó thu thập trực tiếp các h́nh ảnh, video của người dùng.
“Các thuật toán deepfake hiện nay thường được xây dựng trên nền tảng mă nguồn mở của Google, và có khả năng tạo ra video với độ chân thực đáng kinh ngạc. Càng có nhiều video và h́nh ảnh gốc th́ thuật toán càng hoạt động chính xác và video giả mạo có độ chân thực càng cao”, ông Ngọc Sơn cho biết.
Chuyên gia này đánh giá đối tượng bị giả dạng có thể là bất kỳ ai, kẻ lừa đảo deepfake không nhắm vào một nhóm nạn nhân cụ thể nào mà sẽ t́m cách giả dạng người quen và tiếp cận nhiều người nhất có thể để tăng xác suất thành công.
Làm ǵ để không bị đánh lừa?
Chuyên gia cho biết kẻ lừa đảo lợi dụng các nội dung, t́nh tiết gay cấn để người nhận cuộc gọi video không đủ thời gian để quan sát, phát hiện ra bất thường, c̣n trên thực tế các công cụ deepfake đang được sử dụng tại Việt Nam có chất lượng h́nh ảnh không cao và để lại nhiều dấu vết.
Hiện tại, h́nh ảnh và video deepfake vẫn thường để lại các dấu hiệu có thể nhận biết, chẳng hạn như bàn tay kỳ lạ này trong ảnh deepfake Tổng thống Pháp. Ảnh: Twitter.
“Trong các sự việc đă ghi nhận tại Việt Nam, video có độ phân giải kém, thời gian ngắn, âm thanh không trơn tru. Về khuôn mặt có thể thấy nhân vật ít biểu cảm, và một số vùng khuôn mặt bệt màu, không di chuyển đồng bộ với các bộ phận khác”, ông Ngọc Sơn cho biết.
Ngoài ra trong các video deepfake nhân vật ít chớp mắt, không có các hành động đưa tay lên găi mặt hoặc dụi mắt, v́ các hành động này sẽ gây lỗi cho thuật toán.
Theo ông Minh Hiếu, người nhận video cần giữ b́nh tĩnh và t́m cách kiểm chứng lại thông tin, có thể bằng cách gọi điện trực tiếp đến số điện thoại người thân hoặc kéo dài thời gian gọi ít nhất trên một phút.
“Hăy đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết, v́ deepfake sẽ không thể giả được một cuộc tṛ chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao do hạn chế về cảm xúc, biểu cảm”, ông Minh Hiếu lưu ư.
Các chuyên gia cũng khuyến nghị người dùng mạng xă hội hạn chế chia sẻ công khai h́nh ảnh hay video cá nhân, và áp dụng bảo mật 2 bước (MFA) với các tài khoản mạng xă hội, email để tránh trường hợp h́nh ảnh, tài khoản rơi vào tay kẻ lừa đảo.
VietBF@ sưu tập