Log in

View Full Version : "Deepfakes": Hiểm họa mới của lối truyền thông tin giả mạo, gây ra hậu quả khó lường


trungthuc
09-15-2023, 23:37
Trong một bản báo cáo mới nhất được công bố vào ngày 12 tháng Chín, ba cơ quan t́nh báo hàng đầu của Hoa Kỳ gồm có, Cơ quan An ninh Quốc gia (NSA), Cục Điều tra Liên bang (FBI), và Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng (CISA), đă cung cấp nhiều thông tin tổng quát về mối hiểm họa mới của lối truyền thông tin "giả mạo" c̣n được gọi là "Deepfakes".

Giống như nhiều kỹ thuật hiện đại khác, "Deepfakes", do "trí tuệ nhân tạo" (Artificial Intelligence) tạo ra, có thể được sử dụng cho cả mục đích tốt lẫn xấu. Lúc đầu người ta sử dụng "deepfakes" để giải trí, vui đù, như lồng khuôn mặt và giọng nói của một người vào các đoạn video clip nổi tiếng. Tuy nhiên, ngày càng có nhiều cá nhân và tổ chức sử dụng deepfakes mạo danh những người đứng đầu chính phủ, nhân vất nổi tiếng và cả các nhân viện Bộ Tài chính để lừa gạt, sử dụng thông tin giả để truy cập trái phép vào mạng của các tổ chức lớn nhỏ nhằm đánh cắp các thông tin dữ liệu mật.
https://saigonnhonews.com/wp-content/uploads/2023/09/GettyImages-1167464772-1280x720.jpg
Phiên bản video "gốc" (trái) và "giả mạo" (phải) của CEO Facebook Mark Zuckerberg. (Ảnh: Elyse Samuels/The Washington Post via Getty Images)

Nguy hiểm hơn, deepfakes c̣n được sử dụng cho nhiều mục đích chính trị khác, bao gồm loan truyền sai mệnh lệnh của các vị chỉ huy quân đội, lan truyền thông tin sai lệch trong dư luận và quân đội, và để hợp pháp hóa cho các cuộc chiến tranh gây hấn, xâm lược.

Các công cụ và kỹ thuật có thể được sử dụng để tạo ra deepfakes này đă có mặt từ nhiều thập niên qua, tuy nhiên, quy mô sử dụng kỹ thuật này hiên nay đă tận dụng rất đáng kể. Trước đây, việc tạo ra deepfakes tinh vi bằng phần mềm chuyên môn có thể phải mất đi nhiều thời gian, nhưng lúc này, nhờ các tiến bộ mới về khoa học kỹ thuật nên các deepfakes có thể được tạo ra trong một thời gian ngắn ngủi, mà không cần đến tŕnh độ chuyên môn.

Phần lớn là nhờ sự tiến triển thần tốc của AI. Đáng lưu ư hơn, thị trường kỹ thuật hiện nay đă tràn ngập các chương tŕnh tạo ra deepfakes miễn phí, khiến cho việc tạo ra chúng ngày càng dễ dàng, từ bất cứ ai. Cho nên, việc sử dụng deepfakes cho các hành vi gian lận và tuyên truyền thông tin sai lệch đă bị khai thác nhiều đến đáng sợ.

Các ví dụ điển h́nh về "deepfakes"
Hồi tháng Ba năm ngoái, một đoạn video deepfake mô tả Tổng thống Ukraine, Volodymyr Zelensky, đă cho lan truyền thông tin "gây sốc" với tốc độ chóng mặt trên Twitter và bị bọn hackers đưa lên một trang web báo chí của Ukraine. Đoạn video dài khoảng một phút cho thấy cảnh mà Tổng thống Zelensky kêu gọi binh sĩ Ukraine hạ vũ khí và đầu hàng trong cuộc chiến đấu chống lại quân Nga. cho đến bây giờ vẫn chưa rơ ai đă tạo ra deepfake này, nhưng các giới chức Ukraine đă lên tiếng báo động về khả năng phía Nga cho phát tán các video "ngụy tạo" này như một phần của cuộc chiến tranh thông tin về tâm lư.

Hàng trăm ngàn lượt chia sẻ trên các trang mạng xă hội vào ngày 23 tháng Năm vừa qua về toàn cảnh deepfakes mô tả một vụ nổ gần Ngũ Giác Đài đă khiến cho thị trường chứng khoán thế giới bị hỗn loạn. H́nh ảnh deepfakes này được chia sẻ quá nhiều, đến độ Sở cứu hỏa ở thành phố Arlington, trụ sở của Ngũ Giác Đài, đă phải cho đăng một thông báo cho biết: "KHÔNG có vụ nổ hoặc biến cố nào xảy ra tại hoặc gần khu bảo tồn của Ngũ Giác Đài và không có mối nguy cơ hay mối nguy hiểm trực tiếp nào đối với công chúng".

Bản báo cáo cũng cho biết vào tháng Năm vừa qua, một người đă sử dụng deepfakes để mạo danh Giám đốc Điều hành (CEO) của một công ty. Người quản lư ḍng sản phẩm của công ty nhận được một lời mời qua WhatsApp để tham dự cuộc gọi với người tự xưng là CEO của công ty. Giọng nói nghe giống như CEO công ty và h́nh ảnh được sử dụng lại trùng khớp với h́nh ảnh vài năm trước của CEO này. Đáng sợ hơn, khung cảnh nhà trong đoạn video cũng giống y cảnh trong nhà của vị CEO này.

Tiến sĩ Siwei Lyu, giáo sư ngành Khoa học và Kỹ thuật Máy tính tại Trường Kỹ thuật và Khoa học Ứng dụng tại Đại học ở Buffalo, N.Y., một chuyên gia về deepfakes, cho biết:

"Một ví dụ đặc biệt đáng lo ngại về việc sử dụng deepfake có mục đích xấu mà tôi từng gặp là trả thù quai các h́nh ảnh khiêu dâm".

Giáo sư Lyu cho biết, việc tạo ra các h́nh ảnh khiêu dâm thường nhắm mục tiêu vào vợ hoặc chồng cũ và các nạn nhân thường là phụ nữ. Trong những h́nh ảnh này, khuôn mặt của nạn nhân được hoán đổi với khuôn mặt của một diễn viên trong các phim khiêu dâm, tạo ra những video clip, hoặc h́nh ảnh nh́n như thật, như thể người đó đang thực hiện các hành vi khiêu dâm.

Giáo sư Lyu c̣n nói thêm: "Những hành vi deepfake này thường được chia sẻ trực tuyến, mà nạn nhân không hề biết, gây ra những sự tổn hại đáng kể về tinh thần, về danh tiếng, và thậm chí là về các hậu quả pháp lư".
https://saigonnhonews.com/wp-content/uploads/2023/09/GettyImages-1246677163-2048x1367.jpg
Hồ sơ phân tích video giả mạo (phải) Tổng Thống Ukraine Volodymyr Zenlensky. (Ảnh: OLIVIER DOULIERY / AFP)

Làm sao đối phó được deepfakes?
Pḥng thí nghiệm Nghiên cứu Không Lực Hoa Kỳ (AFRL) mới đây đă hợp tác với công ty DeepMedia, để phát minh ra các kỹ thuật giúp phát hiện deepfakes. Các công cụ phát hiện deepfakes cũng đă được các tập đoàn kỹ nghệ khổng lồ sử dụng, bao gồm Microsoft, Intel, và Google. Hồi cuối năm ngoái, tập đoàn Intel đă phát minh ra ứng dụng FakeCatcher, một kỹ thuật có thể phát hiện ra các video clip giả mạo với tỷ lệ chính xác lên đến 96%.

Báo cáo của các cơ quan t́nh báo Hoa Kỳ khuyến cáo các tổ chức và cá nhân nên sử dụng những phương pháp và phương tiện để pḥng chống và phát hiện ra deepfakes. Chẳng hạn, sử dụng các phần mềm hay dụng cụ uy tín để xác nhận tính cách trung thực của h́nh ảnh, như TinEye, Google Image Search, và Bing Visual Search. Ví dụ, sau khi người sử dụng cho tải một h́nh ảnh nghi ngờ bị "ngụy tạo" lên Google Image, ứng dụng này sẽ cung cấp cho người ta các thông tin hữu ích về nguốn gốc của tấm ảnh, giúp xác minh tấm ảnh thật, giả ra sao.

C̣n đối với các đoạn video clips có dấu hiệu "ngụy tạo", nên để ư đến những điểm vô lư, phản khoa học, như bàn chân không chạm đất, hoặc các yếu tố tạo ra sự không nhất quán. Trên hết, phải kiểm tra nguồn gốc tung ra các h́nh ảnh, hoặc video clips, đến từ tổ chức, hoặc cá nhân có uy tín hay không, trước khi cho lan truyền ra.

Nội dung giả, hậu quả thật
Theo một cuộc nghiên cứu mới của nhóm các giáo sư và chuyên gia kỹ thuật, deepfakes đang tạo ra một sự thách thức đặc biệt khó khăn đối với giới lập pháp và các chính phủ ở các quốc gia tự do dân chủ. Do tầm mức quan trọng của các thông tin đáng tin cậy đối với các xă hội dân chủ, các chính phủ cần đặc biệt cảnh giác với deepfakes, v́ chúng có nguy cơ làm suy yếu niềm tin đó.

Sự tinh vi của deepfakes có thể mở ra một cuộc khủng hoảng về chính trị và xă hội, một khi thế giới đang chứng kiến một h́nh thức lan truyền "các thông tin sai lệch có chủ đích xấu". Marc Berkman, giám đốc điều hành của Tổ chức An toàn Truyền thông Xă hội, cho biết, thế giới đang chứng kiến các tác động nghiêm trọng của deepfakes, khi chúng có khả năng can thiệp vào các cuộc bầu cử dân chủ và được sử dụng cho mục đích tuyên truyền để gieo rắc sự chia rẽ và nghi ngờ trong dân chúng.

Tóm lại, sự tiến triển nhanh chóng của deepfakes trong những năm gần đây cho thấy "nền tảng tự do tuy vững mạnh của thể chế dân chủ, nhưng đồng thời cũng là một lỗ hổng nguy hiểm". Do đó, các chuyên gia đề nghị Hoa Kỳ và các quốc gia đồng minh nên xem xét việc h́nh thành ra một bộ quy tắc ứng xử, dựa trên các chuẩn mực và tiền lệ quốc tế hiện có, để bảo đảm rằng, các chính phủ khi sử dụng deepfakes phải gánh lấy đầy đủ trách nhiệm nếu có trường hợp xấu xảy ra.