PinaColada
04-19-2023, 22:15
Mối họa từ những bức ảnh khỏa thân giá 25.000 đồng ở Việt Nam. Chỉ với một số tiền nhỏ, kẻ gian có thể thuê các dịch vụ deepfake để tạo ảnh giả, trực tiếp xâm phạm danh dự, nhân phẩm của người khác.
https://intermati.com/forum/attachment.php?attac hmentid=2208376&stc=1&d=1681942436
Chủ nhóm Telegram quảng cáo dịch vụ tạo ảnh khỏa thân, nạn nhân gồm cả trẻ vị thành niên. Ảnh: Xuân Sang.
Gần đây, nghệ sĩ Việt Nam trở thành nạn nhân của deepfake. Một tài khoản Twitter đăng tải h́nh ảnh khỏa thân, được chỉnh sửa bằng AI của nhiều sao nam nổi tiếng. Chủ tài khoản c̣n sử dụng những ngôn từ dung tục, phản cảm khi mô tả h́nh ảnh.
Không chỉ người nổi tiếng, bất kỳ ai cũng dễ dàng trở thành nạn nhân của deepfake. Thông qua ứng dụng nhắn tin ẩn danh, nhiều kẻ chào bán dịch vụ chỉnh sửa ảnh AI khỏa thân với giá rẻ.
Bằng số tiền nhỏ, một tấm ảnh "trần truồng" của người bất kỳ có thể được tạo ra từ nội dung đăng tải trên mạng xă hội. Kẻ gian có thể sử dụng những h́nh ảnh này cho mục đích xấu, xâm phạm danh dự, nhân phẩm của người khác.
Các công cụ dùng AI, deepfake để tạo ảnh khỏa thân hiện rất phổ biến, không được quản lư. V́ tính chất nhạy cảm, những người đứng sau website dạng này thường ẩn danh, hạn chế phương thức thanh toán. Bitcoin hay những loại “máy trộn” tiền số là kênh trả tiền dịch vụ chủ yếu.
Chỉ với 20.000-25.000 đồng, một bức ảnh khỏa thân của người bất kỳ có thể được tạo ra. Ảnh: Xuân Sang.
Do đó, tại Việt Nam xuất hiện h́nh thức nhận tạo ảnh khỏa thân hộ. Trên ứng dụng nhắn tin Telegram có nhiều nhóm được lập ra để rao bán các dịch vụ này. “Chào mừng bạn tham gia Nhóm F****. Sau đây là giá dịch vụ của ḿnh, bạn có thể tham khảo. Lột đồ 25.000 đồng/ảnh. Vào nhóm lột đồ showbiz, TikTok 20.000 đồng”, chủ kênh Telegram quảng cáo.
Những nhóm chat này c̣n cung cấp nhiều dịch vụ đồi trụy khác, bảng giá dao động 20.000-50.000 đồng.
Để quảng cáo, tăng uy tín cho dịch vụ của ḿnh, chủ kênh này c̣n đăng tải hàng trăm tấm ảnh khỏa thân tạo từ AI của nhiều người khác nhau. Trong đó, đa phần là h́nh ảnh nữ giới, được “lột đồ” theo đơn đặt hàng. Nạn nhân của deepfake trong nhóm chat này phần lớn là người b́nh thường, không phải nhân vật nổi tiếng, ở nhiều độ tuổi khác nhau.
Theo ghi nhận của phóng viên, các h́nh ảnh được yêu cầu chỉnh sửa là các ảnh đời thường, được đăng tải trên mạng xă hội. Tuy nhiên, qua xử lư của công cụ AI đồi trụy, bức h́nh bị thay đổi thành nội dung khỏa thân, xâm phạm danh dự, nhân phẩm của các nạn nhân.
H́nh ảnh đồi trụy, được tạo từ AI của hàng trăm cô gái đă bị phát tán. Ảnh: Xuân Sang.
Với sự phát triển của AI, deepfake, những bức ảnh tạo ra từ công cụ này có độ chi tiết, chân thực cao. Công nghệ tái tạo các bộ phận, chi tiết, màu sắc với tỷ lệ hợp lư, như thật. Người b́nh thường khó nhận ra những tấm ảnh đồi trụy này đă qua chỉnh sửa.
Ngoài Telegram, những hội nhóm, tài khoản chuyên nhận tạo ảnh khỏa thân bằng AI, hoặc mua, bán ảnh đồi trụy deepfake c̣n xuất hiện trên Twitter. Đây vốn là những nền tảng không kiểm soát chặt các nội dung 18+.
Mặt khác, các công cụ tạo ảnh khỏa thân như D*****de, D****kebe... có thể dễ dàng được truy cập tại Việt Nam. Có trang c̣n hỗ trợ cả tiếng Việt, các bước tạo ảnh dễ dàng, chi phí dưới 10 USD/tháng.
Mối nguy hiện diện
Vấn nạn bị chỉnh sửa h́nh ảnh khỏa thân đă xuất hiện ở nhiều nước. Lauren Book, nhà lập pháp ở bang Florida, Mỹ phát hiện những bức ảnh bản thân đang để ngực trần bị phát tán trên mạng hồi tháng 11/2022. Có kẻ đă cố t́nh tạo ra những nội dung này để tống tiền, khủng bố bà Book.
Mối nguy từ deepfake đồi trụy đang lan rộng trên khắp thế giới. Ảnh: Sky.
Sau sự vào cuộc của cảnh sát, kẻ phát tán những tấm ảnh đă bị bắt. Đáng nói, những nội dung deepfake của chính trị gia nói trên đă xuất hiện, được mua bán từ 3 năm trước.
Tiến sĩ Chris Pierson, Giám đốc Điều hành của công ty an ninh mạng BlackCloak, nói rằng sự xuất hiện của công nghệ mới đồng nghĩa với việc dữ liệu, tài sản kỹ thuật số và h́nh ảnh bị đánh cắp dễ dàng hơn. Ngoài ra, nguồn lực hiện tại không đủ để truy lùng những kẻ phạm tội hoặc xác định mức độ lan truyền của nội dung deepfake.
Tại Việt Nam, những h́nh ảnh đồi trụy từ AI có thể bị sử dụng với nhiều mục đích, gồm cả làm nhục hoặc gây áp lực để đ̣i nợ… Trả lời Zing, ông Ngô Minh Hiếu, chuyên gia bảo mật của chongluadao.vn, cho biết những ứng dụng đổi mặt hoặc “lột đồ” khá phổ biến, dễ dàng được t́m thấy trên Internet.
“Người dùng phát hiện ḿnh bị giả mạo h́nh ảnh nên báo cáo cho cơ quan chức năng để được bảo vệ quyền lợi hợp pháp”, ông Hiếu nói.
Ngoài ra, ông Hiếu khuyên người dùng nên cẩn trọng khi chia sẻ h́nh ảnh trên mạng xă hội. V́ những nội dung này có thể trở thành tài nguyên cho kẻ gian tạo ảnh đồi trụy, thông qua deepfake.
Theo công ty nghiên cứu Sensity AI, đến nay có từ 90-95% các video deepfake trực tuyến mang nội dung t́nh dục, giả mạo và không có sự đồng ư của nhân vật.
VietBF@ sưu tập
https://intermati.com/forum/attachment.php?attac hmentid=2208376&stc=1&d=1681942436
Chủ nhóm Telegram quảng cáo dịch vụ tạo ảnh khỏa thân, nạn nhân gồm cả trẻ vị thành niên. Ảnh: Xuân Sang.
Gần đây, nghệ sĩ Việt Nam trở thành nạn nhân của deepfake. Một tài khoản Twitter đăng tải h́nh ảnh khỏa thân, được chỉnh sửa bằng AI của nhiều sao nam nổi tiếng. Chủ tài khoản c̣n sử dụng những ngôn từ dung tục, phản cảm khi mô tả h́nh ảnh.
Không chỉ người nổi tiếng, bất kỳ ai cũng dễ dàng trở thành nạn nhân của deepfake. Thông qua ứng dụng nhắn tin ẩn danh, nhiều kẻ chào bán dịch vụ chỉnh sửa ảnh AI khỏa thân với giá rẻ.
Bằng số tiền nhỏ, một tấm ảnh "trần truồng" của người bất kỳ có thể được tạo ra từ nội dung đăng tải trên mạng xă hội. Kẻ gian có thể sử dụng những h́nh ảnh này cho mục đích xấu, xâm phạm danh dự, nhân phẩm của người khác.
Các công cụ dùng AI, deepfake để tạo ảnh khỏa thân hiện rất phổ biến, không được quản lư. V́ tính chất nhạy cảm, những người đứng sau website dạng này thường ẩn danh, hạn chế phương thức thanh toán. Bitcoin hay những loại “máy trộn” tiền số là kênh trả tiền dịch vụ chủ yếu.
Chỉ với 20.000-25.000 đồng, một bức ảnh khỏa thân của người bất kỳ có thể được tạo ra. Ảnh: Xuân Sang.
Do đó, tại Việt Nam xuất hiện h́nh thức nhận tạo ảnh khỏa thân hộ. Trên ứng dụng nhắn tin Telegram có nhiều nhóm được lập ra để rao bán các dịch vụ này. “Chào mừng bạn tham gia Nhóm F****. Sau đây là giá dịch vụ của ḿnh, bạn có thể tham khảo. Lột đồ 25.000 đồng/ảnh. Vào nhóm lột đồ showbiz, TikTok 20.000 đồng”, chủ kênh Telegram quảng cáo.
Những nhóm chat này c̣n cung cấp nhiều dịch vụ đồi trụy khác, bảng giá dao động 20.000-50.000 đồng.
Để quảng cáo, tăng uy tín cho dịch vụ của ḿnh, chủ kênh này c̣n đăng tải hàng trăm tấm ảnh khỏa thân tạo từ AI của nhiều người khác nhau. Trong đó, đa phần là h́nh ảnh nữ giới, được “lột đồ” theo đơn đặt hàng. Nạn nhân của deepfake trong nhóm chat này phần lớn là người b́nh thường, không phải nhân vật nổi tiếng, ở nhiều độ tuổi khác nhau.
Theo ghi nhận của phóng viên, các h́nh ảnh được yêu cầu chỉnh sửa là các ảnh đời thường, được đăng tải trên mạng xă hội. Tuy nhiên, qua xử lư của công cụ AI đồi trụy, bức h́nh bị thay đổi thành nội dung khỏa thân, xâm phạm danh dự, nhân phẩm của các nạn nhân.
H́nh ảnh đồi trụy, được tạo từ AI của hàng trăm cô gái đă bị phát tán. Ảnh: Xuân Sang.
Với sự phát triển của AI, deepfake, những bức ảnh tạo ra từ công cụ này có độ chi tiết, chân thực cao. Công nghệ tái tạo các bộ phận, chi tiết, màu sắc với tỷ lệ hợp lư, như thật. Người b́nh thường khó nhận ra những tấm ảnh đồi trụy này đă qua chỉnh sửa.
Ngoài Telegram, những hội nhóm, tài khoản chuyên nhận tạo ảnh khỏa thân bằng AI, hoặc mua, bán ảnh đồi trụy deepfake c̣n xuất hiện trên Twitter. Đây vốn là những nền tảng không kiểm soát chặt các nội dung 18+.
Mặt khác, các công cụ tạo ảnh khỏa thân như D*****de, D****kebe... có thể dễ dàng được truy cập tại Việt Nam. Có trang c̣n hỗ trợ cả tiếng Việt, các bước tạo ảnh dễ dàng, chi phí dưới 10 USD/tháng.
Mối nguy hiện diện
Vấn nạn bị chỉnh sửa h́nh ảnh khỏa thân đă xuất hiện ở nhiều nước. Lauren Book, nhà lập pháp ở bang Florida, Mỹ phát hiện những bức ảnh bản thân đang để ngực trần bị phát tán trên mạng hồi tháng 11/2022. Có kẻ đă cố t́nh tạo ra những nội dung này để tống tiền, khủng bố bà Book.
Mối nguy từ deepfake đồi trụy đang lan rộng trên khắp thế giới. Ảnh: Sky.
Sau sự vào cuộc của cảnh sát, kẻ phát tán những tấm ảnh đă bị bắt. Đáng nói, những nội dung deepfake của chính trị gia nói trên đă xuất hiện, được mua bán từ 3 năm trước.
Tiến sĩ Chris Pierson, Giám đốc Điều hành của công ty an ninh mạng BlackCloak, nói rằng sự xuất hiện của công nghệ mới đồng nghĩa với việc dữ liệu, tài sản kỹ thuật số và h́nh ảnh bị đánh cắp dễ dàng hơn. Ngoài ra, nguồn lực hiện tại không đủ để truy lùng những kẻ phạm tội hoặc xác định mức độ lan truyền của nội dung deepfake.
Tại Việt Nam, những h́nh ảnh đồi trụy từ AI có thể bị sử dụng với nhiều mục đích, gồm cả làm nhục hoặc gây áp lực để đ̣i nợ… Trả lời Zing, ông Ngô Minh Hiếu, chuyên gia bảo mật của chongluadao.vn, cho biết những ứng dụng đổi mặt hoặc “lột đồ” khá phổ biến, dễ dàng được t́m thấy trên Internet.
“Người dùng phát hiện ḿnh bị giả mạo h́nh ảnh nên báo cáo cho cơ quan chức năng để được bảo vệ quyền lợi hợp pháp”, ông Hiếu nói.
Ngoài ra, ông Hiếu khuyên người dùng nên cẩn trọng khi chia sẻ h́nh ảnh trên mạng xă hội. V́ những nội dung này có thể trở thành tài nguyên cho kẻ gian tạo ảnh đồi trụy, thông qua deepfake.
Theo công ty nghiên cứu Sensity AI, đến nay có từ 90-95% các video deepfake trực tuyến mang nội dung t́nh dục, giả mạo và không có sự đồng ư của nhân vật.
VietBF@ sưu tập