25/09/2023 12:12 GMT+7

Khoe ảnh ghép mặt, nguy cơ xuất hiện trong clip sex

Đông đảo người dùng mạng xã hội tại Việt Nam đang hào hứng với các trò vui ghép mặt vào các nhân vật nổi tiếng thông qua các ứng dụng trí tuệ nhân tạo (AI) mà không biết rằng qua đó những hiểm họa có thể xảy đến với họ bất kỳ lúc nào.

Đông đảo người dùng mạng xã hội tại Việt Nam đang hào hứng với các trò vui ghép mặt vào các nhân vật nổi tiếng thông qua các ứng dụng AI 

Đông đảo người dùng mạng xã hội tại Việt Nam đang hào hứng với các trò vui ghép mặt vào các nhân vật nổi tiếng thông qua các ứng dụng AI

Một ngày đầu tháng 8, chị H. (TP.HCM) hoang mang khi nhận tin nhắn một clip sex của mình đang bị nhiều người chia sẻ nhau trên mạng, kèm theo đó là những lời bình phẩm...

Hiểm họa deepfake từ thú vui ghép mặt và nguy cơ xuất hiện trong clip sex

Ghép mặt người khác vào clip sex

"Khi xem, tôi phát hiện ngay nhân vật nữ trong clip không phải là tôi, nhưng khuôn mặt thì đúng là của tôi. Tôi biết rằng mình đã bị ai đó chơi xấu bằng cách ghép mặt vào video sex kia", chị H. cho biết và tỏ ra vô cùng lo sợ.

"Không biết bao nhiêu người quen đã xem clip kia và đang nghĩ đấy là tôi. Tôi không dám đăng bài lên Facebook để thanh minh vì lo càng khiến thêm nhiều người tò mò tìm xem video", chị H. chia sẻ.

Chị H. cho biết thường xuyên đăng các hình ảnh, video cá nhân lên các mạng xã hội và cũng rất tích cực sử dụng những ứng dụng ghép mặt vào các hình ảnh hay video người nổi tiếng hoặc biến thành nhân vật hoạt hình. Tuy nhiên, giờ đi đâu chị H. cũng có cảm giác mình bị săm soi.

"Nhiều lúc tôi như bị stress nặng, không dám đi làm. Tôi đã phải liên tục đi bác sĩ để điều trị tâm lý", chị H. cho biết.

Trong khi đó, trên một diễn đàn chuyên về phim ảnh trên mạng, chủ đề "Clip dùng AI ghép mặt em người yêu cũ" thu hút bình luận của hàng chục nghìn thành viên. Hàng loạt yêu cầu nhờ ghép mặt "em người yêu cũ", ngôi sao này, ca sĩ nọ... vào các video sex nhanh chóng được "đặt hàng".

Lướt qua, chúng tôi nhanh chóng nhận ra ngay khuôn mặt của một số người nổi tiếng đã được ghép như thật vào các video trên mạng. Điều đáng nói là việc ghép mặt diễn ra cực kỳ nhanh chóng, không phải trông chờ kỹ năng "chỉnh sửa Photoshop" như trước đây. Kết quả cho video chân thật như không hề ghép.

Theo tìm hiểu của Tuổi Trẻ, hiện đang có khá nhiều ứng dụng AI có chức năng cho phép người dùng dễ dàng ghép mặt bất kỳ ai vào các video mong muốn như Face Swapper, Snap Face Change, Snap, Face Switcher Bot...

Cách sử dụng khá đơn giản: người dùng cung cấp cho ứng dụng hình ảnh nhân vật mình muốn ghép, càng nhiều hình ảnh với nhiều góc độ càng giúp khuôn mặt ghép trở nên khớp với nhân vật trong hình ảnh hoặc video. Người dùng sẽ nhận được thành phẩm chỉ sau vài chục giây cho đến vài phút.

Cần thận trọng khi dùng các ứng dụng "đổi mặt", vì có những hiểm họa khó lương

Cần thận trọng khi dùng các ứng dụng "đổi mặt", vì có những hiểm họa khó lương

Hiểm họa deepfake từ thú vui ghép mặt

Trao đổi với Tuổi Trẻ, ông Đặng Hữu Sơn, nhà sáng lập trợ lý ứng dụng viết nội dung bằng AI LovinBot, cho biết với công nghệ tạo ảnh bằng AI phát triển rầm rộ như hiện nay, người dùng thường bị dụ dỗ bởi các tính năng hấp dẫn của ứng dụng, như khả năng ghép mặt mình vào các video có sẵn để trở thành người mẫu hoặc các nhân vật cổ trang.

"Chỉ cần tải lên 10 - 20 tấm ảnh chụp cận mặt, từ đó mô hình AI sẽ được huấn luyện trên chính khuôn mặt này để dễ dàng ghép vào các sản phẩm khác", ông Sơn cho biết.

Theo ông Sơn, nếu như 5 năm trước, muốn làm một bức ảnh, video deepfake có mục đích xấu thường sẽ mất cả tuần, chất lượng không thực sự tốt, chi phí khá cao.

Nhưng khoảng một năm gần đây, với sự hỗ trợ của các nền tảng miễn phí cho phép chạy các mã nguồn mở AI không cần hạ tầng máy chủ, thời gian huấn luyện mô hình và tạo video chỉ chưa đầy hai tiếng cho một video khoảng 40 giây.

"Điều đáng lo ngại nữa là các bức ảnh hay video ghép khá chân thực, có thể được thực hiện dễ dàng bởi một người không có kiến thức công nghệ", ông Sơn nói.

Bà Hoàng Hường, CEO Công ty công nghệ Unikon, cho rằng bản chất của các ứng dụng này là một dạng thu thập dữ liệu để huấn luyện cho AI.

"Công nghệ deepfake hiện nay rất đáng sợ. Ngoài hình ảnh thì chỉ với vài phút thu âm giọng nói, AI có thể tổng hợp giọng nói giống tới 70 - 80% giọng nói của bạn.

Do đó, với việc người dùng quá dễ dãi với các thông tin trên mạng xã hội (hồ sơ, số điện thoại, hình ảnh, vòng kết nối gia đình, nhật ký...), những đối tượng lừa đảo có thể deepfake nên một nhân dạng với đầy đủ thông tin, hình ảnh, giọng nói và đem nó đi lừa đảo người thân, bạn bè của bạn hoặc sử dụng cho những hành vi, mục đích khác".

Cụ thể hơn, ông Nguyễn Minh Đức, CEO Công ty an ninh mạng CyRadar, cho biết khi cung cấp đủ dữ liệu, deepfake đang tạo ra không ít hiểm họa tiềm tàng cho con người.

"Đầu tiên là các hệ thống xác thực bằng sinh trắc học (giọng nói, khuôn mặt) có thể bị vượt qua. Chẳng hạn cửa nhà bạn dùng nhận diện khuôn mặt có thể bị vượt qua. Thứ hai là deepfake có thể được sử dụng trong các chiến dịch lừa đảo trực tuyến với tỉ lệ thành công có thể cao hơn các phương pháp cũ. Ví dụ tội phạm giả mạo vợ hoặc chồng của bạn để gọi video nhờ bạn chuyển tiền.

Thứ ba, kẻ xấu có thể tạo ra những nội dung làm ảnh hưởng xấu tới các cá nhân hoặc giả mạo những người nổi tiếng để phát ngôn các tuyên bố sai lệch", ông Đức cảnh báo.

Đừng tạo cơ hội cho những kẻ lừa đảo thu thập thông tin trên mạng xã hội (hồ sơ, số điện thoại, hình ảnh, vòng kết nối gia đình, nhật ký...)

Đừng tạo cơ hội cho những kẻ lừa đảo thu thập thông tin trên mạng xã hội (hồ sơ, số điện thoại, hình ảnh, vòng kết nối gia đình, nhật ký...)

Giải pháp: sự cẩn trọng của bạn

Ông Đặng Hữu Sơn nhấn mạnh trong lĩnh vực AI, dữ liệu chính là tài sản lớn và quan trọng nhất. Thế nhưng, gần như 99% người dùng không xem qua điều khoản của ứng dụng, chủ yếu tìm đến các app tạo ảnh để giải trí nhất thời mà không biết ảnh của mình được lưu vĩnh viễn trên máy chủ.

Các điều khoản trên các ứng dụng tạo ảnh AI được xây dựng lên để bảo vệ nhà phát triển, đưa rủi ro về phía người dùng. Việc hình ảnh, video của bạn, của con bạn được công khai một cách đầy đủ trên các mạng xã hội là miếng mồi ngon của các dịch vụ deepfake ghép ảnh để tống tiền, đánh ghen, đe dọa...

Về giải pháp hiện nay, bà Hoàng Hường cho rằng kỹ năng bảo vệ thông tin, hình ảnh cá nhân trở nên cực kỳ quan trọng. Người dùng cần hiểu được những sản phẩm số, ứng dụng mình sử dụng, từ đó giới hạn quyền truy cập hay sử dụng thông tin tới đâu.

"Nhiều nhà điều hành cấp cao của các tập đoàn lớn đã kêu gọi giảm tốc độ hoạt động của AI để ngăn chặn thảm họa. Giống như hầu hết các đột phá công nghệ, AI là con dao hai lưỡi. Chúng ta luôn có thể tận dụng nó miễn là chúng ta biết cách đặt chỉ dẫn an toàn cho những cỗ máy thông minh này", ông Vitaly Kamluk, giám đốc Nhóm nghiên cứu và phân tích toàn cầu (GReAT) khu vực châu Á - Thái Bình Dương của Kaspersky, nói.

"Công nghệ deepfake hiện nay rất đáng sợ. Ngoài việc ghép hình ảnh, tạo video giả, chỉ với vài phút thu âm giọng nói, AI có thể tổng hợp giọng nói giống tới 70 - 80% giọng nói của bạn" - bà Hoàng Hường, CEO Công ty công nghệ Unikon, nói.

Vô tư khoe thông tin, hình ảnh trên mạng: Mồi ngon cho lừa đảoVô tư khoe thông tin, hình ảnh trên mạng: Mồi ngon cho lừa đảo

Khi bạn đang tự hào khoe hình ảnh kèm thành tích học tập của con mình trên Facebook trong niềm ngưỡng mộ đầy like, thả tim của bạn bè xung quanh, hãy cẩn thận vì đó có thể là "quà tặng" cho kẻ lừa đảo.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0
Bình luận (0)
thông tin tài khoản
Được quan tâm nhất Mới nhất Tặng sao cho thành viên