Cô hoang mang bở💃i chưa bao giờ trong đời cô từng chụp hay chia sẻ những bức ảnh nhạy cảm. Hẳn phải có sự nhầm lẫn nào đó. Cuối cùng, sau khi thu hết can đảm để mở đường link,🦂 cô bỗng cảm thấy sợ hãi và nhục nhã.
Mort, nhà thơ kiêm phát thanh viên ở Sheffield (Anh), sốc bởi khuôn mặt trong ảnh đúng là cô. Ai đó cố tình lấy những tấm hình chụp từ năm 2017 đến 2019 mà cô đăng𝓀 trên Facebook, như ảnh đi nghỉ mát, ảnh mang thai và thậm chí ảnh thời niên thiếu. Sau đó, người này ghép khuôn mặt cô thành ảnh khiêu dâm và bạo lực. Một số tấm được cắt ghép vụng về, nhưng một số chân thực đến rùng mình.
Khi tìm hiểu điều gì đang diễn ra 𝓡với mình, Mort học được một thuật ngữ mới: deepfake, dùng để chỉ những nội dung như ảnh, video, văn bản, âm thanh được tạo r✨a, chỉnh sửa, cắt ghép... bằng các công cụ AI.
"Bạn cảm thấy bất lực. Bị trừng phạt vì là một phụ nữ có tiếng nói nhất định trước công chúng. Những bức ảnh như muốn nói: Nhìn đi, chúng tôiജ luôn có thể làm điều đó với cô", Mort chia sẻ.
Trong sự giận dữ🔴, cô muốn truy tìm kẻ tấn🍌 công. Cô gọi cảnh sát, nhưng họ nói không thể làm được gì. Cô định không sử dụng Internet nữa, nhưng không thể vì còn liên quan tới công việc của mình.
Mort hoàn toàn không đoán được ai đã làm điều đó. Và rồi cô sợ hãi khi nghe nói đó là người mà cô thân thiết. Cô bắt đầu nghi ngờ mọi người, đau đớn hơn là cô nghi cả chồng cũ. Sau khi chia tay, hai người vẫn là bạn tốt, nhưng kẻ tấn công đã sử dụng tên chồng cũ của cô làm biệt danh. "Dù đó không phải là anh ấy, điều đáng buồn là tôi bắt đầu hoài nghi toàn bộ các mối quan hệ của🌃 mình", cô nói.
Dù được cảnh báo nhiều về nguy cơ tác động đến chín♍h trị, phần lớn deepfake hiện được sử dụng để nhắm vào phụ nữ. Công ty nghiên cứu Sensity AI đã theo dõi các video deepfake trên mạng từ𝓰 tháng 12/2018 nhận thấy hơn 90% trong số đó có nội khiêu dâm.
"Đây là một dạng bạo lực nhằm vào phụ nữ", Adam✃ Dodge, sáng lập EndTAB, tổ chức phi lợi nhuận về giáo dục, nhận định. "Deepfake là công cụ hoàn hảo cho ai đó đang tìm cách sử ♛dụng quyền lực và kiểm soát nạn nhân".
Một số nạn nhân thậm chí phải đổi tên, xóa tất cả tài🌞 khoản của họ trên Internet. Họ vẫn luôn lo sợ rằng bất cứ lúc nào, những hình ảnh đó có thể xuất hiện trở lại và một lần nữa hủy hoại cuộc sống của họ.
Từ tháng 12/2017, Samantha Cole, phóng viên của Motherboard, phát hiện một người dùng Reddit với biệt danh "deepfakes" sử dụng công nghệ do giới nghiên cứu AI phát triển để hoán đổi, ghép khuôn mặt của những người nổi tiếng nữ vào video khiêu dâm. Cole cố gắng cảnh báo độc giả: Rồi những phụ nữ khác sẽ là nạn nhân tiếp t🍌꧙heo.
Lời cảnh báo cũng thu hút sự chú ý nhꦺất định, nhưng chủ yếu là vì sự mới mẻ của công nghệ. Còn đa số vẫn nghĩ đó là câu chuyện diễn ra ở đâu đó xa vời chứ không xả🌜y ra với mình.
Deepfake hiện không còn thô sơ như bốn năm trước. Các công cụ AI hoàn toàn có th🎐ể cho ra đời video giả mạo trông chân thực, mắt thường khó phân biệt được trừ khi được cảnh báo trước. Thậm chí, đã xuất hiện công cụ biến ảnh chụp thành video sống động, hay một bot tự động trên Tel﷽egram có khả năng "lột" quần áo khỏi ảnh phụ nữ. Từ đó, việc tạo ra ảnh khỏa thân của bất cứ phụ nữ nào trở nên dễ dàng, miễn là có ảnh khuôn mặt của người đó.
Giorgio Patrini, Giám đốc điều hành Sensity AI, cho biết phạm vi lạm dụ🌊ng đang ngày càng tăng, không chỉ nhắm vào người nổi tiếng mà cả người bình thường. Tính riêng bot "lột đồ" trên Telegram, Sensity ghi nhận ít nhất 100.000 nạn nhân, trong đó có cả các bé gá🐎i vị thành niên.
Nhiều người nghĩ deepfake ra đời chỉ đểꩲ phô diễn công nghệ hoặc giải trí, phục vụ các mục đích vô hại như hoán đổi khuôn mặt. Họ có thể vô tư ghép mặt mình hoặc bất cứ ai vào trong một đoạn pꦰhim, thay cho diễn viên nổi tiếng. Tuy nhiên, mọi thứ thay đổi khi khuôn mặt bạn bị ghép vào video khiêu dâm.
Trong bối cảnh đại dịch, xu hướng này càng đáng lo ngại khi nhiều người phải ở nhà và có thời gian rảnh lên mạng. "Mọi người có nhiều thời gian hơn để tìm hiểu và học cách sử dụng một số công nghệ kiểu này. Như thể một đợt sóng lớn sắp ập đến", Sophie Mortimer, quản lý đường dây trợ giúp Revenge Porn phi lợi 🅺nhuận ở Anh, cảnh báo.
Karolina Mania, một học giả pháp lý, cho biết gần như chưa có nước nào cấm nội dung khiêu dâm giả mạo ở cấp quốc gia. Ví dụ ở Mỹ, 46 bang cấm phát tán ảnh hoặc video khiêu dâm của các cá nhân💎 mà chưa có sự đồng tình của họ. Tuy nhiên, mới chỉ có lệnh cấm của Virginia và California bao gồm cả các nội dung giả mạo. Ở Anh, lan truyền hình ảnh khiêu dâm bị cấm, nhưng luật pháp không áp dụng cho các nội dung bị làm giả.
Do đó, các nạn nhân của deepfake gần như không được hỗ trợ, trừ trong các tình huống đặc biệt. Chẳng hạn, nếu khuôn mặt nạn nhân được lấy từ ảnh bản quyền, kẻ phát tán có thể bị phạt theo luật sở hữu trí tuệ. Hoặc nếu đủ căn cứ, họ có thể kiện về hành vi quấy rối. Tuy nhiên, thu thập đủ bằng chứng ꦫnhư vậy thường rất khó.
Điều này đúng với Mort. Cô chỉ biết về những bức ảnh ghép khi chúng đã tồn tại trên mạng hơn một năm. Kẻ lạm dụng cũng không nêu danh tính của cô, nên khó có thể nói💛 đó là hành vi quấy rối có chủ đích.
Việc chưa có luật về deepfake, theo Dodge, là do đây chưa hẳn là một công nghệ phổ biến và khoảng 80% người dùng Internet vẫn chưa biết ♏deepfake là gì. Tuy vậy, tín hiệu tích cực là sau nhiều năm các nhà hoạt động đấu tranh để bảo vệ các nạn nhân của bạo lực tình dục dựa trên hình ảnh, cuối cùng deepfake cũng đang buộc các nhà lập pháp ở nhiều nước phải chú ý tới.
Châu An (theo Technology Review)