Tổng thống Mỹ Donald Trump chỉnh lại cà vạt, nhìn về phía máy quay và hít một hơi sâu: "Chúng ta sẽ trả đũa Nga với toàn bộ sức mạnh quân sự hiện có, hôm nay nước Mỹ ch♉ính thức bước vào thời kỳ chiến tranh". Ngay lập tức, video được chia sẻ trên hàng nghìn trang Twitter, nhóm WhatsApp và Facebook. Nhóm tin tặc từng xâm nhập mạng lưới điện của Mỹ gây ra sự hỗn loạn ở nhiều thành phố chính là tác giả của video deepfake này. Nhưng đã quá trễ. Hàng triệu người đã nghe tin Trump đang phát động chiến tranh và gây ra phản ứng dữ dội trên toàn cầu.
Câu chuyện trên chỉ là viễn cảnh mà các chuyên gia bảo mật vẽ lên, nhưng hoàn t꧃oàn có thể xảy ra nếu công nghệ deepfake được sử dụng cho các mục đích bất chính.
Nina Schick, tác giả cuốn Deepfakes and Infocalypse, cho biết: "Một vide𒆙o như vậy, ngay cả khi là giả, cũng có thể lan truyền trong vòng vài giâ𒐪y".
"Bạn hoàn toàn có thể dự đoán viễn cảnh sẽ hỗn loạn như thế nào. Chúng ta đã thấy ở Mỹ nhiều kẻ đã lợi dụng bạo loạn để cướp hàng hóa và giết người. Nếu Nga muốn tạo ra một video deepfake như thật, trong đó ông Trump nói sẽ tham chi𒀰ến, họ hoàn toàn có thể làm điều 𒁃đó ngay bây giờ", Nina Schick nói.
Cho tới gần đây, việc thao túng các nội dung số như video hay âm thanh vẫn chỉ giới hạn cho mục đích nghiên cứu trong các phòng thí nghiệm, hay phổ biến hơn là các clip 18+ được ghép khuôn mặt của diễn viên nổi tiếng bị lan truyền trên cáไc nhóm chia sẻ phim khiêu dâm trực tuyến.
Công nghệ deepfake chưa được quản lý chặt chẽ đang tạo ra cơ hội cho nhiều kẻ xấu sử dụng cho mục đích bạo loạn. Dù chưa đến mức gây ra hậu quả trên quy mô toàn cầu, các video do tạo ra từ deepfake được cho là nguyên nhân dẫn tới vụ bê bối ch𓄧ính trị gần đây ở Malaysia, hay cuộ🌺c đảo chính quân sự ở cộng hòa Gabon.
Tháng trước, Facebook thông báo họ đã ngăn chặn thành 𝔍công một chiến dịch của Cơ quan Nghiên cứu Internet Nga (IRA) nhằm can thiệp vào chính trị Mỹ và Anh thông qua một trang web tin tức có tên là PeaceData. Chiến thuật của trang web khá quen thuộc: Tập trung vào căng thẳng chủng tộc và biểu tình dân quyền ở Mỹ. Nhưng có một điểm mới: các video phỏng vấn của PeaceData dường như do AI tạo ra.
Các chuyên gia l🎀o ngại deepfake sẽ trở thành vũ khí tấn công với mục đích chính trị tại các nước có dân trí thấp, chưa trang bị đủ kiến thức về kỹ thuật số. Thông tin cố tình được làm cho sai lệch có thể dẫn đến biểu tình, bạo động, gây bất ổn.
Mới đây nền tảng tin tức Epoch Times tại Mỹ đã bị cá♓o buộc âm mưu gián điệp do sử dụng các tài khoản Facebook và LinkedIn để kết bạn với những người trong chính quyền Washington. Những tài khoản này hầu hết đều sử dụng khuôn mặt không có thật, tạo ra bởi AI, để qua mặt hệ thống kiểm duyệt của các mﷺạng xã hội.
Trong khi đó, deepfake đang được ngành công nghiệp phim của Hollywood đánh giá như một giải pháp để tạo ra các hiệu ứng trên khuôn mặt nhân vật với giá thành thấp hơn so với CGI.
Trong bộ phim tài liệu Welcome to Chechnya của HBO, deepfake đã được sử dụng nhằm giấu đi danh tính thật của những nạn nhân sống sót sau các cuộc tấn công nhắm vào cộng đồng LGB🧸T ở Chechnya. Công nghệ này giúp tha🃏y thế phương pháp truyền thống, như che mặt hoặc làm mờ khuôn mặt tránh lộ danh tính. Ngoài ra, nó cũng cho phép khán giả thấy được các biểu cảm và sắc thái trên khuôn mặt của nạn nhân từ đó cảm thông hơn với họ.
Deepfake cũng đang trở thành một trò giải trí cho giới trẻ. Các công nghệ tương tự deepfake trên các ứng dụng, như Scarface hay FaceApp, cho phép người dùng hoán đổi khuôn mặt với những diễn🦂 viên nổi tiếng như Jim Carrey hay Al Pacino.
"Chỉ với khoảng 20 USD, bạn đã có thể thuê ai đó trên mạng tạo ra một video deepfake cho riêng mình. Thậm chí trên YouTube còn có nhiều video hướng dẫn sử dụng các phần mề🗹m miễn phí và mã nguồn mở để tự tạo ra video giả mạo", Schick nói.
Victor Riparbelli, CEO của Synthesia tại London, một trong những công ty nghiên cứu deepfake hàng đầu thế giới, cho biết công ty đang cung cấp dịch vụ video đào tạo nhân viên cho các doanh nghiệp có chi nhánh tại nhiều quốc gia trên thế giới. Các video sử dụngꦉ công nghệ deepfake cho phép người thuyết trình nói bằng bất kỳ ngôn ngữ nào. Bất kỳ ai cũng có thể thử trải nghiệm công nghệ này bằng cách đánh ra đoạn văn để người thuyết trình ảo đọc. Kết quả có thể rất đáng kinh ngạc.
Schick nói: "Thật ngây thơ khi nghĩ công nghệ của các công ty tư nhân sẽ không đư🀅ợc sử dụng cho mục đích xấu. Nó có thể được sử dụng cho mục đích tốt, nhưng nó cũng hoàn toàn có khả năng bị vũ khí hóa".
Cho dù deepfake chắc chắn sẽ rơi vào tay tội phạm, khả nă🧜ng để deepfake tạo ra một video hoàn toàn giống thật vẫn còn là một chặng đường dài và đó có thể là cách để chống lại sự trỗi dậy của chúng.
"Vẫn còn khá nhiều rào cản kỹ thuật để thay đổi âm thanh xuất hiện trong video. Đầu tiên là giọng nói, việc AI có thể sao chép cách phát âm của một người vẫn thực sự rất khó thực hiện. Nếu tôi cố tình thay đổi nội dung lời nói trong một video, ngôn ngữ cơ th🦋ể và nội dung truyền đạt sẽ không ăn nhập với nhau, chưa kể tiếng ồn xung quanh cũng không còn".
Một số công cụ đã được phát triển để giải quyết vấn nạn deepfake trước cuộc bầu cử Tổng thống Mỹ năm 2020. Microsoft gần đây đã công bố một hệ thống🏅 phân tích video và ảnh nhằm xác định khả năng chúng đã bị làm giả. Adobe cũng đã phát triển một công cụ cho phép người sáng tạo đính kèm mã ghi nhận tác giả vào nội dung để chứng minh nội dung đó khônﷺg phải là giả mạo.
Tuy nhiên, Schick nói: "Cuối cùng, đây không hẳn là vấn đề về công nghệ... Thông tin sai lệch đã xuất hiện từ rất xưa cùng sự hình thành của lịch sử nhân loại, bây giờ, công nghệ chỉ đang khiến tin giả𝓡 lan truyền nhanh hơn thôi".
Đăng Thiên (theo Telegraph)