Cuộc chiến chống lại “DEEPFAKES”

12:53 01/12/2019
Sau fakes new (tin giả), giờ đây trên mạng lại tràn ngập các deepfakes (tạm dịch: tin giả sâu). Đó là những video clip sử dụng những công nghệ tiên tiến nhất của trí tuệ nhân tạo để thay đổi gương mặt và các giọng nói của bất cứ ai nếu muốn. Chúng ta giờ đây không còn khả năng phân biệt được giữa những hình ảnh thật và các hình ảnh giả tạo được dàn dựng. Nhiều nước đã xem deepfake như là “một mối đe dọa cho an ninh quốc gia”.


Deepfake tràn ngập lĩnh vực chính trị

Trong một phòng làm việc sang trọng, Matteo Renzi, cựu Thủ tướng Italia, người sáng lập đảng Italia Viva đang ngồi trước ống kính truyền hình. Một bức tranh sơn dầu treo trên tường phía tay phải ông ta, bên trái là một bức tượng bán thân mang phong cách thời kỳ Phục Hưng.

Một nhân viên kỹ thuật đang cúi lom khom phía trước máy ghi hình để kiểm tra hệ thống âm thanh,  Matteo Renzi chồm người về phía trước vẫy chào và nói thì thào một điều gì đó với một nhân vật trong khán phòng, phía sau máy thu hình. Sau đó, ông ta quay sang các nhân vật chính trị đang có mặt: Giuseppe Conte, Thủ tướng đương nhiệm, Luigi Di Maio, Phó Thủ tướng, Carlo Calenda, thành viên Nghị viện châu Âu. Thay vì hồ hởi bắt tay, Matteo đã ra dấu với họ bằng một cử chỉ tục tĩu biểu thị thông qua những ngón tay trên bàn tay, trên môi là một nụ cười giễu cợt.

79 tuổi, Nancy Pelosi, Chủ tịch Hạ viện Mỹ, là nạn nhân của một deepfakes, một video bị dàn dựng, trong đó Pelosi thể hiện sự già yếu, say xỉn và nói năng thiếu mạch lạc.

Rất nhiều người Italia đã bày tỏ sự phẫn nộ trên Twitter sau khi xem đoạn clip trên. Nhưng đó không phải là Matteo Renzi “thực”, người đã có những lời nói và hành động trên. Nếu xem kỹ, ta sẽ thấy giọng nói có sự khác biệt và các cử chỉ cũng như vậy. Mặt ông ta cũng trơn bóng một cách lạ lùng.

Các chi tiết trên khuôn mặt của ông cựu Thủ tướng đã được ghép vào khuôn mặt của một diễn viên hài bằng một phần mềm chuyên dụng. Cảnh này được dàn dựng để phát trong chương trình  Striscia la notizia, một chương trình hài của một kênh truyền hình. Video này chỉ là một trong vô vàn ví dụ về sự bùng nổ của các deepfake những video giả tạo được dàn dựng phục vụ cho các mục đích chính trị.

Chỉ mới cách đây vài năm, các deepfakes này là hoàn toàn mới mẻ, được các nhà lập trình nghiệp dư tạo ra cho các mục đích khác nhau. Ngày nay, chúng đã trở nên rất thông dụng và là một vũ khí rất hữu hiệu khi người ta muốn triệt hạ một ai đó.

Đã có không ít xí nghiệp bị phá sản khi người ta tung ra các video giả mạo về lãnh đạo của nó, những clip báo động giả về một ngân hàng nào đó có thể làm thị trường cổ phiếu chao đảo. Trước thềm các cuộc bỏ phiếu quan trọng sắp diễn ra ở Mỹ và Anh, những deepfakes này hoàn toàn có khả năng tạo ra một vật cản che khuất đi sự thật cho những ai muốn tìm hiểu chúng.

Vidya Narayananan, nhà nghiên cứu về Internet của Đại học Oxford nhấn mạnh: “Các chuyên gia đều thống nhất ở một điểm: tin giả sâu đã tấn công vào gót chân Asin của con người, đó là niềm tin vào những gì chính mắt mình trông thấy. Liệu trong tương lai, chúng ta có còn dám tin vào những gì tận mắt nhìn thấy nữa hay không?”.

Diễn viên điện ảnh nổi tiếng Emma Watson là nạn nhân của hàng loạt hình ảnh deepfakes, trong đó khuôn mặt cô được gắn với những cơ thể khỏa thân trong các tư thế gợi dục.

Ví dụ gây ồn ào nhất về deepfakes trong thời gian gần đây là video quay chậm về bài diễn thuyết của bà Nancy Pelosi, Chủ tịch Hạ viện Mỹ, nhà lãnh đạo của đảng Dân chủ.

Clip này đã được chỉnh sửa để sao cho Nancy Pelosi xuất hiện trong hình ảnh một người già nua, say xỉn và tỏ ra có dấu hiệu về rối loạn tâm thần. Rudy Giuliani, luật sư riêng của Tổng thống Donal Trump và nhiều thành viên đảng Cộng hòa đã hả hê đưa lên trang cá nhân clip này nhưng sau đó phải lẳng lặng xóa đi nhưng lờ đi không một lời cải chính.

GAN- công nghệ nền tảng của deepfakes

Công nghệ nền tảng của deepfakes được biết đến dưới cái tên GAN (Generative Adversarial Netwotks - tạm dịch: Mạng nghịch cảnh). Năm 2014, nhà nghiên cứu trẻ J.Goodfellow đã nghĩ tới một phương pháp để các trí tuệ nhân tạo hiểu được các hình ảnh không cần tới sự can thiệp của con người.

Ý tưởng hết sức đơn giản: một phần mềm để tạo ra những hình ảnh thực từ một đối tượng nào đó, một phần mềm độc lập khác kiểm tra và đánh giá xem hình ảnh đó có “thực” hay không. Quá trình tương tác qua lại sẽ nhanh chóng nâng cao chất lượng của deepfakes này.

Năm 2019 đã chứng kiến sự bùng nổ các ứng dụng có khả năng chế tạo các deepfakes thuận tiện và nhanh chóng: Đó là ứng dụng DeepNude ra mắt tháng 6 và ZAO ra mắt vào tháng 8.

DeepNude cho phép người dùng tạo ra những bức ảnh phụ nữ khỏa thân từ hình ảnh thực của nhân vật có mặc quần áo, còn ZAO cho phép người sử dụng gắn khuôn mặt mình vào thay thế cho các gương mặt của những người nổi tiếng hay các nhân vật trong phim ảnh hoặc trò chơi trực tuyến.

“Những ứng dụng này sẽ ngày càng phổ biến và được hoàn thiện nhanh chóng” David Doermann, giáo sư Đại học Buffalo băn khoăn: “Chúng ta biết rằng điều này sẽ xảy ra nhưng không thể nghĩ nó lại nhanh đến vậy. Chúng ta sẽ không thể nói trước, sau 5 năm nữa thì những công nghệ deepfakes này sẽ ra sao, bởi 5 năm trước đây chúng ta còn chưa có khái niệm gì về chúng”.

Không chỉ liên quan đến hình ảnh, công nghệ “học sâu” của trí tuệ nhân tạo còn cho phép bất cứ ai cũng có thể thay thế giọng nói của mình bằng giọng nói của một người khác trong thời gian thực và sự thay thế này hoàn hảo gần như tuyệt đối. Đó là hướng nghiên cứu mà Modulate, một start-up ở Boston đã chọn.

Mike Pappas, Tổng giám đốc của Modulate cũng thừa nhận rằng những sản phẩm của họ có khả năng bị những kẻ bất lương lợi dụng để chiếm đoạt căn cước của ai đó và tiến hành các vụ lừa đảo giống như một trường hợp mà tờ Wall Street Jounal đã nêu ra.

Dịch vụ của Modulate càng mở rộng thì những rắc rối pháp lý và khiếu kiện sẽ tăng lên. “Modulate sẽ phải rà soát cẩn thận các yêu cầu sử dụng dịch vụ và loại đi những trường hợp cảm thấy nghi ngờ về mục đích sử dụng. Giống như tất cả mọi người, chúng tôi cũng muốn ngủ đêm được ngon giấc”, Mike Pappas đã chia sẻ như vậy.

Cuộc chiến chống lại deepfakes

Cuộc chiến chống lại deepfakes diễn ra trên hai mặt trận chính. Thứ nhất là việc kiểm tra tính xác thực của các video và những hình ảnh được tung ra trên Internet. “Công ty chúng tôi sẽ nhanh chóng nhận dạng một video hay một hình ảnh là giả hay không ngay khi nó vừa lộ diện”, Giorgio Patrini- Tổng Giám đốc của Deeptrace, một công ty có trụ sở ở Amsterdam nói.

Từ nhiều năm nay, M. Farid, giáo sư Đại học Berkeley, nghiên cứu chuyên sâu về ngôn ngữ cơ thể của các nhân vật quan trọng chẳng hạn như các nguyên thủ quốc gia. Hệ thống của ông đã tiến hành phân tích những video clip kéo dài nhiều giờ liên quan đến các cuộc đối thoại, phỏng vấn, diễn văn và các chiến dịch tranh cử.

Tổng thống Pháp Emmanuel Macron và Sheryl Sandberg, Giám đốc điều hành Facebook trong một cuộc gặp đã thống nhất những biện pháp phối hợp để chống lại các deepfakes trên Facebook.

Ông tin rằng mình đã đạt được những bước tiến dài, nhưng về tương lai thì ông bi quan: “Đây là một cuộc chạy đua vũ trang, nhưng tôi biết rằng mình sẽ thua, bởi chỉ hai năm nữa thôi, việc chống lại nó bằng phương pháp tôi đang sử dụng sẽ trở nên vô ích”.

Cách thứ hai để chống lại các deepfakes là dựa vào việc cải thiện độ tin cậy của các video. Truepic, một start-up của San Diego, từ 4 năm nay đã khởi sự một cuộc chiến chống lại các hình ảnh và video giả mạo. Theo Jeffrey McGregor, Tổng Giám đốc của Truepic thì “Các deepfakes được sản xuất hàng ngày…

Cái mà Truepic muốn làm đó là đưa ra sự thật”. Công ty này sẽ tiến hành những kiểm tra để xét xem một hình ảnh nào đó đã bị chỉnh sửa hay chưa, nếu là hình ảnh trung thực, công ty sẽ đưa lên trang chủ của công ty với một xác nhận đi kèm và những người khác có thể chia sẻ chúng. Hiệp hội Y khoa Mỹ-Syrie, một trong những khách hàng của Truepic đã sử dụng những dịch vụ của Truepic để thu thập tài liệu về những sự kiện đang diễn ra ở Syria.

Những người khổng lồ trong lĩnh vực truyền thông như YouTube hay Facebook cũng bắt đầu tham gia vào cuộc đấu tranh chống lại vấn nạn deepfakes. Youtube đã đưa ra các quy chuẩn để loại bỏ các video giả mạo như trường hợp video về bà Pelosi. Facebook cũng vừa tuyên bố sẽ đẩy nhanh việc ra mắt dự án “Deepfake Detection Challenge” nhằm tìm kiếm và loại bỏ đi các deepfakes trên Facebook. Dự án có sự hợp tác của Microsoft và nhiều trường đại học Mỹ và Anh.

Dương Thắng (tổng hợp)

Ngày 22/11, Đoàn kiểm tra số 4 của Bộ Công an do Trung tướng Nguyễn Văn Long, Ủy viên Ban Thường vụ Đảng ủy Công an Trung ương, Thứ trưởng Bộ Công an, làm trưởng đoàn, kiểm tra các mặt công tác Công an năm 2024 tại Công an tỉnh Bà Rịa-Vũng Tàu. Tham gia đoàn công tác có đại diện lãnh đạo Văn phòng Bộ Công an và các Cục nghiệp vụ Bộ Công an…

Sau nhiều năm chờ đợi, tuyến Metro đầu tiên của TP Hồ Chí Minh với tên gọi Bến Thành - Suối Tiên (tuyến Metro số 1) cũng đã bước vào giai đoạn gấp rút hoàn thành những công đoạn còn lại để có thể chính thức đưa vào khai thác ngay trong năm nay. Nhưng thời điểm này gánh nặng chi phí hoạt động cũng đã bắt đầu xuất hiện...

Ý thức được việc làm của mình là sai trái, qua sự động viên giải thích của Công an, vợ chồng người con trai chiếm nhà của bà cụ Phạm Thị Trơn (phường Hòa Quý (quận Ngũ Hành Sơn, Đà Nẵng ) đã viết giấy trả nhà. Việc giao trả diễn ra trên tinh thần tự nguyện, dưới sự chứng kiến của đại diện các cơ quan bảo vệ pháp luật cùng chính quyền địa phương.

TAND TP Hồ Chí Minh đang tiếp tục xét xử vụ án xảy ra tại Công ty TNHH Thương mại Vận tải và Du lịch Xuyên Việt Oil (gọi tắt Xuyên Việt Oil). Đáng lưu ý, trong vụ án này, cựu Bí thư Tỉnh ủy Bến Tre Lê Đức Thọ bị đưa ra xét xử 2 tội danh: “Nhận hối lộ” và “Lợi dụng chức vụ, quyền hạn gây ảnh hưởng đối với người khác để trục lợi” với số tiền "khủng" khiến dư luận xôn xao. Từ những "món quà" đó, cựu Bí thư Tỉnh ủy Bến Tre sở hữu nhiều xe ô tô, đồng hồ đắt tiền và nhiều tài sản có giá trị khác.

Một nhánh cây cổ thụ dài hàng chục mét gãy đổ chắn ngang lòng đường Quốc lộ 12B thuộc thị trấn Mãn Đức, huyện Tân Lạc, tỉnh Hòa Bình, đã được lực lượng CSGT cùng cơ quan chức năng dọn dẹp, đảm bảo giao thông thông suốt, an toàn.

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文