Cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo

09:28 01/04/2023

Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng “sập bẫy”. Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu “nạn nhân” chuyển tiền.

Thủ đoạn lừa đảo này được dự báo sẽ “nở rộ” trong thời gian tới, các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cách đây khoảng 1 tuần, chị Nguyễn Thị Thanh Hà ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung “tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?”. Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị Hà với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị Hà dù hình ảnh video không thực sự sắc nét.

Mặc dù trong lòng cảm thấy có chút băn khoăn vì từ trước đến nay anh trai ít khi hỏi vay một số tiền lớn như vậy song thấy hình ảnh video qua Facebook chính là anh trai nên chị Hà cũng tự loại bỏ nghi ngờ. Sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị Hà liền gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

Trước việc kẻ xấu lợi dụng công nghệ Deepfake để lừa đảo, người dùng cần xác minh kỹ thông tin trước khi chuyển tiền. Ảnh minh họa

Không may mắn như chị Hà, chị Nguyễn Hải Ly đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung “Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp” và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để “đỡ mất công phải chuyển đi chuyển lại. Lúc nào chuyển xong thì chỉ cần chụp hình ảnh gửi cho mình”.

Nghi ngờ Facebook người bạn bị chiếm tài khoản nên chị Ly đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Ly thấy mặt nhưng hình ảnh hơi mờ. Khi chị Ly hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Thấy hình ảnh bạn, chị Ly đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị Ly gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Để tránh bị “sập bẫy”, các chuyên gia khuyến cáo và đề nghị người dùng cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Sau đó phải thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber).

Thông tin thêm về thủ đoạn này, chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Cũng theo ông Sơn, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Vì thế, người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ…

Theo dự đoán của các chuyên gia của BKAV, việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ có thể gia tăng trong thời gian tới. Do đó, người dùng cần bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo.

Hùng Quân

Ngày 26/12, Công an tỉnh Lâm Đồng tổ chức Hội nghị Tổng kết công tác Công an năm 2025 và triển khai chương trình công tác năm 2026. Thượng tướng Lê Quốc Hùng, Ủy viên Trung ương Đảng, Thứ trưởng Bộ Công an đến dự và phát biểu chỉ đạo hội nghị.

Viện KSND tối cao vừa ban hành cáo trạng vụ án “Giả mạo trong công tác”, “Đưa hối lộ” và “Lợi dụng ảnh hưởng đối với người có chức vụ, quyền hạn để trục lợi” xảy ra tại Công ty TNHH Khoa học TSL (viết tắt là Công ty TSL), Công ty cổ phần Khoa học Công nghệ Avatek (viết tắt là Công ty Avatek) và các tổ chức, cá nhân liên quan trên toàn quốc.

Trong vụ án xảy ra tại Cục Quản lý lao động ngoài nước, Bộ Lao động, Thương binh và Xã hội (cũ), quá trình điều tra, cơ quan công an đã thu 25 phong bì với tổng số tiền hơn 1 tỷ đồng và 156.100 USD in tên doanh nghiệp tại phòng làm việc của cựu Thứ trưởng Bộ Lao động, Thương binh và Xã hội Nguyễn Bá Hoan.

Sáng 26/12, TAND khu vực 2 (Hà Nội) mở phiên tòa hình sự sơ thẩm xét xử bị cáo Đặng Chí Thành (SN 1994, ở Chung cư Sky Central, phường Phương Liệt, Hà Nội) về tội “Gây rối trật tự công cộng”, theo quy định tại khoản 1, Điều 318 Bộ luật hình sự. Vụ án xảy ra ngày 9/8/2025 và đến ngày 10/8/2025, Thành bị bắt tạm giam. 

Sau dấu mốc lịch sử tại SEA Games 33, võ thuật tổng hợp (MMA) Việt Nam đang đứng trước giai đoạn phát triển mạnh mẽ chưa từng có. Trong bức tranh khởi sắc ấy, hệ thống giải đấu Lion Championship tiếp tục khẳng định vai trò là sân chơi chuyên nghiệp, góp phần quan trọng trong việc xây dựng lực lượng, nâng cao trình độ và đưa MMA Việt Nam từng bước hội nhập khu vực và quốc tế.

Thời gian qua, các cá nhân, tổ chức thù địch, phản động, số đối tượng cơ hội chính trị không ngừng tung ra những luận điệu xuyên tạc, bóp méo bản chất cách mạng của lực lượng CAND Việt Nam; cố tình quy chụp, bôi nhọ hình ảnh người chiến sĩ Công an, gieo rắc sự nghi ngờ, chia rẽ mối quan hệ gắn bó máu thịt giữa Công an với nhân dân – mối quan hệ đã được lịch sử cách mạng Việt Nam khẳng định là tất yếu, bền chặt và không thể tách rời.

Tổng thống Mỹ Donald Trump mới đây tuyên bố quân đội nước này đã tiến hành một cuộc không kích nhằm vào các tay súng của tổ chức Nhà nước Hồi giáo tự xưng (ISIL, còn gọi là ISIS) tại khu vực tây bắc Nigeria, trong bối cảnh Washington gia tăng sức ép liên quan đến vấn đề an ninh và tự do tôn giáo tại quốc gia châu Phi này.

Người dân sinh sống tại tòa nhà CC1, chung cư Tân Thành ECO2, phường Quảng Phú, tỉnh Thanh Hóa cho hay, dù họ thực hiện đầy đủ nghĩa vụ tài chính, nhiều hộ dân vẫn bị cắt nước sinh hoạt trong nhiều ngày liền. Cùng với đó là nỗi bất an thường trực khi hệ thống phòng cháy, chữa cháy hoạt động phập phù, thang máy liên tục trục trặc, an ninh trật tự thiếu kiểm soát…

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文