Cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo

09:28 01/04/2023

Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng “sập bẫy”. Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu “nạn nhân” chuyển tiền.

Thủ đoạn lừa đảo này được dự báo sẽ “nở rộ” trong thời gian tới, các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cách đây khoảng 1 tuần, chị Nguyễn Thị Thanh Hà ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung “tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?”. Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị Hà với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị Hà dù hình ảnh video không thực sự sắc nét.

Mặc dù trong lòng cảm thấy có chút băn khoăn vì từ trước đến nay anh trai ít khi hỏi vay một số tiền lớn như vậy song thấy hình ảnh video qua Facebook chính là anh trai nên chị Hà cũng tự loại bỏ nghi ngờ. Sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị Hà liền gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

Trước việc kẻ xấu lợi dụng công nghệ Deepfake để lừa đảo, người dùng cần xác minh kỹ thông tin trước khi chuyển tiền. Ảnh minh họa

Không may mắn như chị Hà, chị Nguyễn Hải Ly đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung “Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp” và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để “đỡ mất công phải chuyển đi chuyển lại. Lúc nào chuyển xong thì chỉ cần chụp hình ảnh gửi cho mình”.

Nghi ngờ Facebook người bạn bị chiếm tài khoản nên chị Ly đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Ly thấy mặt nhưng hình ảnh hơi mờ. Khi chị Ly hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Thấy hình ảnh bạn, chị Ly đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị Ly gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Để tránh bị “sập bẫy”, các chuyên gia khuyến cáo và đề nghị người dùng cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Sau đó phải thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber).

Thông tin thêm về thủ đoạn này, chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Cũng theo ông Sơn, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Vì thế, người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ…

Theo dự đoán của các chuyên gia của BKAV, việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ có thể gia tăng trong thời gian tới. Do đó, người dùng cần bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo.

Hùng Quân

Tổng thống Mỹ Donald Trump chiều tối 15/5 đã kết thúc chuyến thăm ba ngày tới Trung Quốc. Giới học giả nhận định, chuyến thăm của nhà lãnh đạo Mỹ đã góp phần tạo thêm “không gian thở” cho quan hệ Mỹ - Trung, đồng thời mở ra một gian đoạn hoà bình lạnh. Có thể, đây không phải kết quả lý tưởng nhất sau cuộc gặp thượng đỉnh, song trong bối cảnh hiện nay, hoà bình lạnh được đánh giá là lựa chọn thực tế nhất.

Thời gian gần đây, tại TP Đà Nẵng, tình trạng các đối tượng lợi dụng tính chất khép kín, sự riêng tư và hệ thống an ninh bảo mật của các căn biệt thự (villa), khách sạn hạng sang để tổ chức sử dụng trái phép chất ma túy đang có dấu hiệu gia tăng phức tạp, trong đó có cả nhiều đối tượng là người nước ngoài.

Trong tiết trời nắng nóng gay gắt trên dải đất khu Nam Trung bộ, “Chiến dịch 60 ngày đêm cao điểm giải phóng mặt bằng (GPMB)” tại hai dự án lớn ở phía Đông Nam tỉnh Đắk Lắk đang được UBND xã Hòa Xuân cùng các đơn vị, cơ quan chức trách nỗ lực chạy đua với thời gian, triển khai quyết liệt bằng nhiều biện pháp.

Quân đội Mỹ đang phát triển các mô hình AI được huấn luyện dựa trên dữ liệu từ nhiệm vụ thực tế, với mục tiêu triển khai một chatbot AI (trí tuệ nhân tạo) dành riêng cho binh sĩ, cho thấy tham vọng đẩy nhanh ứng dụng AI trong quân sự.

Theo Sở Xây dựng TP Hồ Chí Minh, đến cuối tháng 4 vừa qua tổng sản lượng thi công Dự án đường Vành đai 3 mới đạt 74% khối lượng. Việc khai thác tuyến tới đây sẽ khó tránh khỏi hạn chế do công trình trọng điểm này đang được đề xuất tiếp tục đầu tư hoàn chỉnh giai đoạn 1…  

Ngày 16/5, cơ quan An ninh điều tra Công an TP Cần Thơ cho biết vừa khởi tố vụ án, khởi tố bị can đối với Nguyễn Hữu Tính (SN 1996, ngụ tỉnh An Giang); Huỳnh Trí Vĩ (SN 2004, ngụ phường Sóc Trăng, TP Cần Thơ) và Nguyễn Văn Minh (SN 2002, ngụ phường Phú Lợi, TP Cần Thơ) về tội “Mua bán trái phép vũ khí quân dụng”.

Sáng 11/5, tổ đại biểu Quốc hội đơn vị số 6, Đoàn đại biểu Quốc hội TP Hồ Chí Minh đã tiếp xúc cử tri tại 13 phường trên địa bàn. Tại tất cả các điểm tiếp xúc, người dân đều đề nghị siết chặt kiểm soát vệ sinh an toàn thực phẩm và cần phải tăng mức xử phạt, kể cả xem xét trách nhiệm hình sự.

Những scandal liên tiếp của một số ngôi sao trong làng giải trí như Miu Lê, Hữu Tín, Chi Dân, An Tây hay Châu Việt Cường… cho người ta thấy, showbiz Việt không chỉ có ánh đèn sân khấu hào nhoáng, lóng lánh mà còn có cả những cuộc chơi xuyên đêm với ma túy tổng hợp.

“Mật mã Đông Dương” - bộ phim lịch sử - tình báo được lấy cảm hứng từ một số chuyên án trong hơn 25.000 bộ hồ sơ chiến sĩ tình báo viên Việt Nam sẽ được Điện ảnh CAND sản xuất trong thời gian tới. Không chỉ là món quà tri ân sự hy sinh thầm lặng của lực lượng tình báo CAND, bộ phim còn ghi dấu sự “tái xuất” màn ảnh rộng, sau gần 40 năm vắng bóng của đề tài tình báo - một trong những chất liệu đặc biệt và khó khai thác nhất của điện ảnh Việt Nam.

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文