Lừa đảo bằng công nghệ Deepfake lại bùng phát

08:13 06/02/2024

Những ngày cận Tết Nguyên đán 2024, một số đơn vị chuyên trách về an toàn thông tin đã liên tục nhận được các báo cáo và yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo sử dụng trí tuệ nhân tạo (AI) tạo giọng nói và hình ảnh giả mạo.

Bằng công nghệ Deepfake (công nghệ ứng dụng AI), các đối tượng lừa đảo đã tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để thực hiện hành vi lừa đảo tài chính khiến không ít nạn nhân sập bẫy.

Người dân cần gọi điện thoại xác minh trước khi chuyển tiền để không trở thành nạn nhân của công nghệ Deepfake. Ảnh minh họa

Chị Nguyễn Thị Hương Mơ, một nhân viên văn phòng ở quận Hoàng Mai (Hà Nội) chia sẻ: Trong một lần trò chuyện với bạn qua facebook messenger, người bạn đã chào và kết thúc câu chuyện nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Để yên tâm hơn trước khi chuyển tiền, chị Mơ đã đề nghị gọi video qua messenger để xác thực.

Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây rồi tắt. Vì đã thấy đúng mặt bạn mình trong cuộc gọi video nên chị Hương đã chuyển đủ số tiền 10 triệu theo đề nghị của bạn. Tuy nhiên, chỉ sau khi chuyển tiền thành công, xác minh lại bằng điện thoại thì chị mới biết mình đã mắc bẫy của hacker.

Anh Hoàng Anh Nghĩa ở quận Cầu Giấy (Hà Nội) cũng rơi vào tình trạng tương tự như chị Mơ. Tuy nhiên, thay vì gọi điện xác minh qua các ứng dụng mạng xã hội (facebook hoặc zalo), anh Nghĩa đã gọi điện thoại trực tiếp cho người bạn của mình thì mới biết là tài khoản facebook của người bạn này đã bị hack và bị kẻ xấu lợi dụng để thực hiện các hành vi lừa đảo bằng công nghệ Deepfake. 

Các chuyên gia an ninh mạng Bkav cho biết, Bkav liên tục nhận được các báo cáo yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo liên quan đến công nghệ Deepfake như trường hợp của chị Mơ. Chúng sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản facebook, hay còn gọi là công nghệ Deepfake. Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm Nghiên cứu mã độc của Bkav cho biết, khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều.

Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực hiện các phương thức xác thực khác như gọi điện thoại truyền thống hay sử dụng các kênh liên lạc khác để xác nhận lại.

Ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin, Bộ Thông tin và Truyền thông cũng cho biết: Việc bùng nổ các cuộc gọi lừa đảo trực tuyến Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Công nghệ này có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác...

Để nhận diện cuộc gọi lừa đảo Deepfake, theo Cục An toàn thông tin, bằng mắt thường vẫn có thể có một số dấu hiệu nhận biết như thời gian gọi thường rất ngắn, chỉ vài giây. Bên cạnh đó, khuôn mặt của người gọi thường thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hướng đầu và cơ thể của họ trong video không nhất quán với nhau.

Ngoài ra, có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến video trông rất giả tạo và không tự nhiên; âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Đặc biệt, cuộc gọi lừa đảo Deepfake thường xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...

“Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Người dân nên cảnh giác và tuyệt đối bình tĩnh để xác minh kỹ thông tin bằng cách gọi điện thoại trực tiếp (không gọi qua zalo, facebook hoặc các ứng dụng khác) trước khi quyết định chuyển tiền", ông Hưng cảnh báo, đồng thời cho rằng, trong lúc chờ đợi các giải pháp kỹ thuật để ngăn chặn triệt để hình thức lừa đảo này thì rất cần các cơ quan truyền thông tiếp tục tuyên truyền rộng rãi tới người dân các dấu hiệu nhận biết để phòng tránh lừa đảo trực tuyến bằng công nghệ Deepfake.

Hùng Quân

Đối tượng mạo danh là “Trưởng phòng Công an TP Đà Nẵng”, sau đó thông báo số điện thoại của nạn nhân liên quan đến việc làm ăn phi pháp; đồng thời đe dọa, yêu cầu nạn nhân cầm sổ đỏ và chuyển tiền để chứng minh mình không vi phạm. Hậu quả, nạn nhân sập bẫy Công an giả sau 2 lần chuyển tổng cộng mất hơn 2 tỷ đồng...

Tại cơ quan điều tra, Luận khai nhận, 1 quả thận được Luận mua với giá từ 380 triệu đến 450 triệu đồng, sau đó môi giới bán cho người mua có nhu cầu ghép thận với giá dao động từ 1 tỷ đến 1,45 tỷ đồng. Trong khi Luận đang tổ chức ca môi giới ghép thận vào ngày 20/12/2024 thì bị lực lượng Công an phát hiện, bắt giữ.

Liên quan vụ truy bắt đối tượng trộm cắp xe ô tô ở Ninh Thuận, chiều 24/12 Phòng CSGT Công an tỉnh Ninh Thuận cho biết, vừa nhận được thư cảm ơn của ông Võ Tấn Long (SN 1976, trú ở 126 Hải Thượng Lãn Ông, phường Tấn Tài, TP Phan Rang – Tháp Chàm, tỉnh Ninh Thuận).

Đây là ý kiến chỉ đạo của Trung tướng Nguyễn Văn Long, Thứ trưởng Bộ Công an, Tổ phó Thường trực Tổ công tác Đề án 06 của Chính phủ tại Hội nghị triển khai Sổ Sức khỏe điện tử, cấp Phiếu lý lịch tư pháp trên ứng dụng VNeID; triển khai bệnh án điện tử, thúc đẩy kết nối, liên thông dữ liệu giữa Bệnh viện Bạch Mai với Bệnh viện Đa khoa tỉnh Bắc Ninh và đẩy mạnh triển khai các nội dung của Đề án 06 trên địa bàn tỉnh Bắc Ninh, chiều 23/12.

Theo truyền thông địa phương, các lính cứu hỏa được cho là gặp khó khăn trong quá trình tiếp cận khu vực hỏa hoạn tại tháp Eiffel. Cơ quan dịch vụ khẩn cấp Paris đã phải sơ tán hơn 1200 khách du lịch đang thăm quan công trình kiến trúc mang tính biểu tượng của Thủ đô nước Pháp. 

Chiều 24/12, Phòng Cảnh sát kinh tế Công an TP Hồ Chí Minh đã ra quyết định khởi tố vụ án, khởi tố bị can, tạm giam đối với Trịnh Thành Đức (SN 1996, biệt danh là Lil Ken) về hành vi lừa đảo chiếm đoạt tài sản; ra lệnh cấm đi khỏi nơi cư trú đối với Nguyễn Thị Lan (vợ cũ Đức, SN 1998, ngụ quận Bình Tân) cùng về hành vi trên.

Đăng tải thông tin sai sự thật về vụ việc phóng hỏa quán cafe ở số 258 đường Phạm Văn Đồng (phường Cổ Nhuế 2, quận Bắc Từ Liêm, Hà Nội) lên các hội nhóm trên mạng xã hội, chị  H.T.L đã bị Công an quận Bắc Từ Liêm (Hà Nội) triệu tập làm việc và ra quyết định xử phạt hành chính 7,5 triệu đồng về hành vi “cung cấp, chia sẻ thông tin giả mạo, thông tin sai sự thật”.

Trước những dấu hiệu bất thường liên quan đến việc lập, phê duyệt quy hoạch, thực hiện dự án Cụm công nghiệp vừa và nhỏ Lâm Bình (huyện Lương Tài, tỉnh Bắc Ninh), Thanh tra Bộ Xây dựng vừa có văn bản yêu cầu địa phương này làm rõ, đồng thời có văn bản báo cáo Thanh tra Bộ trước ngày 25/12/2024.

Nam thanh niên khai tên là Nguyễn Trần Huy, SN 2007, trú tại thôn Lê, xã Minh Thanh, huyện Sơn Dương, tỉnh Tuyên Quang đang trên đường chở pháo về thì bị CSGT phát hiện, bắt giữ.

Ngày 24/12, tại Công an tỉnh Tuyên Quang, Bộ Công an tổ chức Hội thảo khoa học “Nhận diện xu hướng dịch chuyển của tội phạm và vi phạm pháp luật về an ninh, trật tự lên không gian mạng”. Trung tướng Lê Quốc Hùng, Uỷ viên Trung ương Đảng, Thứ trưởng Bộ Công an, Phó Chủ tịch Thường trực Hội đồng Lý luận Bộ Công an chủ trì Hội thảo.

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文