A- A A+ | Tăng tương phản Giảm tương phản

Cảnh giác tội phạm sử dụng công nghệ Deepfake AI để lừa đảo chiếm đoạt tài sản

eepfake AI là công nghệ ứng dụng trí tuệ nhân tạo (AI) để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Thời gian qua, ở nước ta đã xuất hiện các đối tượng sử dụng công nghệ này để lừa đảo chiếm đoạt tài sản với phương thức rất tinh vi như sau:

 

Ảnh minh họa

- Các đối tượng lừa đảo sử dụng công nghệ Deepfake AI để thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…
- Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake AI để tạo sẵn những video rất khó phân biệt thật - giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.
- Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Điển hình như, ngày 25/3/2023, Công an tỉnh Tuyên Quang cho biết đã tiếp nhận thông tin từ một số người dân trên địa bàn tỉnh bị lừa đảo bằng công nghệ Deepfake AI. Theo đó, các nạn nhân nhận được cuộc gọi video từ số điện thoại quen thuộc của người thân, bạn bè hoặc đồng nghiệp, với hình ảnh và giọng nói giống hệt. Các đối tượng lừa đảo nói rằng họ đang gặp khó khăn tài chính hoặc cần tiền gấp để giải quyết một vấn đề nào đó, và yêu cầu nạn nhân chuyển tiền vào tài khoản của họ. Sau khi chuyển tiền xong, các nạn nhân mới phát hiện ra mình đã bị lừa và không liên lạc được với người thân, bạn bè hoặc đồng nghiệp thật.
Trước tình trạng ngày càng có nhiều vụ việc lừa đảo bằng công nghệ Deepfake AI xảy ra, các cơ quan chức năng khuyến cáo người dân cần nâng cao cảnh giác và thực hiện các biện pháp phòng tránh sau:
- Không chia sẻ thông tin cá nhân, hình ảnh, video có giọng nói trên các trang web hay tài khoản mạng xã hội công khai hoặc cho những người không quen biết.
- Khi nhận được cuộc gọi video từ người thân, bạn bè hoặc đồng nghiệp với nội dung vay, mượn tiền hoặc thông báo về những tình huống khẩn cấp, cần kiểm tra kỹ thông tin của người gọi, chú ý đến âm thanh, hình ảnh và tín hiệu của cuộc gọi. Nếu có sự khác biệt so với bình thường, cần hỏi thêm những câu hỏi để xác minh danh tính của người gọi hoặc gọi lại cho số điện thoại quen thuộc của người thân để xác nhận.
- Không chuyển tiền cho bất kỳ ai mà không có sự xác minh rõ ràng và chắc chắn. Nếu có nghi ngờ về tính xác thực của cuộc gọi hoặc tin nhắn, cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ và xử lý kịp thời.
Deepfake là một công nghệ tiên tiến nhưng cũng tiềm ẩn nhiều nguy cơ lợi dụng để lừa đảo và gây hại cho người dùng. Vì vậy, người dân cần nâng cao ý thức và kiến thức để phòng tránh và đối phó với những trường hợp lừa đảo bằng công nghệ cao với các thủ đoạn tinh vi như trên.


Tổng số điểm của bài viết là: 0 trong 0 đánh giá
Click để đánh giá bài viết
Văn bản mới
THỜI SỰ
Thống kê truy cập
Hôm nay : 0
Hôm qua : 8
Tháng 03 : 8
Tháng trước : 179
Năm 2024 : 452
LIÊN KẾT