Deepfake: Khi trí tuệ nhân tạo được sử dụng để lừa đảo

Mặt tối của AI

Tuần trước, một người đàn ông có tên Eliot Higgins (Anh) đã đăng lên tài khoản Twitter của mình một số bức hình được tạo ra bởi ứng dụng trí tuệ nhân tạo (AI) trong đó mô phỏng cựu tổng Tổng thống Donald Trump bị cảnh sát bắt giữ. Mọi chi tiết trong bức hình đó chân thực đến nỗi, chỉ sau 2 ngày ngắn ngủi, đã có 5 triệu lượt xem, thậm chí nhiều người tin tưởng rằng đây là ảnh thật.

Những bức hình cựu tổng Tổng thống Donald Trump bị bắt được tạo ra bằng deepfake.

Bên cạnh Twitter, những bức ảnh trên còn được lan truyền sang cả Facebook và Instagram và cho đến thời điểm hiện tại vẫn còn một vài tấm trong số đó mặc dù chúng đã nhận được hàng nghìn lượt chia sẻ cũng như bình luận. Cần chú ý, hai mạng xã hội này đang được áp dụng công nghệ kiểm tra tính xác thực của ảnh do người dùng đăng tải mạnh nhất hiện nay, điều này cho phép tự động xóa các bức hình có nội dung giả mạo như trên.

Ví dụ trên là minh chứng cho tính 2 mặt của AI, bên cạnh khả năng ứng dụng tuyệt vời vào cuộc sống thì cũng tiềm ẩn nhiều nguy cơ nghiêm trọng. Một trong số đó là deepfake, công nghệ sử dụng AI cho phép tạo ra các bức hình, âm thanh hoặc cả video giả mạo nhân diện hoặc giọng nói của một người nhằm sử dụng cho các mục đích bất chính.

Ông Donald Trump không phải là người nổi tiếng đầu tiên bị ảnh hưởng tiêu cực từ deepfake mà trước đó, Tổng thống Nga Putin, Chủ tịch Trung Quốc Tập Cận Bình, Tổng thống Mỹ Joe Biden cho đến CEO Meta Mark Zuckerberg… cũng nằm trong danh sách nạn nhân. Nguy cơ này lớn đến mức Quốc hội Mỹ cũng đang trong quá trình nghiên cứu ban hành các biện pháp nhằm bảo đảm các công ty công nghệ phải có biện pháp xử lý mối đe dọa mà AI mang lại, đặc biệt là trong việc truyền bá thông tin sai lệch, gây hoang mang và kích động bất hòa.

CEO Meta Mark Zuckerberg cũng từng là nạn nhân của deepfake.

Không dừng lại ở những bức hình, video mang mục đích lan truyền trên môi trường mạng, deepfake giờ đây còn được coi là công cụ hữu hiệu cho những kẻ lừa đảo trên mạng. Trên thế giới đã ghi nhận được không ít những trường hợp nạn nhân của deepfake khi bị lừa từ hàng chục nghìn cho đến hàng triệu USD. Chỉ tính riêng với deepfake bằng giọng nói, trong năm 2022, số tiền thiệt hại được ước tính để lên tới khoảng 11 triệu USD.

Và ngay ở Việt Nam, các chiêu trò lừa đảo bằng deepfake đã bắt đầu xuất hiện với nhiều nạn nhân trên cả nước. Tình trạng này nghiêm trọng đến mức, cơ quan công an ở các tỉnh như Tuyên Quang, Thái Nguyên đã phải phát đi cảnh báo về những thủ đoạn lừa đảo chiếm đoạt tài sản bằng công nghệ deepfake tới người dân.

Theo đó, thông qua môi trường mạng internet đặc biệt là mạng xã hội, các đối tượng lừa đảo đã thu thập hình ảnh, giọng nói của người dùng và sử dụng công nghệ deepfake để tạo ảnh động, video giả mạo họ đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Tiếp đó, đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản có sẵn. Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải deepfake video có sẵn lên kênh video call, khiến nạn nhân ngộ nhận là hình ảnh và giọng nói của người quen, từ đó chuyển tiền theo yêu cầu của đối tượng.

Các thủ đoạn hay được đối tượng lừa đảo sử dụng là giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…, cơ quan công an đưa ra cảnh báo.

Cần làm gì đến tránh làm nạn nhân của deepfake ?

Về phương thức ứng phó với các chiêu trò lừa đảo bằng deepfake, Công an tỉnh Thái Nguyên cho rằng, mặc dù công nghệ này tạo ra được các video có độ chính xác rất cao nhưng vẫn có những lỗi để từ đó để phân biệt thật giả. Tiêu biểu là video được các đối tượng dựng sẵn thường có nội dung chung chung, không phù hợp ngữ cảnh khi thực hiện cuộc gọi, đi kèm với đó là âm thanh khó nghe, hình ảnh không rõ nét giống như cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu.

Deepfake vẫn có những điểm yếu để người dùng phân biệt.

Do vậy, người dân cần nâng cao cảnh giác với những cuộc gọi có nội dung vay mượn, chuyển khoản tiền bạc. Nếu có sự khác biệt so với bình thường, cần hỏi thêm những câu hỏi để xác minh danh tính của người gọi hoặc gọi lại cho số điện thoại quen thuộc của người thân để xác nhận. Hay thậm chí là báo ngay cho cơ quan công an gần nhất để được hỗ trợ và xử lý kịp thời.

Ngoài ra, người dân nên cẩn trọng khi chia sẻ các thông tin cá nhân trên mạng xã hội, không nên để lộ quá nhiều thông tin riêng tư như số nhà, số căn cước công dân, hình ảnh, video có giọng nói… Đây là kẽ hở để kẻ gian dễ dàng xây dựng những kịch bản lừa đảo ngày càng tinh vi hơn, cơ quan công an đưa ra lời khuyên.

Cũng theo chuyên gia bảo mật Vũ Ngọc Sơn, ở thời điểm hiện tại, deepfake chưa thực sự hoàn hảo nên vẫn có những sơ hở để phân biệt một hình ảnh hoặc video có sử dụng công nghệ này hay không. Với những bức hình thì biểu cảm của khuân mặt sẽ khá cứng, thiếu tự nhiên, các bộ phận thiếu đồng bộ, đặc biệt là ở hai mắt ánh sáng phản chiếu từ võng mạc sẽ không đều.

Còn đối với video, do hạn chế về năng lực tính toán nên các clip tạo ra bằng deepfake sẽ có dung lượng thấp, thời gian ngắn cùng chất lượng hình ảnh và âm thanh kém. Cần chú ý, với các động tác quay ngang mặt, cúi đầu và đưa tay lên mặt sẽ khiến AI xử lý lỗi và xuất hiện hiệu ứng ngay ở video. Đây cũng là một cách để kiểm tra nếu người dùng phát hiện nghi ngờ trong đoạn video call.

"Người dùng không nên tin tưởng vào các video call có nội dung liên quan tới tiền bạc nhưng lại có thời gian ngắn có chất lượng hình ảnh hoặc âm thanh không tốt. Cần kiểm tra lại bằng cách gọi điện trực tiếp và đặc biệt không thực hiện chuyển tiền tới tài khoản lạ", ông Vũ Ngọc Sơn đưa ra lời khuyên.

Hà Thanh