Công nghệ

Cảnh báo việc giả khuôn mặt, giọng nói để lừa đảo

Nguyễn Phúc 28/09/2023 - 08:13

Với sự phát triển của khoa học công nghệ, thời gian gần đây đang xuất hiện tình trạng các đối tượng xấu sử dụng công nghệ trí tuệ nhân tạo (AI) tạo ra những video hoặc hình ảnh giả (được gọi là Deepfake) để thực hiện các cuộc gọi lừa đảo trực tuyến.

Phát sóng trò chuyện trực tiếp nhưng lại chỉ là những hình ảnh hoàn toàn do AI tạo ra, Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Ngoài được sử dụng để lừa đảo, Deepfake còn được sử dụng cho các mục đích khác như tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.

Theo các chuyên gia, video clip sinh ra từ Deepfake sẽ không có chất lượng tốt, tương đối mờ, giọng nói không rõ ràng. Nếu để ý kỹ thì có thể nhận thấy những nhân vật trong cuộc gọi lừa đảo Deepfake thường ít quay mặt, đưa tay lên mặt hoặc chớp mắt. Tuy nhiên, công nghệ sẽ ngày càng phát triển, việc tiếp cận Deepfake trở nên đơn giản và chi phí thực hiện ngày càng rẻ hơn, khiến mức độ nguy hiểm tăng lên mỗi ngày. Nếu không được trang bị đủ kiến thức và thông tin thì sẽ rất khó để nhận ra Deepfake.

Chính vì vậy, các chuyên gia về bảo mật khuyên người dùng mạng xã hội phải hết sức thận trọng. Nếu nhận được một tin nhắn, một cuộc gọi hoặc video call với nội dung chuyển tiền, dù là người thân thiết, vẫn nên gọi lại bằng số điện thoại để xác minh. Đừng vội truy cập bất kỳ đường link nào có cấu trúc lạ. Đặc biệt, cần lưu ý trong việc đăng tải hình ảnh và giọng nói của mình trên không gian mạng.

(0) Bình luận
Đừng bỏ lỡ
Cảnh báo việc giả khuôn mặt, giọng nói để lừa đảo

(*) Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Hànộimới.