Nhóm hacker sử dụng phần mềm AI bắt chước giọng nói CEO của một công ty Đức, ra lệnh cho nhân viên chuyển 243.000 USD.
Theo Wall Street Journal, mặt trái của DeepFake - những video, hình ảnh, giọng nói, âm thanh bị các phần mềm trí tuệ nhân tạo chỉnh sửa, bóp méo khiến chúng trông như thật - không còn là nguy cơ mà đang trở thành hiện thực. Hồi tháng 3, một nhóm tội phạm đã dùng AI nhái giọng CEO một công ty có trụ sở Đức để gọi điện cho Giám đốc chi nhánh ở Anh, đề nghị người này chuyển khoản cho nhà cung ứng ở Hungary trong vòng một giờ, sau đó tiền sẽ sớm được hoàn lại.
Vị giám đốc này nhận ra giọng nói quen thuộc của "sếp" nên không hề nghi ngờ. Tuy nhiền, khi số tiền còn chưa được hoàn trả, kẻ giả mạo tiếp tục yêu cầu chuyển gấp một khoản khác. Lần này, ông từ chối thực hiện giao dịch để kiểm tra lại thông tin.
Số tiền chuyển tới Hungary kia cuối cùng bị gửi sang Mexico và một số địa điểm khác.
Trò lừa voice phishing đang tăng mạnh vì AI. Ảnh: TheNextWeb. |
Công nghệ DeepFake đang tạo ra các hình thức lừa đảo hoàn toàn mới. Không đơn thuần chỉ là ghép khuôn mặt người nổi tiếng vào những video khiêu dâm hay có nội dung chính trị, tội phạm mạng đang khai thác DeepFake để nhắm vào các doanh nghiệp với mục đích lừa tiền.
Hồi tháng 7, Tổ chức điều hành Không gian mạng quốc gia Israel đã cảnh báo về "một loại tấn công mạng mới", dùng AI đóng vai lãnh đạo cấp cao trong doanh nghiệp để ra lệnh cho nhân viên thực hiện nhiều hành động gây hại cho nội bộ, như chuyển tiền, gửi tài liệu mật...
Các chuyên gia khuyến cáo, dù nhận được lệnh của cấp cao hơn qua điện thoại, nhân viên vẫn cần đề nghị "sếp" xác thực lệnh đó qua email hoặc phương tiện liên lạc khác.