Deepfake giả giọng giám đốc, đánh cắp 35 triệu USD


Một quản lý ngân hàng ở Các tiểu vương quốc Arab Thống nhất (UAE) nhận được cuộc gọi từ một người có giọng nói quen thuộc, là giám đốc một công ty mà ông thường trò chuyện. Người này cho biết công ty chuẩn bị mua lại một doanh nghiệp, cần ngân hàng duyệt chuyển khoản 35 triệu USD, và luật sư có tên Martin Zelner đã được thuê để điều phối quy trình trên. Quản lý ngân hàng sẽ nhận được email xác nhận địa chỉ nhận tiền.

Người quản lý tin rằng mọi thứ đều hợp lệ và khởi đầu quy trình chuyển khoản. Ông hoàn toàn không biết mình đã trở thành nạn nhân của một âm mưu lừa đảo công phu, trong đó các nghi phạm dùng công nghệ “deep voice”, một dạng của deepfake , để giả giọng nói của giám đốc công ty kia.

Deepfake giả giọng giám đốc, đánh cắp 35 triệu USD  - ảnh 1

Theo hồ sơ tòa án mà Forbes có được hôm 14/10, sự cố diễn ra vào năm 2020 và giới chức UAE đang đề nghị các nhà điều tra Mỹ truy vết 400.000 USD bị đánh cắp đã được chuyển tới các tài khoản nằm tại ngân hàng Centennial ở nước này.

UAE cho rằng nhóm lừa đảo có ít nhất 17 thành viên và đã chuyển tiền tới nhiều tài khoản ngân hàng trên khắp thế giới . Danh tính nạn nhân không được tiết lộ trong tài liệu.

Video đang HOT

Đây là vụ lừa đảo bằng deepfake giả giọng nói thứ hai được công khai, và thành công gấp nhiều lần so với phi vụ đầu tiên. Năm 2019, một nhóm tội phạm cũng giả giọng CEO một công ty năng lượng ở Anh để đánh cắp 243.000 USD.

Sự việc tại UAE cho thấy mối đe dọa từ các vụ lừa đảo công nghệ cao trong bối cảnh làm việc từ xa đã trở thành xu hướng, trong khi AI ngày càng phát triển và được sử dụng nhiều để tạo ra hình ảnh và giọng nói giả mạo.

“Chúng ta đang chứng kiến kẻ xấu sử dụng trình độ và nguồn lực từ công nghệ mới nhất để đánh lừa người không biết tới deepfake. Thao túng giọng nói dễ dàng hơn nhiều so với tạo video giả dạng và sẽ ngày càng phổ biến, khiến nhiều doanh nghiệp bị đe dọa nếu không được cảnh báo về nguy cơ và chuẩn bị những biện pháp xác thực tốt hơn”, Jake Moore, chuyên gia an ninh mạng tại công ty ESET, nhận xét.

Sao chép giọng nói là công nghệ vốn chỉ xuất hiện trong phim ảnh, nhưng giờ đã thành hiện thực và chứng kiến cuộc đua giữa nhiều bên. Hàng loạt startup công nghệ đang phát triển những hệ thống AI tổng hợp giọng nói phức tạp, trong khi một số công ty cũng tuyên bố có khả năng phát hiện giọng nói giả và ngăn chặn lừa đảo.

Tạo ‘bản sao’ bằng deepfake để họp trực tuyến 

Người không biết ngoại ngữ có thể dùng “bản sao” tạo từ deepfake và tính năng dịch để trao đổi bằng ngôn ngữ mẹ đẻ của khách hàng.

Deepfake thường được nhắc đến với những mặt trái, nhưng theo Wired , công nghệ này cũng có thể giúp làm việc từ xa trở nên bớt nhàm chán và khiến các cuộc họp qua Internet thú vị hơn.

Một số nhân viên của công ty kiểm toán EY đang thử nghiệm một công cụ giao tiếp mới. Họ minh họa cho bài thuyết trình của mình bằng các clip với sự tham gia của avatar y hệt bản thân. Hoặc khi trao đổi với khách hàng ở Nhật Bản, họ sử dụng “bản sao” AI của mình cùng chức năng dịch ngôn ngữ theo thời gian thực để tương tác với khách hàng bằng tiếng mẹ đẻ của họ.Việc này được thực hiện bằng công nghệ deepfake.

Công cụ áp dụng tại EY do startup Synthesia ở Anh cung cấp. Synthesia chứng tỏ được tiềm năng khi đại dịch làm ảnh hưởng nghiêm trọng đến cách thức giao tiếp truyền thống. Ở nhiều nơi, chơi golf hay dùng bữa trưa tại nhà hàng đã trở thành điều gần như không thể. Thay vào đó, các cuộc gọi qua zoom và tài liệu PDF trở thành chuyện thường ngày.

Deepfake giả giọng giám đốc, đánh cắp 35 triệu USD  - ảnh 2

Deepfake đang trở nên phổ biến.

Jared Reeder, một nhân viên tại EY, chia sẻ trên Wired : “Chúng tôi sử dụng công cụ này như một yếu tố tạo nên sự khác biệt và củng cố bản sắc của một người”.

Quá trình tạo ra một bản sao bằng deepfake tương đối đơn giản. Người dùng ngồi trước máy quay khoảng 40 phút, đọc một kịch bản chuẩn bị sẵn. Cảnh quay và âm thanh sẽ dạy thuật toán của Synthesia về các chuyển động trên khuôn mặt và cách phát âm của người đó để bắt chước ngoại hình và giọng nói.

Sau đó, người dùng chỉ việc nhập những gì họ muốn nói và bản sao sẽ thực hiện bài thuyết trình thay họ.

Ranh giới giữa tiện ích và nguy cơ

Ngay khi deepfake lần đầu xuất hiện năm 2017, công nghệ này đã thu hút sự chú ý trên mạng xã hội. Deepfake về cơ bản là việc sử dụng công cụ AI để gán khuôn mặt hay giọng nói của người này sang người khác trong ảnh, video… với độ chân thực đến kinh ngạc.

Theo thống kê, deepfake được sử dụng nhiều nhất trong việc tạo ra video khiêu dâm với khuôn mặt của người nổi tiếng. Việc ghép và chỉnh sửa khuôn mặt như vậy có thể gây ra mối đe dọa tiềm tàng đối với danh tiếng của các cá nhân và tăng khả năng lan truyền thông tin sai lệch.

Bất chấp khả năng bị lạm dụng, nhiều lĩnh vực đang nắm bắt và ứng dụng deepfake, như trong trường hợp của EY, vào những mục đích tích cực hơn. Ngành công nghiệp quảng cáo cũng đang đi theo con đường này, như Spotify, Hulu và nhiều tổ chức chọn sử dụng deepfake cho các chiến dịch truyền thông của họ.

Hạ viện Hà Lan bị đánh lừa bởi deepfake  Ủy ban đối ngoại Hạ viện Hà Lan bị lừa họp trực tuyến với một người dùng deepfake đóng giả cố vấn của lãnh đạo đối lập Nga, Navalny. Các hạ nghị sĩ Hà Lan nhận được bài học về mối nguy hiểm của video deepfake khi Ủy…

Chia sẻ

Bài viết liên quan