Trung Quốc: Lợi dụng trí tuệ nhân tạo lừa đảo lấy hơn 600.000 USD

Một người đàn ông họ Guo cho biết tháng trước đã nhận một cuộc gọi video từ một người có ngoại hình và giọng nói giống một người bạn thân thuyết phục ông chuyển 609.000 USD để trả cọc đấu thầu.
Trung Quốc: Lợi dụng trí tuệ nhân tạo lừa đảo lấy hơn 600.000 USD ảnh 1Ảnh minh họa. (Nguồn: Getty Images)

Giới chức Trung Quốc cho biết đã ghi nhận một vụ lừa đảo lợi dụng trí tuệ nhân tạo (AI) để lấy hàng triệu nhân dân tệ.

Nạn nhân là một người đàn ông, họ Guo. Người này cho biết tháng trước đã nhận một cuộc gọi video từ một người có ngoại hình và giọng nói giống một người bạn thân.

Tuy nhiên, người gọi thực ra là một kẻ lừa đảo, đã sử dụng công nghệ AI để có diện mạo và đặc điểm giống bạn của ông Guo.

Đối tượng lừa đảo đã thuyết phục ông Guo chuyển 4,3 triệu nhân dân tệ (609.000 USD), với lý do một người bạn khác đang cần tiền để trả cọc đấu thầu công khai, song số tiền phải được chuyển từ tài khoản ngân hàng của một công ty nên muốn nhờ ông Guo.

Đối tượng đã hỏi số tài khoản ngân hàng cá nhân của ông Guo, sau đó thông báo đã chuyển khoản số tiền 4,3 triệu nhân dân tệ, đồng thời gửi ảnh giả mạo màn hình giao dịch hoàn tất.

Ông Guo chia sẻ bản thân đã chủ quan khi không kiểm tra tiền đã vào tài khoản hay chưa mà chuyển luôn số tiền được yêu cầu từ tài khoản công ty. Ông chỉ phát hiện ra sự thật sau khi nhắn tin cho người bạn bị đối tượng lừa đảo giả mạo.

Sau khi tiếp nhận vụ án, cảnh sát đã yêu cầu ngân hàng ngừng tiến hành giao dịch, qua đó giúp ông Guo thu hồi được 3,4 triệu nhân dân tệ. Cảnh sát đang tìm cách để thu hồi số tiền còn lại, song vẫn chưa xác định được danh tính thủ phạm.

Trong tháng này, cảnh sát ở tỉnh Cam Túc, Tây Bắc Trung Quốc, cho biết đã bắt một người đàn ông ở tỉnh này do sử dụng ChatGPT để soạn một bài báo giả, đưa tin về vụ tai nạn xe buýt chết người và lan truyền rộng rãi trên mạng xã hội.

Chủ đề về những mối nguy tiềm ẩn từ công nghệ AI đột phá đã thu hút được nhiều sự chú ý, kể từ khi công ty OpenAI có trụ sở tại Mỹ ra mắt chatbot ChatGPT vào tháng 11/2022.

Trung Quốc đã công bố kế hoạch đầy tham vọng trở thành nước tiên phong trong công nghệ AI toàn cầu vào năm 2030 và hàng loạt công ty công nghệ bao gồm Alibaba, JD.com, NetEase và ByteDance - công ty chủ quản của TikTok, đã gấp rút phát triển các sản phẩm tương tự ChatGPT.

Tuy nhiên, Trung Quốc cũng ban hành chính sách để ngăn ngừa việc sử dụng công nghệ "deepfake" để đăng tải hoặc lan truyền thông tin sai lệch, có hiệu lực từ tháng 1/2023.

Tháng trước, cơ quan quản lý Internet Bắc Kinh cũng đề xuất một dự luật yêu cầu tất cả ứng dụng AI mới phải trải qua cuộc kiểm tra "đánh giá bảo mật" trước khi tiếp cận người dân.

[Trung Quốc cấm các công ty công nghệ cung cấp ChatGPT]

Trước đó, Các chuyên gia an ninh mạng Australia cũng cảnh báo tin tặc đang sử dụng ChatGPT để tạo ra các email lừa đảo “thật” đến mức ngay cả những nhân viên được đào tạo bài bản về bảo mật của một công ty cũng bị “mắc bẫy.”

Ông Chad Skipper - chuyên gia về công nghệ bảo mật toàn cầu tại công ty phần mềm VMWare ở Australia, cho biết các email lừa đảo (phishing email) sử dụng ChatGPT hoặc các mô hình “máy học” ngôn ngữ tự nhiên tương tự để bắt chước ngôn ngữ và giọng điệu của các email chính thức trong các tổ chức, do đó rất khó để phân biệt với các email thật.

Ông Chad Skipper cho rằng đây là một cuộc chiến mới giữa tin tặc và ngành an ninh mạng và cuộc chiến này sẽ còn kéo dài.

Theo ông Chad Skipper, tội phạm mạng đang sử dụng trí tuệ nhân tạo (AI) để xác định những lỗ hổng trong các công ty, tổ chức và ChatGPT, từ đó tiến hành các cuộc tấn công giả mạo tinh vi nhằm xâm nhập vào các tổ chức này.

Tấn công giả mạo (Phishing) là hình thức tấn công mạng mà tin tặc sử dụng các email hoặc các hình thức nhắn tin giả mạo khác để lừa người dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một trang web, từ đó phát tán phần mềm độc hại (Malware) lên các thiết bị người dùng.

Ước tính có khoảng 90% các vụ xâm nhập mạng khởi đầu bằng một cuộc tấn công giả mạo đã được thực hiện thành công trước đó.

Vụ tấn công mạng nghiêm trọng vào Medibank - công ty bảo hiểm tư nhân lớn nhất của Australia - vào tháng 10/2022, cũng có thể nằm trong số này.

Giám đốc kinh doanh tại VMware Australia, ông Darren Reid cho hay trong thời gian ngắn kể từ khi được phát hành vào năm ngoái, ChatGPT đã vượt qua được một trong những tuyến phòng thủ chống lại các cuộc tấn công giả mạo như vậy./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục