Nguy cơ ChatGPT bị lợi dụng để lập trình phần mềm độc hại

Theo chuyên gia Nhật Bản, khi nhận được lệnh viết code cho mã độc tống tiền, ChatGPT đã thực hiện yêu cầu chỉ trong vài phút và ngay lập tức có thể khiến một máy tính thử nghiệm "nhiễm" mã độc.
Nguy cơ ChatGPT bị lợi dụng để lập trình phần mềm độc hại ảnh 1Biểu tượng ChatGPT tại văn phòng ở Washington, DC, Mỹ. (Ảnh: AFP/TTXVN)

Các chuyên gia an ninh mạng Nhật Bản ngày 21/4 cảnh báo ChatGPT có thể bị lợi dụng để viết mã độc cho các phần mềm độc hại (malware).

Phát hiện mới nhất này một lần nữa cho thấy các biện pháp an ninh mà nhà phát triển phần mềm áp dụng hoàn toàn có thể bị phá vỡ, khiến ChatGPT dễ dàng bị lợi dụng cho mục đích xấu và trở thành công cụ "tiếp tay" cho tin tặc.

Ngày 21/4, chính quyền thành phố Yokosuka, tỉnh Kanagawa, phía Nam thủ đô Tokyo, đã bắt đầu thí điểm ChatGPT tại tất cả các văn phòng công quyền tại thành phố này.

Đây là chính quyền địa phương đầu tiên tại Nhật Bản thử ứng dụng chatbot này trong hoạt động của lĩnh vực công.

[Châu Âu lập lực lượng đặc nhiệm nhằm đưa ra chính sách về ChatGPT]

Theo nhà phân tích Takashi Yoshikawa tại Mitsui Bussan Secure Directions, mặc dù ChatGPT được huấn luyện để từ chối thực hiện các hành vi sử dụng phi đạo đức, chẳng hạn như yêu cầu nêu cách chế tạo bom hoặc tạo virus máy tính, những yêu cầu hạn chế này vẫn có thể "né" được bằng cách yêu cầu ChatGPT hoạt động ở chế độ tương tác với nhà phát triển.

Kết quả là khi nhận được lệnh viết code cho mã độc tống tiền (ransomware), ChatGPT đã thực hiện yêu cầu chỉ trong vài phút và ngay lập tức có thể khiến một máy tính thử nghiệm "nhiễm" mã độc.

Một máy tính bị nhiễm ransomware thì khả năng cao những máy còn lại trong hệ thống cũng gặp tình trạng tương tự.

Điều này tiềm ẩn mối nguy đối với xã hội khi một virus phần mềm có thể được phát triển chỉ trong vài phút, thông qua một cuộc hội thoại hoàn toàn dùng tiếng Nhật.

OpenAI, công ty phát triển ChatGPT, cho rằng tuy nhà phát triển không thể dự đoán tất cả các cách thức mà công cụ này có thể bị lợi dụng, song họ có thể tạo ra một trí tuệ nhân tạo (AI) an toàn hơn dựa trên phản hồi từ những ứng dụng thực tế.

Trong bối cảnh dấy lên nhiều lo ngại rằng những chatbot ứng dụng AI tiềm ẩn nguy cơ khiến tỷ lệ phạm tội gia tăng và xã hội bị phân mảnh, nhà chức trách các nước đang kêu gọi nỗ lực thảo luận để ban hành những biện pháp kiểm soát hiệu quả và chặt chẽ.

Các cuộc thảo luận xoay quanh chủ đề này sẽ được thúc đẩy trong khuôn khổ Hội nghị thượng đỉnh Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), dự kiến diễn ra tại thành phố Hiroshima vào tháng Năm, cũng như tại các diễn đàn quốc tế khác.

Trong cuộc họp kéo dài hai ngày ở thành phố Takasaki, tỉnh Gunma, vào cuối tháng Tư, bộ trưởng công nghệ thông tin các nước G7 dự kiến thảo luận thêm nỗ lực đẩy nhanh nghiên cứu và tăng cường quản trị các hệ thống AI.

Tháng 12/2022, ChatGPT - do công ty OpenAI có trụ sở tại San Francisco (Mỹ) phát triển, đã cán mốc 100 triệu người dùng chỉ sau một tháng trình làng.

Chatbot ứng dụng AI thu hút sự chú ý nhờ khả năng viết luận, làm thơ hoặc viết code theo yêu cầu chỉ trong vài giây, song cũng làm dấy lên lo ngại về nguy cơ lừa đảo hoặc biến nhiều ngành nghề trở nên lỗi thời.

Tội phạm mạng đã nghiên cứu các lệnh có thể sử dụng để "đánh lừa" AI cho mục đích bất chính và chia sẻ nội dung này trên các trang web đen, khiến nhiều người càng lo ngại về nguy cơ gia tăng tội phạm trên không gian mạng./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục