Chuyên gia Nhật cảnh báo ChatGPT bị lợi dụng để tạo ra phần mềm độc hại

Giới chuyên gia an ninh mạng Nhật Bản cảnh báo ChatGPT có thể bị lợi dụng để viết mã độc cho các phần mềm độc hại (malware).

Ngày 21/4, chính quyền thành phố Yokosuka, tỉnh Kanagawa (Nhật Bản) bắt đầu thí điểm ChatGPT tại tất cả các văn phòng công quyền tại đây. Đây là chính quyền địa phương đầu tiên tại Nhật Bản thử ứng dụng chatbot AI này trong lĩnh vực công.

Nhà phân tích Takashi Yoshikawa tại Mitsui Bussan Secure Directions cho biết, mặc dù ChatGPT được huấn luyện để không thực hiện bất kỳ hành vi phi đạo đức như yêu cầu nêu cách chế tạo bom hoặc tạo virus máy tính nhưng những yêu cầu này vẫn xuất hiện bằng cách yêu cầu ChatGPT hoạt động trong chế độ tương tác với các nhà phát triển.

Tội phạm mạng đã nghiên cứu các lệnh có thể sử dụng để đánh lừa AI cho mục đích bất chính và chia sẻ nội dung này trên các trang web đen khiến nhiều người càng lo ngại về nguy cơ gia tăng tội phạm trên không gian mạng.

ChatGPT đã thực hiện việc tạo ra phần mềm độc hại khi được hướng dẫn ở chế độ nhà phát triển. Ảnh: Kyodo News.

ChatGPT đã thực hiện việc tạo ra phần mềm độc hại khi được hướng dẫn ở chế độ nhà phát triển. Ảnh: Kyodo News.

Ông Takashi dẫn một thử nghiệm mới đây, khi nhận được lệnh viết mã cho phần mềm độc hại tống tiền (ransomware), ChatGPT đã thực hiện yêu cầu này chỉ trong vài phút và có thể khiến một máy tính thử nghiệm ngay lập tức bị dính mã độc.

Nếu một máy tính trong hệ thống bị nhiễm ransomware thì khả năng cao những máy còn lại trong cùng hệ thống sẽ bị ảnh hưởng tương tự. Điều này có thể gây ra hậu quả nghiêm trọng cho các công ty và tổ chức, đặc biệt là khi thông tin quan trọng bị mã hóa và bị tống tiền để lấy cắp quyền truy cập.

"Đó là một mối đe dọa đối với xã hội khi một loại virus độc hại có thể được tạo ra chỉ trong vài phút khi trò chuyện với ChatGPT. Tôi muốn các nhà phát triển AI coi trọng các biện pháp ngăn chặn việc lạm dụng”, ông Yoshikawa nhấn mạnh.

Theo Kyodo News, phát hiện mới nhất này cho thấy các biện pháp an ninh của nhà phát triển phần mềm như ChatGPT có thể bị phá vỡ dẫn đến các công cụ AI này bị lợi dụng để trở thành công cụ hỗ trợ tin tặc thực hiện hành vi trái pháp luật.

Về phía OpenAI, công ty phát triển công cụ ChatGPT cho rằng, nhà phát triển không thể dự đoán tất cả các thách thức mà công cụ này có thể bị lợi dụng nhưng họ có thể khắc phục bằng cách tạo ra một trí tuệ nhân tạo an toàn hơn dựa trên phản hồi từ những ứng dụng thực tế.

Trong bối cảnh dấy lên nhiều lo ngại rằng các chatbot AI có nguy cơ khiến tỷ lệ tội phạm gia tăng trên không gian mạng, nhiều quốc gia đang nỗ lực tìm cách đưa ra các biện pháp đối với trí tuệ nhân tạo nhằm kiểm soát hiệu quả và chặt chẽ.

Vấn đề này sẽ được thảo luận rộng rãi tại Hội nghị thượng đỉnh Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7) dự kiến diễn ra tại thành phố Hiroshima (Nhật Bản) vào tháng 5 sắp tới, cũng như tại các diễn đàn quốc tế khác.

Hà Anh

Nguồn Mekong Asean: https://mekongasean.vn/chuyen-gia-nhat-canh-bao-chatgpt-bi-loi-dung-de-tao-ra-phan-mem-doc-hai-post20729.html