'Robot AI có khả năng tấn công dịch vụ y tế quốc gia, gây gián đoạn giống đại dịch COVID-19'
Chuyên gia an ninh mạng Ian Hogarth cảnh báo trí tuệ nhân tạo (AI) có thể góp phần vào 'cuộc tấn công sinh học'.
Theo Ian Hogarth, robot được điều hành bởi AI có khả năng tấn công Dịch vụ Y tế Quốc gia (NHS) của Vương quốc Anh và gây ra sự gián đoạn trên quy mô lớn như đại dịch COVID-19.
Ian Hogarth, người làm việc trong lực lượng đặc nhiệm AI Vương quốc Anh (được thành lập để giúp bảo vệ chống lại các rủi ro của AI), nói rằng công nghệ đang phát triển này có khả năng thực hiện cuộc tấn công làm tê liệt NHS hoặc thậm chí thực hiện “cuộc tấn công sinh học”, theo tờ Daily Star.
Ian Hogarth lưu ý rằng công nghệ AI tiếp tục được cải thiện với tốc độ nhanh chóng, điều mà ông cảnh báo "làm cho việc thực hiện một số loại tấn công mạng hoặc phạm tội trực tuyến dễ dàng hơn".
Theo Daily Star, lực lượng đặc nhiệm AI của Ian Hogarth đã nhận được 100 triệu bảng Anh (tương đương 124 triệu USD) từ nguồn tài trợ của chính phủ, với công việc của đội cho đến nay vẫn tập trung vào nghiên cứu về an toàn có thể giúp phát triển các công cụ hữu ích tương tự ChatGPT.
Ian Hogarth cho biết điều quan trọng là các nước trên thế giới phải hợp tác để giảm thiểu rủi ro của AI. Ông đặc biệt lưu ý rằng điều quan trọng là phải đưa các quốc gia như Trung Quốc vào các cuộc thảo luận đó. Điều này càng trở nên quan trọng hơn sau những bài học rút ra từ đại dịch COVID-19.
Ian Hogarth nhận định: “Nó giống như đại dịch COVID-19. Đó là loại bệnh mà bạn không thể giải quyết một mình. Loại rủi ro mà chúng tôi chú ý nhất là an ninh quốc gia gia tăng”.
“Về cơ bản, đây là những rủi ro toàn cầu. Cũng giống như cách chúng tôi hợp tác với Trung Quốc trong các khía cạnh an ninh sinh học và an ninh mạng, tôi nghĩ rằng hợp tác quốc tế có giá trị thực sự xung quanh những rủi ro quy mô lớn hơn”, ông nói thêm.
Ian Hogarth lưu ý rằng phần lớn ngành công nghệ đã bắt đầu tập trung sự chú ý vào AI, đã dẫn đến sự cải tiến nhanh chóng của công nghệ nhưng cũng làm nổi bật những mối nguy hiểm.
Chuyên gia AI này đã chỉ ra cuộc tấn công mạng WannaCry nhắm vào NHS năm 2017 dẫn đến việc hủy 19.000 cuộc hẹn với bệnh nhân và khiến dịch vụ y tế quốc gia thiệt hại 92 triệu bảng (114 triệu USD). Ông cho rằng sự tiến bộ nhanh chóng của công nghệ AI có thể khiến các cuộc tấn công như vậy trở nên dễ dàng hơn.
Ian Hogarth nói: “Một số lượng lớn người trong lĩnh vực công nghệ đang cố gắng phát triển các hệ thống AI có khả năng viết mã siêu phàm… Công nghệ đó ngày càng tốt hơn. Về cơ bản, điều đó làm cho việc thực hiện một số loại tấn công mạng hoặc phạm tội trực tuyến dễ dàng hơn”.
Hacker dùng ChatGPT để tạo ra dòng phần mềm độc hại mới
ChatGPT, chatbot AI của công ty khởi nghiệp OpenAI (Mỹ), đang giúp hacker tạo phần mềm độc hại trở nên dễ dàng.
Kẻ xấu đang khai thác sức mạnh của chatbot AI phổ biến nhất thế giới để tạo ra các dòng phần mềm độc hại (malware) mới.
Công ty an ninh mạng WithSecure (Phần Lan) xác nhận rằng đã tìm thấy các dòng phần mềm độc hại mới do ChatGPT tạo ra. Điều đặc biệt nguy hiểm là ChatGPT có thể tạo ra vô số biến thể của phần mềm độc hại, khiến chúng khó bị phát hiện.
WithSecure là công ty an ninh mạng chuyên cung cấp các giải pháp và dịch vụ bảo mật nhằm bảo vệ khỏi các mối đe dọa mạng đa dạng. Công ty cung cấp thông tin tình báo về mối đe dọa, đánh giá lỗ hổng, phản ứng sự cố và tư vấn bảo mật. Mục tiêu của WithSecure là hỗ trợ các tổ chức nâng cao khả năng bảo mật mạng và phòng ngừa các hoạt động độc hại.
Những kẻ xấu chỉ cần cung cấp cho ChatGPT các ví dụ về mã phần mềm độc hại hiện có và hướng dẫn chatbot AI này tạo ra các biến thể mới dựa trên đó. Thế nên kẻ xấu có thể tạo ra các dòng mã độc mới mà không mất nhiều thời gian, nỗ lực và chuyên môn như trước đây.
Tin tức này xuất hiện khi có rất nhiều cuộc nói chuyện về việc điều chỉnh AI, để ngăn không cho công nghệ này bị sử dụng cho mục đích xấu.
Khi ChatGPT ra mắt vào tháng 11.2022, thực tế là không có quy định nào quản lý việc sử dụng nó. Chỉ sau đó 1 tháng, chatbot AI của OpenAI đã bị lạm dụng để viết các email và tạo file độc hại.
Có một số biện pháp bảo vệ cụ thể đã được áp dụng bên trong mô hình ngôn ngữ lớn nhằm ngăn chặn việc thực hiện các lời gợi ý xấu xa, nhưng kẻ tấn công có thể tìm cách vượt qua những biện pháp này.
Juhani Hintikka, Giám đốc điều hành WithSecure, nói với trang Infosecurity rằng AI thường được các nhà bảo vệ an ninh mạng sử dụng để tìm và loại bỏ phần mềm độc hại do kẻ xấu tạo thủ công. Song bây giờ, với sự sẵn có miễn phí của các công cụ AI mạnh mẽ như ChatGPT, tình thế đang thay đổi. Các công cụ truy cập từ xa đã được dùng cho mục đích bất hợp pháp và giờ đây AI cũng vậy.
Tim West, người đứng đầu bộ phận tình báo về mối đe dọa tại WithSecure, nói thêm rằng: “ChatGPT sẽ hỗ trợ kỹ thuật phần mềm cả điều tốt lẫn xấu. Nó là một công cụ trợ giúp cũng như hạ thấp rào cản xâm nhập cho các kẻ đe dọa phát triển phần mềm độc hại”.
Theo Juhani Hintikka, các email lừa đảo mà ChatGPT có thể viết thường được con người phát hiện. Song khi mô hình ngôn ngữ lớn ngày càng trở nên tiên tiến hơn thì việc ngăn chặn những trò lừa đảo như vậy trong tương lai gần sẽ khó khăn hơn.
Hơn nữa, với sự thành công của các cuộc tấn công ransomware ngày càng tăng với tốc độ đáng lo ngại, những kẻ đe dọa đang tái đầu tư và trở nên có tổ chức hơn, mở rộng hoạt động bằng cách thuê bên ngoài và phát triển hơn nữa hiểu biết về AI để tiến hành các cuộc tấn công thành công hơn.
Ransomware là một loại phần mềm độc hại mà kẻ tấn công sử dụng để mã hóa dữ liệu trên hệ thống của nạn nhân và yêu cầu một khoản tiền chuộc để giải mã dữ liệu. Khi hệ thống bị nhiễm ransomware, người dùng sẽ không thể truy cập hoặc sử dụng dữ liệu mà không có khóa giải mã.
Khi nhìn vào bối cảnh an ninh mạng phía trước, Juhani Hintikka kết luận rằng: "Đây sẽ là trò chơi giữa AI tốt và AI xấu".