Doanh nghiệp cần đánh giá rủi ro khi tích hợp trí tuệ nhân tạo
Theo Reuters, doanh nghiệp cần cẩn trọng tích hợp các công cụ trí tuệ nhân tạo (AI) vào quy trình kinh doanh khi các tội phạm mạng đang tận dụng các chatbot AI để hướng dẫn chúng thực hiện các tác vụ độc hại.
Trung tâm an ninh mạng của Anh (NCSC) cảnh báo các tổ chức, doanh nghiệp đang tích hợp chatbot AI vào sản phẩm và dịch vụ về khả năng rủi ro của các công cụ trí tuệ nhân tạo, những thuật toán có thể tương tác giống con người, hay còn được gọi là các mô hình ngôn ngữ lớn (LLM) khi được đưa vào quy trình vận hành, hoạt động kinh doanh của doanh nghiệp.
"Các tổ chức, doanh nghiệp phát triển, tích hợp dịch vụ trí tuệ nhân tạo như các mô hình lớn cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử nghiệm", NCSC đề cập đến những công cụ AI phát hành thử nghiệm gần đây.
Thời gian qua, các chuyên gia của NCSC liên tục phát hiện nhiều trường hợp tin tặc đánh lừa các công cụ AI, hướng dẫn chatbot thực hiện lừa đảo hoặc phá vỡ các rào chắn bảo vệ được tích hợp. Chẳng hạn như một chatbot AI sử dụng tại ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc đưa ra các chỉ dẫn, câu lệnh đúng.
Công ty an ninh mạng Darktrace của Anh cho biết, ChatGPT gây sốt với giới công nghệ toàn cầu nhờ khả năng viết luận, soạn thảo e-mail dài hàng nghìn từ chỉ trong vài giây với câu lệnh đơn giản. Cũng chính vì thế mà sự xuất hiện những ngôn ngữ phức tạp bao gồm dấu câu, câu dài và khối lượng văn bản trong các e-mail này đang tạo điều kiện cho các tội phạm mạng tung ra các thủ đoạn tinh vi và phức tạp hơn nhằm khai thác lòng tin của người dùng.
Giới chuyên gia cho rằng, tin tặc có thể lợi dụng ChatGPT để soạn thảo các e-mail lừa đảo giống như thật mà không mắc lỗi chính tả, nhằm khuyến khích người dùng chia sẻ mật khẩu hoặc dữ liệu cá nhân như thông tin tài khoản ngân hàng.
Trong khi đó, cuộc khảo sát mới đây của Reuters/Ipsos cho thấy tình trạng đáng báo động ở nhiều nhân viên công ty trên toàn cầu đang sử dụng công cụ trí tuệ nhân tạo như ChatGPT để thực hiện các tác vụ cơ bản như dự thảo e-mail, tóm tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu. Khoảng 10% nhân viên nói rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết liệu công ty có cho phép sử dụng công nghệ này hay không.
Ông Oseloka Obiora, Giám đốc công nghệ tại hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào mô hình kinh doanh sẽ tạo ra những hậu quả thảm khốc khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết.
"Thay vì chạy theo xu hướng AI, các giám đốc cấp cao nên suy nghĩ kỹ và tiến hành đánh giá lợi ích cũng như rủi ro và các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp", ông Obiora nói thêm.
Trước sự bùng nổ của trí tuệ nhân tạo, chính phủ các nước đang tìm cách quản lý sự trỗi dậy của các mô hình ngôn ngữ lớn như ChatGPT. Lo ngại về tính bảo mật của công nghệ được xem là trọng tâm chính sách khi Mỹ và Canada gần đây ghi nhận nhiều trường hợp tin tặc lợi dụng các công cụ AI tạo sinh để thực hiện các hành vi trái pháp luật.
Vào tháng 7/2023, Trung tâm an ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc. Giám đốc trung tâm an ninh mạng Canada Sami Khoury khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này.
"Mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng", ông Khoury nhấn mạnh.