'Thợ săn hacker' mất ăn mất ngủ vì những hiểm họa lớn mà AI mang lại
Chuyên gia an ninh mạng Mikko Hypponen cho rằng AI sẽ thay đổi mọi thứ, nhưng đồng thời cũng lo lắng về những mối đe dọa về an ninh mà nó sẽ gây ra.
Mikko Hypponen là một thiên tài công nghệ đã dành nhiều thập kỷ ngăn chặn và săn lùng các phần mềm độc hại.
Từ khi còn là một cậu thanh niên trẻ đầy nhiệt huyết tại Helsinki, chuyên gia công nghệ 54 tuổi đã thành công ngăn chặn nhiều mã độc nguy hiểm nhất trên toàn cầu.
Không những thế, cựu chuyên gia an ninh mạng tại hãng bảo mật F-Secure còn truy vết thành công những kẻ đã tạo ra virus đầu tiên trên thế giới.
Trò chuyện với TNW, Hypponen tin rằng trí tuệ nhân tạo (AI) sẽ tạo nên cuộc cách mạng "còn lớn hơn cả Internet". Tuy nhiên, đi kèm với tốc độ phát triển đáng kinh ngạc, "thợ săn hacker" cũng cho rằng mặt trái mà AI mang lại sẽ khiến các vụ lừa đảo trở nên tinh vi và gây thiệt hại lớn hơn.
Đặc biệt, có những mối nguy từ AI đang khiến Hypponen mất ăn mất ngủ để tìm cách phòng vệ cho các hệ thống máy tính.
Hiểm họa deepfake
Deepfake là công nghệ giúp ghép khuôn mặt một của một người bất kỳ vào trong ảnh hoặc video dàn dựng. Hot TikToker, người nổi tiếng cho đến cả những diễn viên Hollywood đình đám đều có thể là nạn nhân của công nghệ ghép khuôn mặt này.
Theo nhiều báo cáo trong những năm gần đây, số lượng vụ lừa đảo liên quan đến deepfake đang gia tăng với tốc độ đáng sợ. Theo một nghiên cứu từ Onfido, số lượng các vụ lừa đảo thông tin người dùng đã tăng gấp 3.000% chỉ trong năm 2023 ở London.
Một trong những sự việc deepfakes nổi tiếng nhất phải nhắc tới vụ của YouTuber nổi tiếng MrBeast.
Vào tháng 8/2023, MrBeast đã lên tiếng cảnh báo người dùng về một đoạn video được dàn dựng bằng công nghệ deepfake trên trang X của mình.
Trong video, người ta thấy hình ảnh MrBeast đang kêu gọi mọi người đưa cho anh chỉ 2 USD để nhận được mẫu iPhone mới nhất. Nổi tiếng với những video có nội dung tặng quà cho người khác, rất nhiều người đã rơi vào cái bẫy này khi tin rằng nam YouTuber thật sự đang tạo content.
“Mặc dù chưa có một vụ án quy mô lớn nào liên quan đến deepfake, nhưng càng về lâu dài thì loại hình này sẽ còn biến tướng thêm nhiều nữa”, Hypponen chia sẻ quan ngại.
Để hạn chế rủi ro, Hypponen khuyên người dùng không nên tiết lộ thông tin cá nhân cho bất kỳ ai. Nếu người thân hoặc bạn bè yêu cầu chuyển tiền hay tài liệu bí mật, chuyên gia bảo mật đề xuất người dùng nên dùng một số câu chuyện để xác thực người thật.
"Điều này nghe có vẻ hơi nực cười nhưng rất cần thiết. Việc lên kế hoạch đề phòng lừa đảo ngay từ bây giờ là một biện pháp hiệu quả”, Giám đốc nghiên cứu tại WithSecure - công ty an ninh mạng lớn nhất ở Bắc Âu chia sẻ.
Mã độc và lỗ hổng sẽ được tìm thấy với tốc độ chưa từng có
Nhóm của Hypponen đã tìm thấy một số AI có khả năng tự viết mã độc và đăng lên nền tảng Github. Điều này cho thấy khi giao thức an toàn bị bẻ khóa, trí tuệ nhân tạo sẽ trở thành công cụ đắc lực cho những hacker.
Điều nguy hiểm hơn là một khi mã độc do AI việt đã được lây nhiễm, chúng sẽ tự tạo ra những đoạn mã ngẫu nhiên khác nhau đối với từng nạn nhân, khiến việc truy tìm nguồn gốc gần như bất khả thi.
OpenAI, công ty đứng sau ChatGPT đã nỗ lực đưa các tài khoản có ý định sử dụng chatbot để tạo mã độc vào danh sách đen. Thế nhưng, do đây là chương trình mã nguồn mở nên hãng không thể kiểm soát được nếu người dùng tải về máy tính.
Một mối lo ngại mới nổi khác về AI liên quan đến việc khai thác "Zero-day", cách gọi lỗ hổng bảo mật trên các nền tảng bị hacker phát hiện trước khi nhà phát triển tìm ra giải pháp cho vấn đề.
Hypponen nhấn mạnh không chỉ có thể phát hiện những lỗ hổng này với tốc độ cao hơn, AI thậm chí còn thể tạo ra chúng.
"Thật tuyệt khi bạn có thể tìm ra lỗi trên hệ thống của mình sớm hơn nhờ AI. Tuy nhiên, sẽ thật khủng khiếp nếu ai đó sử dụng AI để tìm lỗi nhanh hơn bạn. Tôi tin rằng điều này sẽ trở thành hiện thực, thậm chí là có thể trong thời gian ngắn", chuyên gia công nghệ 54 tuổi nhận định.
Cuối cùng, Hypponen bày tỏ quan ngại lớn trong tương lai về trí tuệ nhân tạo tổng hợp (Artificial General Intelligence - AGI).
AGI là một nhánh siêu trí tuệ máy tính có khả năng nhận thức và có thể học hỏi cũng như cải thiện khả năng của mình theo thời gian.
Điều này trùng khớp với định luật nổi tiếng của ông về bảo mật IoT, sau này được gọi là định luật Hypponen, phát biểu về một thiết bị được mô tả là "thông minh" sẽ dễ bị tấn công.
Nếu định luật Hypponen áp dụng cho một hệ thống máy tính siêu thông minh như AGI, đó sẽ là thảm họa với nhân loại.
“Tôi nghĩ sớm muộn nhân loại sẽ không còn là giống loài có trí tuệ đứng đầu hành tinh này nữa. Có thể điều đó sẽ không xảy ra trong năm 2024, nhưng tôi nghĩ mình sẽ được chứng kiến nó trong tương lai”, Hypponen nói.