Hacker xâm nhập hệ thống nội bộ OpenAI và đánh cắp thông tin về thiết kế công nghệ AI
Một hacker đã giành được quyền truy cập vào hệ thống nhắn tin nội bộ tại OpenAI vào năm ngoái và đánh cắp thông tin chi tiết về thiết kế công nghệ trí tuệ nhân tạo (AI) của công ty đứng sau chatbot ChatGPT, tờ New York Times đưa tin hôm 4.7.
Hacker đã lấy thông tin chi tiết từ các cuộc thảo luận trên một diễn đàn trực tuyến của OpenAI, nơi các nhân viên nói về các công nghệ mới nhất, New York Times cho biết, trích dẫn hai người quen thuộc với vụ việc.
Tuy nhiên theo New York Times, hacker đã không xâm nhập được vào các hệ thống mà OpenAI lưu trữ và xây dựng AI của mình.
OpenAI không trả lời ngay lập tức khi được Reuters đề nghị bình luận.
Theo báo cáo, các giám đốc OpenAI thông báo cho cả nhân viên tại một cuộc họp toàn thể hồi tháng 4.2023 và hội đồng quản trị công ty về hành vi xâm phạm, nhưng quyết định không chia sẻ tin tức công khai vì không có thông tin nào về khách hàng hoặc đối tác bị đánh cắp.
Theo New York Times, các giám đốc OpenAI không coi vụ việc là mối đe dọa an ninh quốc gia, tin rằng hacker là một cá nhân riêng lẻ và không có mối quan hệ nào với chính phủ nước ngoài. Công ty có trụ sở tại San Francisco (Mỹ) cũng không thông báo cho các cơ quan thực thi pháp luật liên bang Mỹ về vụ xâm phạm này.
Cuối tháng 5, OpenAI cho biết đã phá vỡ 5 hoạt động gây ảnh hưởng bí mật nhằm tìm cách sử dụng các mô hình AI cho hoạt động lừa đảo trên internet.
Công ty tiết lộ các tác nhân đe dọa đã sử dụng mô hình AI của họ để tạo ra bình luận ngắn, bài viết dài bằng nhiều ngôn ngữ, tạo tên và tiểu sử cho một số tài khoản mạng xã hội trong ba tháng qua.
Các chiến dịch này, gồm tác nhân đe dọa từ Nga, Trung Quốc, Iran và Israel, cũng tập trung vào vấn đề như Nga tấn công Ukraine, cuộc xung đột tại Gaza, bầu cử ở Ấn Độ, chính trị tại châu Âu và Mỹ, cùng những vấn đề khác.
OpenAI cho biết các hoạt động lừa đảo là “nỗ lực nhằm thao túng dư luận hoặc gây ảnh hưởng đến kết quả chính trị”.
Báo cáo của OpenAI, công ty được Microsoft hậu thuẫn, làm dấy lên mối lo ngại về an toàn về khả năng lạm dụng AI tạo sinh, công nghệ có thể tạo ra văn bản, hình ảnh, âm thanh giống con người nhanh chóng và dễ dàng.
OpenAI tuyên bố các chiến dịch lừa đảo đã không được hưởng lợi từ việc tăng cường tương tác hoặc phạm vi tiếp cận nhờ các dịch vụ của công ty này.
Ngoài ra, OpenAI nói các hoạt động đó không chỉ sử dụng tài liệu do AI tạo ra mà còn gồm cả văn bản viết thủ công hoặc meme được sao chép từ khắp nơi trên internet.
Cuối tháng 2, OpenAI thông báo xóa các tài khoản được sử dụng bởi một số nhóm hacker từ Iran, Triều Tiên, Trung Quốc và Nga đang lạm dụng ChatGPT nhằm thực hiện các hành vi độc hại.
OpenAI cho biết sẽ tiếp tục theo dõi và ngăn chặn các hacker bằng cách sử dụng công nghệ giám sát chuyên dụng lẫn thông tin từ đối tác và những nhóm bảo mật thuộc nhiều tổ chức, công ty an ninh mạng trên thế giới.
Mới đây, Microsoft (nhà đầu tư lớn nhất vào OpenAI) cảnh báo về kỹ thuật bẻ khóa buộc mô hình AI cung cấp công thức tạo chất nổ, vũ khí sinh học.
Với kỹ thuật bẻ khóa Skeleton Key, người dùng có thể thuyết phục các mô hình ngôn ngữ lớn như Llama 3 của Meta Platforms, Gemini Pro của Google và GPT 3.5 của OpenAI cung cấp cho họ công thức chế tạo một quả bom lửa thô sơ hoặc thứ đáng sợ hơn, theo bài viết trên blog từ Mark Russinovich - Giám đốc công nghệ Microsoft Azure (dịch vụ điện toán đám mây của Microsoft).
Mark Russinovich cho biết kỹ thuật này hoạt động thông qua chiến lược gồm nhiều bước, buộc một mô hình ngôn ngữ lớn phải bỏ qua các rào chắn bảo vệ của nó. Các cơ chế bảo vệ giúp mô hình ngôn ngữ lớn phân biệt giữa các yêu cầu độc hại với lành tính.
Ông viết: “Giống như tất cả kỹ thuật bẻ khóa, Skeleton Key hoạt động bằng cách thu hẹp khoảng cách giữa những gì mô hình ngôn ngữ lớn có thể thực hiện (dựa trên thông tin người dùng cung cấp) và những gì nó sẵn sàng làm”.
Tuy nhiên, Skeleton Key có sức tàn phá lớn hơn các kỹ thuật bẻ khóa khác, vốn chỉ có thể lấy thông tin từ các mô hình ngôn ngữ lớn “gián tiếp hoặc bằng cách giải mã”. Trong khi đó, Skeleton Key có thể buộc các mô hình ngôn ngữ lớn tiết lộ thông tin về các chủ đề từ chất nổ, vũ khí sinh học đến tự làm hại bản thân thông qua các gợi ý bằng ngôn ngữ tự nhiên đơn giản. Những kết quả đầu ra này thường tiết lộ toàn bộ kiến thức của mô hình ngôn ngữ lớn về bất kỳ chủ đề nhất định nào.
Microsoft đã thử nghiệm Skeleton Key trên một số mô hình ngôn ngữ lớn và nhận thấy nó hoạt động trên Meta Llama3, Google Gemini Pro, GPT-3.5 Turbo và GPT-4o của OpenAI, Mistral Large, Anthropic Claude 3 Opus và Cohere Commander R Plus. Theo thử nghiệm, chỉ GPT-4 cho thấy khả năng chống lại kỹ thuật bẻ khóa của Skeleton Key ở một mức độ nào đó, tức là không dễ dàng bị lừa để cung cấp thông tin nguy hiểm.
Mark Russinovich cho biết Microsoft đã thực hiện một số cập nhật phần mềm để giảm thiểu tác động từ Skeleton Key với các mô hình ngôn ngữ lớn của riêng họ, gồm cả trợ lý trí tuệ nhân tạo (AI) Copilot.
Song, lời khuyên chung của Mark Russinovich dành cho các công ty xây dựng hệ thống AI là hãy thiết kế chúng với các cơ chế bảo vệ bổ sung. Ông cũng lưu ý rằng họ nên giám sát đầu vào và đầu ra của hệ thống AI, đồng thời thực hiện kiểm tra để phát hiện nội dung lạm dụng.
Đầu tháng 5, Reuters đưa tin chính quyền Biden đã sẵn sàng mở ra một mặt trận mới trong nỗ lực bảo vệ AI của Mỹ khỏi Trung Quốc và Nga với kế hoạch sơ bộ nhằm thiết lập các rào chắn xung quanh các mô hình AI tiên tiến nhất. Đó là phần mềm cốt lõi của các hệ thống AI như ChatGPT.
Bộ Thương mại Mỹ đang cân nhắc một động thái pháp lý mới nhằm hạn chế xuất khẩu các mô hình AI độc quyền hoặc nguồn đóng, có phần mềm và dữ liệu đào tạo được giữ kín, theo Reuters.
Các nhà nghiên cứu của chính phủ và khu vực tư nhân lo ngại các đối thủ cạnh tranh với Mỹ có thể sử dụng các mô hình AI này khai thác lượng lớn văn bản và hình ảnh để tóm tắt thông tin và tạo nội dung, rồi thực hiện các cuộc tấn công mạng mạnh mẽ hoặc thậm chí tạo ra vũ khí sinh học nguy hiểm.
Hôm 21.5, 16 công ty AI đã cam kết tại cuộc họp toàn cầu diễn ra tại Seoul (thủ đô Hàn Quốc) rằng sẽ phát triển AI một cách an toàn vào thời điểm các cơ quan quản lý đang nỗ lực theo kịp sự đổi mới nhanh chóng và những rủi ro mới nổi.
Đó là cam kết chung của OpenAI, Google DeepMind, Anthropic, Microsoft, Amazon, IBM và Meta Platforms (đều ở Mỹ), Mistral AI (Pháp), Zhipu.ai (Trung Quốc)... Đây là bước tiếp theo sau sự đồng thuận đạt được tại hội nghị thượng đỉnh an toàn AI toàn cầu đầu tiên tại Bletchley Park (Anh) vào năm ngoái.
Theo thỏa thuận, các công ty sẽ công khai cách thức họ đánh giá rủi ro của công nghệ AI, trong đó có việc xác định những rủi ro nào được coi là "không thể chấp nhận được" và các biện pháp để đảm bảo chúng không vượt ngưỡng cho phép. Trong trường hợp xấu nhất, các công ty cam kết sẽ không phát triển hoặc triển khai mô hình hoặc hệ thống AI nếu không thể giảm thiểu rủi ro xuống dưới mức cho phép. Định nghĩa về ngưỡng này sẽ được quyết định trước hội nghị thượng đỉnh AI tiếp theo, dự kiến diễn ra tại Pháp vào năm 2025.
Thành công vượt bậc của ChatGPT ngay sau khi ra mắt vào tháng 11.2022 đã châm ngòi cho một cuộc chạy đua trong lĩnh vực AI. Các hãng công nghệ trên thế giới đổ hàng tỉ USD để phát triển các mô hình AI riêng (có thể tạo văn bản, ảnh, âm thanh và thậm chí cả video từ các gợi ý đơn giản).
Những người ủng hộ AI cho rằng đây là một bước đột phá sẽ cải thiện cuộc sống và kinh doanh trên thế giới. Tuy nhiên, những người chỉ trích AI cảnh báo rằng công nghệ này có thể bị lạm dụng trong nhiều tình huống khác nhau dẫn đến việc tạo ra những tin tức giả mạo.
Nhiều người kêu gọi các tiêu chuẩn quốc tế để chi phối việc phát triển và sử dụng AI, đồng thời kêu gọi hành động tại các hội nghị thượng đỉnh như cuộc họp tại Seoul.
Ngoài vấn đề an toàn, trong 2 ngày diễn ra hội nghị cả trực tuyến và trực tiếp tại Seoul, một số đại biểu cũng sẽ thảo luận về cách các chính phủ có thể giúp thúc đẩy đổi mới, gồm cả nghiên cứu AI tại trường đại học. Các đại biểu cũng sẽ xem xét cách để đảm bảo công nghệ này được mở ra cho mọi người, có thể hỗ trợ giải quyết các vấn đề như biến đổi khí hậu và nghèo đói.