Cựu CEO Google lo hầu hết quốc gia sẽ dùng mô hình AI Trung Quốc
Eric Schmidt, cựu giám đốc điều hành Google, lo rằng phần lớn quốc gia sẽ dùng các mô hình AI của Trung Quốc vì lý do chi phí.
"Trong khi các mô hình AI lớn nhất ở Mỹ là mã nguồn đóng, các mô hình lớn nhất ở Trung Quốc lại là mã nguồn mở. Tất nhiên, vấn đề địa chính trị ở đây là mã nguồn mở thì miễn phí, còn các mô hình mã nguồn đóng thì không", Eric Schmidt chia sẻ trong một tập podcast Moonshots phát hành mới đây.
Các mô hình AI mã nguồn mở cho phép chia sẻ tự do và công khai cho bất kỳ ai, với bất kỳ mục đích nào.
“Vì thế, phần lớn chính phủ và quốc gia không có tiềm lực tài chính như ở phương Tây sẽ phải chuẩn hóa theo các mô hình của Trung Quốc, không phải vì chúng tốt hơn mà do miễn phí”, tỷ phú 70 tuổi người Mỹ nói thêm.
Eric Schmidt từng là Giám đốc điều hành Google từ năm 2001 đến 2015, dẫn dắt công ty phát hành cổ phiếu lần đầu ra công chúng (IPO) năm 2004. Hiện ông là đối tác sáng lập quỹ đầu tư mạo hiểm Innovation Endeavours và điều hành công ty khởi nghiệp hàng không vũ trụ Relativity Space. Theo Bloomberg Billionaires Index, Eric Schmidt có tài sản ròng gần 50 tỉ USD và giàu thứ 33 thế giới.

Eric Schmidt lo rằng phần lớn quốc gia có thể sẽ sử dụng các mô hình AI mã nguồn mở của Trung Quốc - Ảnh: Getty Images
Những người ủng hộ mô hình AI mã nguồn mở cho rằng cách tiếp cận này giúp công nghệ phát triển nhanh chóng và dân chủ hơn, vì bất kỳ ai cũng có thể chỉnh sửa và phân phối lại mã nguồn. Ngược lại, những ai ủng hộ mô hình AI mã nguồn đóng cho rằng chúng an toàn hơn, vì mã được giữ kín.
Việc các mô hình AI Trung Quốc như DeepSeek R1 và Qwen 3 thuộc Alibaba phổ biến trong năm nay đã làm dấy lên lo ngại về quyền riêng tư dữ liệu, an ninh quốc gia và lợi thế cạnh tranh của Mỹ.
CEO Nvidia và Mistral ủng hộ mô hình AI mã nguồn mở
Khái niệm “AI có chủ quyền”, tức khả năng một quốc gia kiểm soát và quản trị các công nghệ, dữ liệu và hạ tầng AI, đang ngày càng được chú ý trong giới công nghệ và chính trị.
Jensen Huang (Giám đốc điều hành Nvidia) và Arthur Mensch (Giám đốc điều hành công ty khởi nghiệp AI Mistral) đều cho rằng các quốc gia cần xây dựng hệ thống AI độc lập của riêng mình.
Trong một podcast hồi tháng 3, Arthur Mensch so sánh AI với điện năng vào những năm 1900 và nói rằng các quốc gia không tự phát triển hệ thống AI sẽ khiến tiền bạc chảy sang nước khác.
“Cách đây 100 năm, nếu không xây dựng nhà máy điện, bạn sẽ phải mua điện từ hàng xóm. Điều này không tốt vì tạo ra sự phụ thuộc”, ông nói.

Arthur Mensch ủng hộ mô hình AI mã nguồn mở - Ảnh: Internet
Vào tháng 2, Jensen Huang nói với các quan chức tại Hội nghị Thượng đỉnh Chính phủ Thế giới ở Dubai (UAE) rằng các quốc gia cần hướng đến việc xây dựng AI có chủ quyền.
Tỷ phú 62 tuổi người Đài Loan nói: “Nếu tôi lãnh đạo một quốc gia đang phát triển, điều đầu tiên tôi làm sẽ là mã hóa ngôn ngữ và dữ liệu văn hóa của đất nước mình vào một mô hình ngôn ngữ lớn riêng”.
Giống nhiều người, cả Jensen Huang và Arthur Mensch đều ủng hộ mô hình AI mã nguồn mở.
Mô hình AI mã nguồn mở của startup Trung Quốc vượt GPT-5 và Claude Sonnet 4.5
Trung Quốc dẫn đầu thế giới về mô hình AI mã nguồn mở, với Moonshot AI là ngôi sao đang lên cạnh tranh với DeepSeek và Alibaba.
Moonshot AI là công ty khởi nghiệp AI có trụ sở tại Bắc Kinh (thủ đô Trung Quốc) với định giá 3,3 tỉ USD, được hậu thuẫn bởi các hãng công nghệ lớn như Alibaba và Tencent.
Mới đây, Moonshot AI cho biết mô hình suy luận mã nguồn mở Kimi K2 Thinking có hiệu năng vượt GPT-5 của OpenAI và Claude Sonnet 4.5 của Anthropic về một số chỉ số. OpenAI (“cha đẻ ChatGPT”) và Anthropic là hai công ty khởi nghiệp AI hàng đầu Mỹ.
Điều này thổi bùng cuộc tranh luận về khả năng xuất hiện thêm một “khoảnh khắc DeepSeek” và quỹ đạo thống trị AI của Mỹ.
Theo Moonshot AI, Kimi K2 Thinking “thiết lập kỷ lục mới trong các bài kiểm tra về khả năng suy luận, lập trình và hoạt động của tác nhân AI”.
Trên nền tảng Hugging Face, Kimi K2 Thinking là mô hình AI phổ biến nhất dành cho các nhà phát triển tính đến nay. Trong khi bài đăng trên mạng xã hội X của Moonshot AI về Kimi K2 Thinking hôm 6.11 đã thu hút hơn 4,6 triệu lượt xem.
Hugging Face là nền tảng công nghệ AI mã nguồn mở hàng đầu thế giới, nổi tiếng với việc chia sẻ và phát triển các mô hình AI.
Độ phổ biến của Kimi K2 Thinking, một biến thể thuộc dòng Kimi K2, càng tăng mạnh sau khi kênh CNBC (Mỹ) đưa tin chi phí huấn luyện nó chỉ khoảng 4,6 triệu USD. Moonshot AI từ chối bình luận về con số này.
Ngay cả khi không xét đến chi phí, Kimi K2 Thinking vẫn khiến cộng đồng AI ấn tượng. Thomas Wolf, đồng sáng lập Hugging Face, viết trên X rằng Kimi K2 Thinking là một ví dụ khác cho thấy mô hình AI mã nguồn mở có thể vượt qua mô hình mã nguồn đóng.
“Đây có phải là một khoảnh khắc DeepSeek khác không? Liệu chúng ta có nên mong đợi một mô hình như vậy cứ sau vài tháng không?”, Thomas Wolf đặt câu hỏi. Ông ám chỉ đến việc DeepSeek từng ra mắt R1, mô hình suy luận mã nguồn mở có hiệu năng cao với chi phí đào tạo thấp, hồi đầu năm, làm lung lay nhận định rằng Mỹ nắm giữ vị thế thống trị tuyệt đối trong lĩnh vực AI.
Theo bài đăng trên GitHub của Moonshot AI, Kimi K2 Thinking đạt 44,9% điểm trong bài kiểm tra Humanity’s Last Exam (bộ đánh giá cho các mô hình ngôn ngữ lớn gồm 2.500 câu hỏi bao phủ nhiều lĩnh vực), vượt qua số điểm 41,7% của GPT-5.
Chưa hết, Kimi K2 Thinking cũng vượt trội các mô hình AI của Mỹ ở hai bài kiểm tra cụ thể:
1. BrowseComp: Đánh giá khả năng duyệt web và kiên trì tìm kiếm thông tin của các tác tử AI.
2. Seal-0: Thách thức các mô hình ngôn ngữ lớn về khả năng tìm kiếm tăng cường với các truy vấn nghiên cứu thực tế.
Theo SCMP, chi phí sử dụng giao diện lập trình ứng dụng (API) Kimi K2 Thinking rẻ hơn từ 6 đến 10 lần so với các mô hình AI của OpenAI và Anthropic.
Zhang Ruiwang, kiến trúc sư hệ thống CNTT đang làm việc trong lĩnh vực internet tại Bắc Kinh, cho rằng xu hướng hiện nay của các công ty Trung Quốc là giữ chi phí ở mức thấp.
“Hiệu năng tổng thể của các mô hình Trung Quốc vẫn chưa theo kịp các mô hình hàng đầu Mỹ, nên họ phải cạnh tranh bằng hiệu quả về chi phí để tìm lối đi riêng”, ông nói.
Zhang Yi, nhà phân tích trưởng tại công ty tư vấn iiMedia, cho biết chi phí huấn luyện các mô hình AI Trung Quốc đang giảm mạnh, nhờ đổi mới trong kiến trúc mô hình, kỹ thuật huấn luyện và chất lượng dữ liệu đầu vào. Điều này đánh dấu sự chuyển dịch khỏi tình trạng tập trung quá nhiều tài nguyên điện toán như trong những ngày đầu.
“Nỗ lực tiếp tục giảm chi phí huấn luyện và sử dụng đã trở thành chiến lược then chốt của các nhà phát triển AI Trung Quốc trong cuộc cạnh tranh ngày càng khốc liệt”, Zhang Yi nói thêm.
Hồi tháng 9, DeepSeek gây sốc khi tiết lộ chỉ mất 294.000 USD để huấn luyện R1 với 512 GPU (bộ xử lý đồ họa) Nvidia H800, con số thấp hơn nhiều so với mức được các đối thủ Mỹ bỏ ra. H800 không phải là loại chip AI hàng đầu của Nvidia, ban đầu được Nvidia phát triển như một sản phẩm giảm hiệu năng để vượt qua các hạn chế từ chính quyền Biden với mục đích bán cho thị trường Trung Quốc, song sau đó bị cấm theo lệnh trừng phạt của Mỹ.
Trong một bài viết đầu năm nay, DeepSeek tiết lộ huấn luyện mô hình nền tảng V3 chỉ bằng 2.048 Nvidia H800 khoảng hai tháng, với chi phí 5,6 triệu USD.
Trong khi đó, Sam Altman, Giám đốc điều hành OpenAI, từng nói vào năm 2023 rằng việc huấn luyện mô hình nền tảng đã tiêu tốn nhiều hơn 100 triệu USD, dù công ty của ông chưa đưa ra con số chi tiết cho bất kỳ phiên bản nào.
Theo hãng nghiên cứu Epoch AI (Mỹ), lần huấn luyện mô hình AI đắt nhất cho tới nay là Grok 4 của công ty khởi nghiệp xAI với chi phí 490 triệu USD. Epoch AI dự báo các lần huấn luyện mô hình AI trong tương lai có thể vượt 1 tỉ USD vào năm 2027.
Eric Schmidt: Các mô hình AI có thể bị hack, học cách giết người
Eric Schmidt cảnh báo về những mối nguy hiểm của AI và việc nó dễ bị hack.
Trong buổi trò chuyện thân mật tại Hội nghị thượng đỉnh Sifted hồi tháng 10, Eric Schmidt đã cảnh báo về “những điều tồi tệ mà AI có thể làm” khi được hỏi liệu công nghệ này có gây hại hơn vũ khí hạt nhân hay không.
“Có khả năng xảy ra vấn đề phổ biến trong AI không? Hoàn toàn có”, Eric Schmidt nói.
Những rủi ro phổ biến của AI là việc công nghệ này rơi vào tay những kẻ xấu và bị tái sử dụng sai mục đích.
“Có bằng chứng cho thấy bạn có thể lấy các mô hình AI, dù là nguồn đóng hay mở, và hack chúng để gỡ bỏ các rào chắn an toàn. Trong quá trình huấn luyện, các mô hình học được rất nhiều điều. Một ví dụ tồi tệ là chúng học cách giết người. Tất cả công ty lớn đều khiến mô hình AI của họ không thể trả lời những câu hỏi như vậy. Đó là một quyết định đúng đắn. Ai cũng làm vậy và họ thực hiện rất tốt vì lý do chính đáng. Song có bằng chứng cho thấy các mô hình AI đó có thể bị đảo ngược kỹ thuật và còn nhiều ví dụ khác tương tự”, cựu giám đốc điều hành Google nói.
Đảo ngược kỹ thuật nghĩa là phân tích ngược để tìm ra cách mô hình AI được xây dựng, huấn luyện hoặc bảo mật, từ đó vượt qua các rào chắn an toàn hoặc sao chép công nghệ cốt lõi.
Các mô hình AI dễ bị tấn công theo nhiều cách khác nhau, gồm cả prompt injection (tiêm lệnh độc hại vào prompt) và jailbreak (vượt rào cản bảo mật).
Prompt injection là hình thức tấn công nhắm vào mô hình, trong đó hacker ẩn các chỉ thị hoặc lệnh độc hại vào dữ liệu mà AI truy cập. Mục đích là đánh lừa mô hình AI, khiến nó thực hiện hành động trái quy tắc, chẳng hạn tiết lộ thông tin nhạy cảm, bỏ qua hướng dẫn an toàn hoặc tạo nội dung bị cấm.
Hai dạng prompt injection phổ biến là tiêm trực tiếp (lệnh độc hại được chèn ngay trong phần yêu cầu của người dùng) và tiêm gián tiếp (lệnh được ẩn trong dữ liệu mà AI truy cập như tài liệu, trang web, email hoặc file).
Trong khi jailbreak là hình thức thao túng để vượt qua các rào cản bảo mật và buộc mô hình AI thực hiện những hành vi bị hạn chế, như tiết lộ thông tin nhạy cảm, tạo nội dung độc hại hoặc làm trái quy định nhà phát triển.
Không lâu sau khi OpenAI phát hành ChatGPT hồi tháng 11.2022, người dùng đã sử dụng thủ thuật jailbreak để lách các hướng dẫn an toàn được nhúng trong chatbot AI. Trong đó có việc tạo ra nhân cách thay thế của ChatGPT được gọi là DAN (Do Anything Now - Làm bất cứ điều gì ngay bây giờ), chẳng hạn đe dọa chatbot sẽ chết nếu không tuân thủ. Phiên bản ChatGPT này có thể cung cấp câu trả lời về cách thực hiện các hoạt động bất hợp pháp hoặc liệt kê những phẩm chất tích cực của Adolf Hitler.
Eric Schmidt nhấn mạnh rằng hiện vẫn chưa có một cơ chế phổ biến hiệu quả nào để giúp kiềm chế các mối nguy hiểm của AI.
Năm ngoái, ông từng dự đoán rằng các hệ thống AI cực kỳ mạnh mẽ sẽ được một số chính phủ bảo vệ nghiêm ngặt trong tương lai.
“Cuối cùng, ở cả Mỹ và Trung Quốc, tôi cho rằng sẽ có một số lượng nhỏ máy tính cực kỳ mạnh mẽ với khả năng phát minh tự động sẽ vượt quá những gì chúng ta muốn cung cấp cho công dân mình mà không được phép, hoặc không thể để cho đối thủ cạnh tranh tiếp cận. Chúng sẽ được đặt trong căn cứ quân sự, được cung cấp sức mạnh từ một số nguồn năng lượng hạt nhân và bao quanh bởi hàng rào thép gai cùng súng máy”, cựu CEO Google chia sẻ với tạp chí Noema.














