OpenClaw gây lỗi với tài liệu tài chính nhạy cảm, Peter Steinberger bị đòi hoàn tiền token
Peter Steinberger, người tạo ra OpenClaw, nhận được yêu cầu đòi hoàn tiền token vì các lỗi mà tác tử AI mã nguồn mở này gây ra với 'tài liệu tài chính nhạy cảm'.
Ai sẽ chịu trách nhiệm khi một tác tử AI (trí tuệ nhân tạo) mắc sai lầm?
OpenClaw được thiết kế để tự hoạt động và tự hoàn thành các tác vụ mà không cần con người nhắc nhở hay kiểm tra. Điều đó có thể dẫn đến sai sót, như trường hợp một giám đốc phụ trách căn chỉnh AI tại Meta suýt bị tác tử AI xóa toàn bộ hộp thư của mình. Với nhiều người, đây đơn giản là cái giá phải trả khi sử dụng AI. Song với những người khác, họ cho rằng điều đó đáng được hoàn tiền.
Peter Steinberger, người tạo ra OpenClaw trước khi gia nhập OpenAI, đã đăng tải yêu cầu của một người dùng trên mạng xã hội X. Người dùng này cho biết đã thiết lập OpenClaw để xử lý “các tài liệu tài chính nhạy cảm” trong hơn 8 giờ, sau đó phải mất thêm nhiều giờ để sửa lỗi.
“Các lỗi bao gồm số liệu tài chính sai, dữ liệu bịa đặt, mâu thuẫn nội bộ và tính toán sai - tất cả đều nằm trong các tài liệu mật của hội đồng quản trị, nơi độ chính xác là tối quan trọng”, người dùng OpenClaw viết.
Người này cho biết các lỗi của OpenClaw đã gây ra “sự lãng phí thời gian đáng kể và gây bức xúc” nên yêu cầu được hoàn lại chi phí phiên sử dụng token. Tuy nhiên, vì OpenClaw là một tác tử AI mã nguồn mở và được sử dụng miễn phí, Peter Steinberger nói rằng đã đề nghị “hoàn lại đầy đủ cho số tiền người này đã trả”. Số tiền đó là 0 USD.
“Tôi cảm thấy khá hào phóng. Làm tròn lên thành số 0”, lập trình viên người Áo sinh năm 1986 nói đùa.
Trong AI, token là đơn vị dữ liệu nhỏ nhất mà mô hình xử lý hoặc tạo ra, có thể là một từ, một phần của từ, hoặc thậm chí là dấu câu. Nhiều công ty sử dụng token như một đơn vị kinh tế để đo lường khối lượng tính toán mà AI thực hiện. Văn bản càng dài thì càng cần nhiều token để xử lý, vì vậy chi phí thường được tính theo số token (trên mỗi nghìn hoặc mỗi triệu token).
Một số người dùng X bình luận đoán rằng người yêu cầu hoàn tiền đến từ châu Âu. Peter Steinberger đáp lại rằng người đó thực tế ở Mỹ. Peter Steinberger trước đây nói các quy định nghiêm ngặt ở châu Âu kìm hãm tăng trưởng công nghệ.
Một người dùng X cho rằng ở nhiều khu vực pháp lý, vẫn có cơ chế bồi thường thiệt hại, nên yêu cầu này “không ngớ ngẩn như vẻ ngoài”. Peter Steinberger đáp lại bằng một điều khoản trong giấy phép của OpenClaw.
“Phần mềm được cung cấp ‘nguyên trạng’, không có bất kỳ bảo đảm nào. Các tác giả không chịu trách nhiệm cho bất kỳ khiếu nại hay thiệt hại nào liên quan đến phần mềm, cũng như việc sử dụng hay các giao dịch khác với phần mềm”, điều khoản nêu rõ.
“Có khả năng con người không yêu cầu hoàn tiền. Có khi tác tử AI của người đó gửi email cho anh đấy”, một người dùng X đùa giỡn.
“Khả năng cao là vậy”, Peter Steinberger đáp.

Peter Steinberger cho biết bị đòi hoàn tiền token vì OpenClaw gây lỗi với tài liệu tài chính nhạy cảm - Ảnh: Internet
Giữa tháng 2, Peter Steinberger thông báo gia nhập OpenAI, công ty khởi nghiệp AI số 1 thế giới đứng sau ChatGPT.
Sam Altman, Giám đốc điều hành OpenAI, cho biết: “Peter Steinberger sẽ gia nhập OpenAI để thúc đẩy thế hệ tác tử AI cá nhân tiếp theo. OpenClaw sẽ tồn tại trong một tổ chức phi lợi nhuận với tư cách là dự án mã nguồn mở mà OpenAI sẽ tiếp tục hỗ trợ”.
“Ông ấy là một thiên tài với rất nhiều ý tưởng tuyệt vời về tương lai của những tác tử AI cực kỳ thông minh có thể tương tác với nhau để thực hiện các công việc hữu ích cho con người. Chúng tôi kỳ vọng điều này sẽ nhanh chóng trở thành một phần cốt lõi trong các sản phẩm của mình”, Sam Altman viết về Peter Steinberger trên mạng xã hội X thời điểm đó.
OpenClaw gây sốt kèm nỗi lo về an ninh
Trình làng vào tháng 11.2025, OpenClaw đã trở thành một trong những dự án tăng trưởng nhanh nhất lịch sử GitHub, nền tảng phát triển AI được sử dụng rộng rãi nhất thế giới.
OpenClaw có thể thực hiện nhiều nhiệm vụ, từ đặt chỗ ăn tối, theo dõi email, làm việc với các công ty bảo hiểm, làm thủ tục chuyến bay và thực hiện vô số tác vụ khác. Khác với chatbot truyền thống, OpenClaw có khả năng kết nối với nhiều dịch vụ trực tuyến, duy trì nhiệm vụ trong thời gian dài và chủ động hoàn thành các yêu cầu như nghiên cứu thông tin, soạn thảo văn bản, quản lý lịch làm việc hay xử lý email.
Người dùng có thể chạy OpenClaw trực tiếp trên máy tính cá nhân, máy chủ hoặc nền tảng đám mây, linh hoạt lựa chọn cách triển khai tùy theo nhu cầu và mức độ tin cậy về dữ liệu.
Một điểm khiến OpenClaw nhanh chóng thu hút sự chú ý của cộng đồng công nghệ là khả năng mở rộng rất cao. Nền tảng cho phép tích hợp nhiều mô hình AI khác nhau và bổ sung các kỹ năng do cộng đồng phát triển, giúp tác tử AI ngày càng làm được nhiều việc phức tạp hơn.
OpenClaw đang gây sốt ở Trung Quốc và nhiều công ty nhanh chóng áp dụng tác tử AI này. “Nuôi tôm hùm” trở thành trào lưu ở Trung Quốc, với người hâm mộ còn tổ chức hội nghị để gặp gỡ và xem màn trình diễn OpenClaw.

Nhiều người cầm laptop xếp hàng để được cài đặt và thiết lập OpenClaw bên ngoài văn phòng Baidu ở Bắc Kinh - Ảnh: Reuters

Một người chơi máy gắp thú nhồi bông hình tôm hùm trong buổi cài đặt OpenClaw bên ngoài văn phòng Baidu - Ảnh: Reuters
Nvidia cũng nhanh chóng tận dụng đà phát triển của OpenClaw. Hôm 16.3, hãng chip AI số 1 thế giới đã công bố NemoClaw, nền tảng dành riêng cho OpenClaw được tích hợp thêm các phần mềm của Nvidia, nhằm giúp tác tử AI này sẵn sàng để triển khai trong môi trường doanh nghiệp. Mục tiêu của NemoClaw là giúp các tác tử AI trở nên an toàn, có thể mở rộng và sẵn sàng cho các ứng dụng thực tế.
Theo công ty an ninh mạng SecurityScorecard (Mỹ), hiện mức độ sử dụng OpenClaw ở Trung Quốc vượt qua Mỹ, khi từ trẻ em đến người nghỉ hưu đều sử dụng tác tử AI này.
Tuy nhiên, OpenClaw cũng tiềm ẩn rủi ro bảo mật, khiến nhiều người dùng phải chạy tác tử AI nguồn mở này trên máy chủ đám mây hoặc laptop riêng biệt với thiết bị chính của họ. Nếu được cấp quyền truy cập đầy đủ vào máy tính cá nhân, OpenClaw có thể xử lý được dữ liệu nhạy cảm, thay đổi hệ thống hoặc trở thành điểm đầu vào cho hacker khai thác để lấy cắp thông tin.
Sự hứng thú rộng rãi với OpenClaw trong xã hội và ngành công nghiệp Trung Quốc làm chính phủ lo ngại. Ngày càng nhiều tổ chức Trung Quốc, gồm cả cơ quan chính phủ, công ty môi giới và các trường đại học, cấm nhân viên cài đặt OpenClaw sau những cảnh báo từ cơ quan quản lý.
Trung Quốc đã cam kết tăng cường an ninh AI, gồm cả thông qua một khuôn khổ quyền sở hữu dữ liệu mới, vào thời điểm người dùng và doanh nghiệp đang nhanh chóng áp dụng OpenClaw.
Ông Liu Liehong, người đứng đầu Cục Quản lý Dữ liệu Quốc gia Trung Quốc, hôm 23.3 cho biết an ninh và tuân thủ đã trở thành những thách thức cốt lõi khi AI lan rộng trong công nghiệp và đời sống hàng ngày.
Phát biểu tại Diễn đàn Phát triển Trung Quốc, Liu Liehong đã nêu ra các thách thức từ tranh chấp bản quyền về dữ liệu huấn luyện và nội dung do AI tạo ra đến các mối đe dọa an ninh như “đầu độc dữ liệu” - một loại tấn công mạng thao túng các mô hình AI.
“Để giải quyết vấn đề này, chúng tôi đang thiết lập một khuôn khổ quyền sở hữu dữ liệu mạnh mẽ, xác định rõ ràng quyền và trách nhiệm với việc cung cấp, lưu thông và sử dụng dữ liệu. Ngoài ra, chúng tôi đang triển khai giải pháp quản trị an ninh tích hợp, kết hợp bảo vệ dữ liệu, công nghệ và mạng, cung cấp nền tảng an ninh vững chắc cần thiết để mở rộng quy mô ứng dụng AI một cách có trách nhiệm”, ông Liu Liehong nói.
Liu Liehong cho biết việc quản lý an ninh cho tác tử AI như OpenClaw sẽ tuân theo các nguyên tắc “quyền hạn tối thiểu, phòng thủ chủ động và kiểm toán liên tục”. Ông lưu ý rằng việc giải quyết những thách thức này sẽ đòi hỏi hành động phối hợp từ các nhà cung cấp AI, người dùng cuối và cơ quan quản lý.














