Nhiều chuyên gia lo ngại về khả năng DOGE sử dụng AI để cắt giảm
Các cáo buộc DOGE sử dụng trí tuệ nhân tạo (AI) để tinh gọn bộ máy liên bang làm nhiều chuyên gia lo ngại về nguy cơ mất an toàn dữ liệu và tổn hại đến các dịch vụ thiết yếu.
Ban Hiệu quả Chính phủ (DOGE) do tỷ phú Elon Musk được cho là đã sử dụng trí tuệ nhân tạo (AI) để phân tích dữ liệu từ các cơ quan liên bang, nhằm xác định những lĩnh vực có thể bị cắt giảm, theo CNN.
Tuy nhiên, việc ứng dụng công nghệ này làm dấy lên làn sóng lo ngại từ các chuyên gia, những người cảnh báo rằng hệ thống AI có thể đưa ra quyết định thiếu chính xác, thiên vị và thậm chí vi phạm quyền công dân.
“Việc phụ thuộc vào AI trong các quyết định tinh giản nhân sự là một rủi ro nghiêm trọng. Với công nghệ hiện tại, đây là một ý tưởng tồi”, David Evan Harris, nhà nghiên cứu AI từng làm việc tại Meta, nhận định.
Ông Harris lo ngại rằng AI có thể sa thải nhầm những nhân viên quan trọng hoặc vi phạm các quyền cơ bản của người lao động.
Cáo buộc DOGE sử dụng AI để cắt giảm
Hồi tháng 2, tờ Washington Post dẫn hai nguồn tin giấu tên nói rằng DOGE đã sử dụng AI để phân tích dữ liệu của Bộ Giáo dục Mỹ thông qua nền tảng đám mây của Microsoft.
Mục tiêu của động thái này là để xác định những chương trình có thể bị cắt giảm nhằm tiết kiệm chi phí.
Bên cạnh đó, DOGE còn được cho là đang phát triển một chatbot AI mang tên GSAi, nhằm hỗ trợ phân tích dữ liệu hợp đồng và đấu thầu của chính phủ, theo Wired.

GSAi được cho là chatbot AI thiết kế cho Cơ quan Dịch vụ Công Mỹ (GSA). Ảnh: Bloomberg.
Một trong những kế hoạch gây tranh cãi nhất là việc sử dụng AI để đánh giá báo cáo công việc của nhân viên liên bang. Theo NBC News, DOGE từng cân nhắc việc yêu cầu nhân viên liệt kê năm đầu mục công việc họ đã hoàn thành trong tuần, sau đó sử dụng AI để phân tích dữ liệu và xác định vị trí có thể bị loại bỏ.
Tuy nhiên, giới chuyên gia cảnh báo cách tiếp cận này tiềm ẩn nhiều nguy cơ.
"Khi cắt giảm nhân sự trong các công ty tư nhân, hậu quả có thể chỉ là gián đoạn hoạt động. Tuy nhiên, khi áp dụng biện pháp này với bộ máy chính phủ, có thể sẽ có người phải trả giá bằng tính mạng", John Hatton, phó Chủ tịch Hiệp hội Nhân viên Liên bang Nghỉ hưu và tại chức, nói.
Bên cạnh đó, Wired cũng đưa tin rằng DOGE có thể đã chỉnh sửa phần mềm AutoRIF, vốn là một công cụ của Bộ Quốc phòng dùng để xếp hạng nhân viên theo mức độ ưu tiên sa thải. Điều này làm dấy lên lo ngại rằng AI có thể đưa ra quyết định mà không có sự giám sát cần thiết từ con người.
Rủi ro tiềm tàng
21 nhân viên của Cơ quan Dịch vụ Kỹ thuật số Mỹ (USDS) đã đồng loạt từ chức hôm 26/2 để phản đối việc DOGE can thiệp vào hệ thống công quyền một cách thiếu kiểm soát.
Trong lá thư gửi Nhà Trắng, nhóm này nhấn mạnh: “Chúng tôi không thể sử dụng kỹ năng của mình để làm tổn hại đến hệ thống chính phủ cốt lõi, làm nguy hại đến dữ liệu nhạy cảm của người dân, hay phá hoại các dịch vụ công thiết yếu”.
Một trong những vấn đề nghiêm trọng nhất khi sử dụng AI trong cắt giảm nhân sự là nguy cơ thiên vị. Các hệ thống AI từng bị cáo buộc thiên vị trong tuyển dụng, với xu hướng ưu tiên ứng viên da trắng và nam giới hơn các nhóm đối tượng khác.
Việc ứng dụng AI để đánh giá hiệu suất làm việc của nhân viên liên bang có thể gây tác động tiêu cực đến phụ nữ và người da màu, theo CNN.
“Ngay cả khi AI không được lập trình để thiên vị, công nghệ này vẫn có khả năng ưu tiên cách diễn đạt hoặc phong cách viết của một nhóm người nhất định”, ông Harris cảnh báo.
Chuyên gia AI này cũng cho rằng những nhân viên giỏi nhưng không sử dụng tiếng Anh như ngôn ngữ mẹ đẻ có thể bị đánh giá thấp hơn so với người bản xứ, ngay cả khi họ có năng lực chuyên môn xuất sắc.

Việc sử dụng AI trong tinh giản nhân sự và cắt giảm chi phí liên bang đặt ra nhiều dấu hỏi về tính bảo mật và khía cạnh đạo đức. Ảnh: Unsplash.
Ngoài ra, việc DOGE tiếp cận dữ liệu của các cơ quan chính phủ mà không có sự kiểm soát chặt chẽ cũng đặt ra nguy cơ mất an toàn thông tin.
“Bạn không thể chỉ đơn giản đào tạo một hệ thống AI trên dữ liệu mà bạn không hiểu rõ, bởi vì đầu ra của nó có thể không chính xác hoặc thiếu ngữ cảnh quan trọng”, Amanda Renteria, Giám đốc Điều hành tổ chức phi lợi nhuận Code for America, nhận xét.
Tỷ phú Musk từng thừa nhận rằng DOGE có thể mắc sai lầm và đã vô tình cắt giảm một số chương trình quan trọng, đơn cử như công tác phòng chống Ebola. Ông cam kết sẽ khôi phục các chương trình này, nhưng không đưa ra giải thích rõ ràng về vai trò của AI trong quá trình ra quyết định.
Các chuyên gia cho rằng AI có thể dẫn đến những quyết định sai lầm với hậu quả nghiêm trọng nếu không có cơ chế giám sát và đánh giá phù hợp.
Julia Stoyanovich, giáo sư Khoa học Máy tính tại Đại học New York, nhấn mạnh: “Nếu muốn AI thực sự hiệu quả, chúng ta phải xác định rõ mục tiêu của công nghệ này và kiểm tra nghiêm ngặt xem liệu hệ thống có đạt được mục tiêu đó hay không”.

Julia Stoyanovich, giáo sư Khoa học Máy tính tại Đại học New York. Ảnh: NYU.
Bất chấp những lo ngại, hiện DOGE vẫn chưa công khai danh sách các công cụ AI mà họ đang sử dụng, quy trình kiểm định, hay biện pháp giám sát để đảm bảo tính chính xác của hệ thống.
Điều này khiến nhiều chuyên gia đặt câu hỏi về tính hiệu quả và đạo đức của chiến lược sử dụng AI trong cắt giảm ngân sách liên bang.
Các chuyên gia cũng kêu gọi chính phủ cần có biện pháp giám sát chặt chẽ hơn để đảm bảo AI không trở thành công cụ gây mất ổn định hệ thống công quyền.
“Người dân Mỹ có quyền biết chính xác AI đang được sử dụng như thế nào để định hình lại các cơ quan và dịch vụ mà họ phụ thuộc vào hàng ngày”, Skye Perryman, giám đốc điều hành tổ chức Dân chủ Tiến lên, nói.