Điều cần làm để tương lai AI không thể do vài công ty quyết định

Thế giới công nghệ vừa bừng tỉnh khi Dario Amodei, CEO Anthropic, thẳng thắn tuyên bố ông 'rất khó chịu khi tương lai AI được quyết định bởi vài công ty, vài người'.

Một nhóm nhỏ hiện giờ có thể quyết định tương lai AI

Một nhóm nhỏ hiện giờ có thể quyết định tương lai AI

Câu nói tưởng chừng đơn giản ấy lại mang sức nặng đặc biệt, bởi nó xuất phát từ chính một trong những nhân vật đang giữ vai trò trung tâm trong cuộc đua trí tuệ nhân tạo toàn cầu. Amodei không né tránh câu hỏi then chốt: ai đã bầu ra những CEO đang định đoạt tương lai của công nghệ có khả năng thay đổi nền kinh tế và đời sống nhân loại?

Khi ông đáp rằng “không ai cả”, đó không chỉ là một lời cảnh báo. Đó là một lời nhắc về sự thật rằng quyền lực AI đang nằm ngoài mọi cơ chế dân chủ truyền thống.

Dario Amodei cảnh báo không sai

Thực tế cho thấy những lo ngại của Amodei không phải là phóng đại. Trong suốt nhiều năm qua, trí tuệ nhân tạo mạnh đã nằm trong tay một nhóm rất nhỏ các tập đoàn công nghệ. Từ OpenAI, Google DeepMind, Meta đến Microsoft, Amazon hay Nvidia, chỉ một số ít công ty Mỹ nắm giữ năng lực phát triển mô hình lớn mạnh nhất hiện nay. Họ sở hữu dữ liệu, hạ tầng tính toán, nguồn vốn và lực lượng chuyên gia mà phần còn lại của thế giới khó lòng theo kịp.

Tại Trung Quốc, những gã khổng lồ như Baidu, Tencent hay Alibaba cũng đang tận dụng nguồn lực khổng lồ của quốc gia để xây dựng các mô hình riêng. Kết quả là quyền lực AI toàn cầu, xét trên phương diện kỹ thuật lẫn kinh tế, chỉ nằm trong tay khoảng hơn chục tổ chức, nhưng quyền lực thực sự tập trung vào chỉ vài cái tên nổi trội. Có thể nói chưa từng có công nghệ nào trong lịch sử hiện đại mang mức độ tập trung quyền lực cao như AI ngày nay.

Mức độ tập trung này khiến những cảnh báo về rủi ro trở nên đáng chú ý hơn. Bản thân Amodei thừa nhận rằng ngay các kỹ sư hàng đầu cũng không thể hiểu hoàn toàn cách các mô hình lớn vận hành bên trong. Một công nghệ mà nhà phát triển còn chưa hiểu hết nhưng lại được quyết định bởi một số cá nhân không chịu sự giám sát dân chủ có thể tạo ra những hệ lụy khó lường.

Nguy cơ đó không chỉ nằm ở mặt kỹ thuật, mà còn ở mặt xã hội. Amodei từng cảnh báo rằng AI có thể xóa sổ một lượng lớn việc làm văn phòng trong vài năm tới, khiến hàng triệu người mất sinh kế. Điều này mở ra khả năng bất bình đẳng gia tăng và quyền lực kinh tế tiếp tục dồn vào tay các tập đoàn sở hữu AI, gây sức ép lớn lên cấu trúc chính trị - xã hội của nhiều quốc gia.

Một rủi ro khác là khả năng thao túng thông tin. Khi AI tạo nội dung ngày càng trở nên tinh vi, việc phân biệt thật - giả sẽ ngày càng khó khăn. Nếu quyền truy cập và vận hành những mô hình mạnh này chỉ thuộc về một nhóm rất nhỏ, khả năng kiểm soát thông tin hay thậm chí định hình dư luận xã hội sẽ ngày càng trở nên tập trung. Cùng lúc đó, khả năng vũ khí hóa AI trong tấn công mạng hoặc chiến tranh thông tin luôn là nỗi lo tiềm tàng, nhất là khi các mô hình này có thể tạo ra tự động hóa quy mô lớn.

Thế giới bắt đầu đề phòng

Những lo ngại ấy đang buộc chính phủ các nước phải hành động. Tuy nhiên, bài toán mà họ đối mặt là hai chiều: phải ngăn chặn nguy cơ AI bị thao túng, đồng thời không được bóp nghẹt đổi mới - một yếu tố sống còn trong cạnh tranh công nghệ toàn cầu. Liên minh châu Âu đã đi đầu khi ban hành AI Act, bộ khung pháp lý toàn diện đầu tiên trên thế giới.

Đạo luật này quy định rõ mức độ rủi ro của từng loại hệ thống AI, yêu cầu minh bạch ở những mô hình có ảnh hưởng lớn và buộc doanh nghiệp chịu trách nhiệm khi đưa AI vào các lĩnh vực nhạy cảm. Đây được xem là nỗ lực cân bằng giữa an toàn và phát triển, dù vẫn còn nhiều tranh cãi về mức độ chặt chẽ của luật.

Tại Mỹ, chính phủ lựa chọn hướng tiếp cận mềm hơn. Washington không siết chặt công nghệ ngay từ đầu mà tập trung vào giám sát dựa trên rủi ro, yêu cầu thử nghiệm an toàn trước khi công bố mô hình và tiến hành điều tra chống độc quyền đối với những tập đoàn được cho là nắm giữ vị thế quá lớn trong thị trường AI. Mục tiêu của Mỹ là tạo môi trường vừa đủ kiểm soát nhưng không làm chậm tốc độ đổi mới.

Trong khi đó, Trung Quốc áp dụng mô hình quản lý tập trung, yêu cầu kiểm duyệt nội dung đầu ra của AI, xác định rõ nguồn dữ liệu huấn luyện và đảm bảo mô hình tuân thủ các tiêu chí liên quan đến an ninh quốc gia.

Các quốc gia như Anh, Nhật Bản hay Hàn Quốc lại thiên về xây dựng chuẩn an toàn và thúc đẩy hợp tác quốc tế. Họ cam kết phát triển trung tâm kiểm định AI quốc gia, tạo không gian thử nghiệm để doanh nghiệp đổi mới nhưng dưới sự quan sát của các cơ quan quản lý. Những cách tiếp cận khác nhau này phản ánh sự đa dạng trong cách các quốc gia đáp ứng trước một công nghệ có tốc độ phát triển quá nhanh và ảnh hưởng quá lớn.

Từ tất cả những diễn biến đó, có thể thấy phát biểu của Dario Amodei không chỉ đơn thuần là một lời cảnh báo mang tính đạo đức. Nó là chỉ dấu cho thấy chính những người đang nắm quyền phát triển AI cũng nhận ra tính dễ tổn thương của hệ thống hiện tại.

Trong bối cảnh AI đã bước ra khỏi phạm vi công nghệ đơn thuần để trở thành lực tác động kinh tế, chính trị và an ninh, câu hỏi mà Amodei đặt ra: “Tại sao vài cá nhân không được bầu chọn lại có thể quyết định tương lai nhân loại?” không còn là nỗi lo mang tính lý thuyết. Đó là một thách thức thật sự cho thế giới, đòi hỏi những khung quản trị mới mẻ, hiệu quả và quan trọng nhất là đủ minh bạch để không ai bị bỏ lại trong kỷ nguyên AI đang bùng nổ.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/dieu-can-lam-de-tuong-lai-ai-khong-the-do-vai-cong-ty-quyet-dinh-241240.html