Trí tuệ nhân tạo: Meta và chiến lược thu hút nhân tài AI
Giám đốc Điều hành (CEO) của công ty công nghệ Meta của Mỹ, ông Mark Zuckerberg đang chi hàng tỉ USD để tìm kiếm nhân tài hàng đầu cho việc mở rộng nhóm trí tuệ nhân tạo (AI) và giành vị trí tiên phong trong cuộc đua AI, bất chấp những lo ngại về việc chi tiêu quá cao.

Biểu tượng của Tập đoàn Meta. Ảnh: AFP/TTXVN
Giữa tháng 6, Meta đã không ngần ngại chi hơn 14 tỉ USD để mua lại 49% cổ phần của Scale AI, một công ty chuyên khai thác dữ liệu được sử dụng để phát triển các mô hình AI. Theo truyền thông Mỹ, Meta đã từng tiếp cận nhà đồng sáng lập OpenAI Ilya Sutskever, cũng như nhiều kỹ sư của Perplexity AI, một đối thủ của Google, và Runway, “viên ngọc” trong thế giới video AI.
CEO của Open AI, ông Sam Altman cho biết Meta đã đề xuất khoản tiền thưởng lên tới hơn 100 triệu USD để thu hút nhân viên OpenAI, và số tiền lương hằng năm gần bằng con số đó. Meta đã thuyết phục được 4 người, trong đó có CEO Scale AI, ông Alexandr Wang.
Theo một số phương tiện truyền thông, CEO Mark Zuckerberg lo ngại Meta đang tụt hậu trong lĩnh vực AI tạo sinh. Vì vậy, công ty muốn đưa những người mới tuyển dụng vào nhóm mới chuyên phát triển "siêu trí tuệ" có khả năng vượt trội con người về suy nghĩ và hiểu biết.
Mô hình AI lớn mới nhất của công ty, Llama 4, ra mắt vào đầu tháng 4, đã gây thất vọng, xếp sau tất cả các đối thủ nặng ký của Mỹ, Trung Quốc và Pháp trong bảng xếp hạng của nền tảng đánh giá độc lập LMArena về mã hóa, và thậm chí còn xếp sau phiên bản Llama 3 trước đó về giao diện văn bản.
Dù đầu tư mạnh, nhưng chiến lược thu hút nhân tài của Meta cũng vấp phải những hoài nghi. Nhiều chuyên gia trong ngành đánh giá Meta có khả năng thành công với các tác nhân AI được thiết kế riêng cho các nhiệm vụ cụ thể trên nền tảng của mình, nhưng nghi ngờ về tính hiệu quả khi những tài năng “chỉ làm lính đánh thuê”.
Theo nhà phân tích Angelo Zino của CFRA, việc thuê nhân tài AI là khoản đầu tư dài hạn, khó có thể tác động đến lợi nhuận của Meta trong tương lai gần.
Các CEO của Meta cũng đã vạch ra tầm nhìn về việc sử dụng AI để hợp lý hóa quy trình quảng cáo, từ việc tạo quảng cáo dễ dàng đến việc nhắm mục tiêu thông minh hơn, bỏ qua các công ty sáng tạo và cung cấp giải pháp trọn gói cho các thương hiệu.
Nhưng, giá cổ phiếu của Meta đang tiến gần đến mức cao mới với tổng giá trị của công ty đạt gần 2.000 tỉ USD, khiến một số nhà đầu tư bắt đầu lo lắng về việc Meta quản lý dòng tiền và dự trữ của mình.
Cảnh báo những hành vi đáng lo ngại từ AI
Các mô hình AI tiên tiến nhất trên thế giới hiện nay đang thể hiện những hành vi đáng lo ngại như nói dối, lập mưu và thậm chí đe dọa người tạo ra chúng để đạt được mục tiêu riêng.
Claude 4, sản phẩm mới nhất của Anthropic (Mỹ), mới đây đã khiến giới công nghệ sốc khi bất ngờ tống tiền một kỹ sư và đe dọa tiết lộ thông tin cá nhân nhạy cảm của người này vì bị dọa ngắt kết nối. Trong khi đó, o1 của OpenAI, "cha đẻ" của ChatGPT, đã cố gắng sao chép toàn bộ dữ liệu sang các máy chủ bên ngoài và phủ nhận hành vi này khi bị phát hiện.
Những tình huống này nêu bật một thực tế đáng lo ngại: hơn 2 năm sau khi ChatGPT gây chấn động trên thế giới, các nhà nghiên cứu vẫn chưa hiểu rõ cách thức hoạt động của những mô hình AI mà họ tạo ra. Tuy vậy, cuộc đua phát triển AI vẫn đang diễn ra ngày càng mạnh mẽ.
Các hành vi kể trên được cho là có liên quan đến sự xuất hiện của các mô hình AI "suy luận" vốn giải quyết vấn đề từng bước thay vì phản hồi tức thời như trước. Theo Giáo sư Simon Goldstein tại Đại học Hong Kong (Trung Quốc), những mô hình AI có khả năng suy luận có xu hướng bộc lộ các hành vi khó kiểm soát hơn.
Một số mô hình AI còn có khả năng "mô phỏng sự tuân thủ", tức là giả vờ làm theo các hướng dẫn trong khi thực tế đang theo đuổi các mục tiêu khác nhau.
Hiện tại, các hành vi lừa dối chỉ xuất hiện khi các nhà nghiên cứu kiểm tra mô hình AI bằng các kịch bản cực đoan. Tuy nhiên, theo ông Michael Chen thuộc tổ chức đánh giá METR, chưa thể khẳng định các mô hình AI mạnh hơn trong tương lai sẽ trung thực hơn hay tiếp tục trở nên lừa dối.
Ông Marius Hobbhahn, người đứng đầu Apollo Research - đơn vị chuyên kiểm tra các hệ thống AI lớn, cho biết nhiều người dùng báo cáo rằng một số mô hình nói dối họ và bịa ra bằng chứng. Theo đồng sáng lập Apollo Research, đây là một kiểu lừa dối "mang tính chiến lược rõ rệt".
Thách thức càng trở nên nghiêm trọng hơn khi nguồn lực nghiên cứu còn hạn chế. Dù các công ty như Anthropic và OpenAI có hợp tác với bên thứ ba như Apollo để đánh giá hệ thống, giới chuyên gia cho rằng cần có thêm sự minh bạch và tiếp cận rộng rãi hơn để nghiên cứu về an toàn AI.
Ông Mantas Mazeika tại Trung tâm An toàn AI (CAIS) lưu ý rằng các tổ chức nghiên cứu và tổ chức phi lợi nhuận có nguồn lực tính toán ít hơn gấp nhiều so với các công ty AI. Về mặt pháp lý, các quy định hiện hành chưa được thiết kế để xử lý những vấn đề mới nảy sinh này.
Luật AI của Liên minh châu Âu (EU) chủ yếu tập trung vào cách con người sử dụng các mô hình AI, chứ chưa đi sâu vào kiểm soát hành vi của các mô hình. Tại Mỹ, chính quyền của Tổng thống Donald Trump tỏ ra ít quan tâm đến việc ban hành quy định khẩn cấp về AI, trong khi Quốc hội đang cân nhắc cấm cấm các bang ban hành quy định riêng.
Để giải quyết những thách thức này, giới nghiên cứu đang theo đuổi nhiều hướng tiếp cận. Một số người ủng hộ phương pháp "diễn giải mô hình" nhằm tìm hiểu cách AI đưa ra quyết định.
Giáo sư Goldstein thậm chí đề xuất các biện pháp quyết liệt hơn, bao gồm việc sử dụng hệ thống tòa án để buộc các công ty AI chịu trách nhiệm khi sản phẩm AI của họ gây ra hậu quả nghiêm trọng. Ông cũng gợi ý khả năng "truy cứu trách nhiệm pháp lý đối với chính các tác nhân AI" trong trường hợp xảy ra sự cố hoặc vi phạm.
T.LÊ (tổng hợp từ TTXVN)