Các lãnh đạo công nghệ cảnh báo về 'nguy cơ diệt vong' bởi AI
Các lãnh đạo và chuyên gia hàng đầu về lĩnh vực trí tuệ nhân tạo (AI) hôm thứ Ba (30/5) đã cùng nhau ký vào một bức thư để đưa ra cảnh báo rằng mối đe dọa của AI đối với loài người tương tự như 'đại dịch và chiến tranh hạt nhân'.
Tuyên bố với hơn 350 bên ký kết này thúc giục các nhà hoạch định chính sách đưa ra các đạo luật để đảm bảo việc giảm thiểu nguy cơ tuyệt chủng của loài người gây ra bởi AI phải là “ưu tiên toàn cầu”.
"Giảm thiểu nguy cơ diệt vong do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, giống như như đại dịch và chiến tranh hạt nhân", văn bản do Trung tâm An toàn AI phi lợi nhuận (CAIS) công bố theo dạng một bức thư cho biết.
Bên cạnh CEO Sam Altman của OpenAI, nhóm ký kết còn bao gồm các CEO của các công ty AI hàng đầu như DeepMind và Anthropic, cũng như các CEO của Microsoft và Google. Ngoài ra, còn có Geoffrey Hinton và Yoshua Bengio - hai trong số ba người được gọi là "cha đẻ AI" và các giáo sư từ Đại học Harvard đến Đại học Thanh Hoa của Trung Quốc.
Tuyên bố của CAIS đã chỉ ra Meta, nơi có “cha đẻ thứ ba” của AI, Yann LeCun, đã không ký vào bức thư. Bức thư trùng hợp với cuộc họp của Hội đồng Công nghệ và Thương mại Mỹ - EU ở Thụy Điển, nơi các chính trị gia dự kiến sẽ thảo luận về việc kiểm soát AI.
Tỷ phú Elon Musk và một nhóm các chuyên gia AI và CEO trong ngành này là những người đầu tiên cảnh báo về những rủi ro tiềm ẩn của công nghệ mới bùng nổ này đối với xã hội vào tháng 4 vừa rồi.
Những phát triển gần đây về AI đã tạo ra các công cụ làm dấy lên lo ngại rằng chúng có thể dẫn đến vi phạm quyền riêng tư, các chiến dịch cung cấp thông tin sai lệch và dẫn đến các vấn đề nghiêm trọng khác.
Người tiên phong về AI, Hinton trước đó đã nói rằng AI có thể gây ra mối đe dọa "cấp bách" hơn cho nhân loại so với biến đổi khí hậu. Trước những mối nguy đó, các nhà lập pháp EU sắp ban hành Đạo luật Trí tuệ Nhân tạo, trong khi Mỹ và một số nước khác cũng đang nghiên cứu về một quy tắc tương tự.
Hoàng Hải (theo FT, Reuters, AP)