Chung tay bảo đảm an ninh trong lĩnh vực AI

Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo (AI) đầu tiên đã được tổ chức tại Bletchley Park, Anh trong hai ngày (1 và 2.11), với sự tham dự của gần 100 đại diện gồm các nhà lãnh đạo từ 28 quốc gia, đại diện các công ty công nghệ hàng đầu, các học giả và các thành phần khác. Mục tiêu chính của hội nghị hướng tới phát huy tinh thần đồng thuận và trách nhiệm trong việc giám sát và quản lý trí tuệ nhân tạo.

Trong danh sách đại biểu bao gồm Chủ tịch Ủy ban châu Âu (EC) Ursula von der Leyen, Phó Tổng thống Mỹ Kamala Harris, tỷ phú công nghệ Elon Musk, giám đốc điều hành OpenAI Sam Altman, Chủ tịch phụ trách các vấn đề toàn cầu của Meta AI Nick Clegg, Giáo sư Yann LeCun, nhà khoa học trưởng của Meta về AI. Chính phủ Trung Quốc cũng cử đại diện tham dự hội nghị.

Tuyên bố Bletchley

Hội nghị tập trung thảo luận những rủi ro liên quan đến AI, từ nguy cơ mất việc làm, tấn công mạng cho đến việc nguy cơ con người mất kiểm soát với các hệ thống đã tạo ra, và đưa ra các biện pháp giảm thiểu những rủi ro đó. Bên cạnh những nội dung trên, hội nghị còn mở rộng thảo luận so với ban đầu như các vấn đề rộng lớn liên quan đến AI từ deepfake đến chăm sóc sức khỏe.

Theo AFP, việc công bố những mô hình AI mới nhất đã mang đến cái nhìn sơ bộ về tiềm năng của AI, nhưng cũng gây ra mối lo ngại về nhiều vấn đề. Thủ tướng Anh Rishi Sunak cho biết, mục tiêu cuối cùng của ông là “hướng tới một cách tiếp cận quốc tế hơn trong việc hợp tác với các đối tác để đảm bảo hệ thống AI an toàn trước khi được công bố”.

Thủ tướng Anh Rishi Sunak. Ảnh: AP

Thủ tướng Anh Rishi Sunak. Ảnh: AP

Tại ngày đầu của hội nghị, các quốc gia và Liên minh châu Âu (EU) đã đưa ra tuyên bố chung Bletchley, nhắc đến những nguy cơ tiềm ẩn của AI như tấn công mạng. Theo tuyên bố chung, các mô hình AI có khả năng gây hại nghiêm trọng, thậm chí thảm khốc, dù cố tình hay vô ý. Các nước ký vào tuyên bố cam kết hợp tác cùng nhau để cải thiện sự an toàn của AI. Tuyên bố khuyến khích sự minh bạch và trách nhiệm từ các bên có ý định phát triển công nghệ AI trong các kế hoạch, để đánh giá, giám sát và giảm thiểu những tác hại có thể xảy ra. Tuyên bố đã vạch ra chương trình nghị sự gồm 2 mũi nhọn tập trung nhận diện các rủi ro chung và củng cố hiểu biết khoa học về những rủi ro này cũng như xây dựng các chính sách xuyên quốc gia về giảm thiểu rủi ro.

Trong bài phát biểu khai mạc, Bộ trưởng Khoa học, Đổi mới và Công nghệ Anh Michelle Donelan thông báo hội nghị lần hai sẽ được tổ chức ở Hàn Quốc trong vòng 6 tháng và hội nghị lần ba tổ chức tại Pháp trong vòng một năm. Sự kiện tập trung vào AI tiên tiến, đi sâu vào các vấn đề như rủi ro khi sử dụng AI trong tấn công mạng, phát triển vũ khí sinh học, hóa học, cũng như rủi ro mất kiểm soát công nghệ. Bà Donelan nhấn mạnh, sự cần thiết phải tiếp cận chủ động trước khi công nghệ AI mới xuất hiện trong năm 2024.

Cuộc đua quản lý trí tuệ nhân tạo

Trước những nỗ lực hợp tác toàn cầu trong quản lý rủi ro từ trí tuệ nhân tạo, ở quy mô quốc gia, chính phủ nhiều nước cũng đang nỗ lực quản lý công nghệ đang phát triển quá nhanh này. Hôm 26.10, Thủ tướng Anh Rishi Sunak thông báo sẽ thành lập Viện An toàn trí tuệ nhân tạo (AI) đầu tiên trên thế giới. Viện này sẽ kiểm tra, đánh giá và thử nghiệm các loại hình mới của AI để nắm bắt khả năng của từng mô hình mới, xác định tất cả các rủi ro từ những tác hại đối với xã hội như quan điểm thiên vị và thông tin sai lệch cho đến những nguy cơ cao nhất. Chính phủ Anh sẽ không vội vã kiểm soát AI, mà thay vào đó là xây dựng năng lực hàng đầu thế giới nhằm nắm bắt và đánh giá độ an toàn của các mô hình AI trong phạm vi quốc gia.

Trong khi đó, ngay trước thềm Hội nghị thượng đỉnh AI tại Anh, hôm 30.10, Tổng thống Mỹ Joe Biden đã ký sắc lệnh hành pháp, thiết lập các tiêu chuẩn an toàn về các hệ thống AI và yêu cầu các nhà phát triển chia sẻ các kết quả kiểm nghiệm an toàn với chính phủ nhằm ngăn chặn nguy cơ AI được sử dụng để phát triển các vật liệu sinh học nguy hiểm và để lừa gạt khách hàng. Cùng ngày, các quan chức Nhóm các nước công nghiệp phát triển (G7) đã nhất trí về các nguyên tắc hướng dẫn và một bộ quy tắc ứng xử tự nguyện gồm 11 điểm cho những nhà phát triển các dạng AI tiên tiến, trong nỗ lực của G7 nhằm giảm thiểu các rủi ro liên quan như thông tin sai lệch và những lo ngại về quyền riêng tư.

Như Ý

Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/viet-nam-va-the-gioi/chung-tay-bao-dam-an-ninh-trong-linh-vuc-ai--i348590/