Quản lý AI cần những cú bắt tay xuyên biên giới

Khi AI ngày càng đi sâu vào đời sống, câu chuyện quản lý sao cho hiệu quả rất cần sự hợp tác quốc tế chặt chẽ.

(KTSG) – Khi AI ngày càng đi sâu vào đời sống, câu chuyện quản lý sao cho hiệu quả rất cần sự hợp tác quốc tế chặt chẽ.

Không thể phủ nhận rằng trí tuệ nhân tạo (AI) và các ứng dụng của nó là “đầu tàu” tạo ra một cuộc cách mạng sâu rộng trong xã hội loài người, đặc biệt là sự xuất hiện của AI tạo sinh. Theo một báo cáo của Bloomberg, thị trường ứng dụng của công nghệ AI tạo sinh được dự đoán sẽ nhảy vọt từ 40 tỉ đô la Mỹ lên đến 1.500 tỉ đô la Mỹ vào năm 2032. Các chuyên gia cho rằng có thể trong vòng ba năm tới, bất cứ thứ gì trong truyền thông, truyền hình mà không gắn với AI sẽ bị coi là lạc hậu và không còn hiệu quả.

Luật lệ cho kỷ nguyên AI

Hiện nay, các nước thuộc Liên minh châu Âu (EU) đang đi đầu trong việc đưa AI vào khuôn khổ pháp lý. Vào đầu tháng 2-2024, 27 quốc gia thành viên đã thông qua những quy tắc quản lý AI – bộ luật đầu tiên trên thế giới về AI. Tuy nhiên, ở phần lớn các quốc gia khác, AI đang là vùng “vô luật”.

AI mở ra một kỷ nguyên mới cho loài người nhưng không thể phủ nhận rằng sự tiến bộ chóng mặt của AI đang làm nhiều người lo ngại – khi khuôn khổ pháp lý không kịp được cập nhật để quản lý những nguy cơ đến từ AI.

Từ nhiều năm nay, vô số nguy cơ đã được chỉ ra mà chưa có giải pháp cụ thể, như kỳ thị phân biệt (các thuật toán AI có thể lặp lại những kỳ thị phân biệt giới tính, màu da… nếu như dữ liệu chứa nội dung kỳ thị phân biệt được sử dụng để “huấn luyện” AI), vũ khí hóa AI (AI có thể được sử dụng trong các hệ thống vũ khí tự động hay trong các ứng dụng quân sự), và nhất là sự thay đổi trong thị trường lao động (nguy cơ AI thay thế con người trong một số công việc mang tính tự động). Không chỉ thế, một nguy cơ to lớn khác là AI vi phạm quyền riêng tư, an ninh mạng khi hàng loạt dữ liệu do AI thu thập và xử lý là những thông tin cá nhân và có thể bị khai thác bất hợp pháp, gây tổn hại tới cá nhân.

Tất nhiên, trong lĩnh vực dữ liệu cá nhân, nhiều quốc gia đã sớm xây dựng luật, mà các quy định có thể áp dụng cho lĩnh vực AI. Gần đây, bang California (Mỹ) đã thông qua luật về quyền riêng tư của người tiêu dùng (California Consumer Privacy Act), cho thấy luật pháp của Mỹ đang dần rời xa nguyên tắc “tự quản lý” (self-regulation) vốn thường được áp dụng trong vấn đề này. Ở Trung Quốc, việc bảo vệ dữ liệu cá nhân cũng dần được coi trọng hơn với Luật về dữ liệu cá nhân được thông qua năm 2021. Hiện nay cũng đã có một số cam kết quốc tế riêng lẻ trong vấn đề dữ liệu cá nhân.

Một số chương trình hợp tác quốc tế đa tầng đã được tiến hành, ví dụ như tuyên bố Bletchley có 29 quốc gia thành viên tham gia gồm Mỹ, Trung Quốc, EU.

Ở tầm toàn cầu, chúng ta có thể nhắc đến Nghị quyết 1990 của Hội đồng Liên hiệp quốc liên quan tới dữ liệu cá nhân. Ở mức độ khu vực, EU đi đầu với Luật về bảo vệ dữ liệu cá nhân (General Data Protection Regulation – GDPR) thông qua năm 2016, vốn là hình mẫu khuôn khổ pháp lý mà nhiều nước khác sử dụng để xây dựng luật quốc gia. Luật của EU đề cao nguyên tắc đồng thuận cá nhân, cũng như nguyên tắc minh bạch, hướng tới việc xây dựng một thế giới số mà quyền cá nhân, an ninh dữ liệu cá nhân được đảm bảo.

Sự cần thiết của hợp tác quốc tế về AI

Nhiều quốc gia và tổ chức khu vực đang nỗ lực xây dựng khuôn khổ pháp lý để quản lý AI. EU, Mỹ và Trung Quốc đang dẫn đầu cuộc đua này, tập trung vào việc quản lý việc sử dụng AI, giảm thiểu nguy cơ tổn hại tới quyền cá nhân, sự bình đẳng trước thuật toán cũng như nhiều vấn đề mang tính đạo đức khác. Cũng cần nhắc đến những sáng kiến quốc tế, như Tổ chức Hợp tác và Phát triển kinh tế (OECD) đã đưa ra những hướng dẫn xây dựng và sử dụng AI một cách có trách nhiệm, hay Tổ chức Giáo dục, Khoa học và Văn hóa của Liên hiệp quốc (UNESCO) ra khuyến nghị về đạo đức và quy tắc ứng xử AI.

Nỗ lực quản lý AI còn đến từ khu vực tư nhân. Một số công ty công nghệ hay viện nghiên cứu đã đặc biệt tích cực xây dựng những nguyên tắc quản lý và phát triển AI phù hợp với luật pháp và với các nguyên tắc đạo đức.

Tuy nhiên, những nỗ lực riêng lẻ nói trên là chưa đủ. Để có thể quản lý một cách hiệu quả AI, hợp tác quốc tế là điều đặc biệt cần thiết. Một sự phối hợp hợp tác quốc tế mới có thể giải quyết những thách thức đến từ công nghệ AI.

Thứ nhất, việc thiếu những tiêu chuẩn AI được công nhận ở mức độ toàn cầu có thể tạo ra những bất cập trên thực tế và cản trở sự phát triển của công nghệ. Rõ ràng là chúng ta cần tạo ra những nguyên tắc đạo đức, nguyên tắc quản lý dữ liệu và khuôn khổ pháp lý chung, toàn cầu, để đảm bảo hiệu quả trong áp dụng. Thứ hai là một số nguy cơ như việc vũ khí hóa AI hay sự thay đổi trong thị trường lao động chỉ có thể được giải quyết khi có những hành động chung, mang tính quốc tế. Thứ ba, chúng ta cần một hệ sinh thái toàn cầu để khuyến khích phát triển AI có trách nhiệm, đồng thời khuyến khích thúc đẩy công nghệ, khuyến khích phát triển hợp tác kinh tế quốc tế. Cũng cần phải nhấn mạnh rằng một sự hợp tác đa tầng, giữa chính phủ, công ty công nghệ, viện nghiên cứu và các tổ chức dân sự là cần thiết.

Chính phủ đóng vai trò chủ chốt trong việc xây dựng luật, thúc đẩy nghiên cứu phát triển còn các công ty công nghệ cần phát triển các hệ thống AI một cách có trách nhiệm, phù hợp với các nguyên tắc đạo đức, đề cao việc bảo vệ dữ liệu cá nhân và hạn chế kỳ thị phân biệt. Các viện nghiên cứu có thể có những đóng góp đáng kể về nghiên cứu tác động xã hội của AI, xây dựng nguyên tắc ứng xử, phối hợp với chính phủ để đưa ra những quyết định đúng đắn. Các tổ chức dân sự cũng đặc biệt cần thiết, giúp nâng cao nhận thức của người dân, góp phần đưa ý kiến người dân đến chính phủ để xây dựng khuôn khổ pháp lý phù hợp lợi ích chung.

Những bước tiến đầu tiên

Hiện nay, một số chương trình hợp tác quốc tế đa tầng đã được tiến hành, ví dụ như tuyên bố mang tên thành phố Bletchley – nơi nhà toán học Alan Turing, cha đẻ của AI, đã giải mã Enigma mà phát xít Đức sử dụng trong chiến tranh thế giới thứ hai. Tuyên bố Bletchley có 29 quốc gia thành viên tham gia gồm Mỹ, Trung Quốc, EU. Đây là tuyên bố đầu tiên mang tính toàn cầu về các nguy cơ do AI đặt ra. Tuyên bố này được thực hiện dựa trên nghiên cứu của các chuyên gia đến từ các chính phủ khác nhau, cũng như từ các công ty công nghệ phương Tây và Trung Quốc, từ các tổ chức phi chính phủ.

Tuyên bố Bletchley đặt ra mục đích phối hợp hợp tác trong phát triển công nghệ AI để hạn chế các nguy cơ đề cập ở trên, đề cao các nguyên tắc về an ninh, đạo đức, minh bạch và chia sẻ kiến thức. Việc tuân thủ những nguyên tắc đạo đức toàn cầu cũng như quyền con người căn bản, được công nhận tại các văn kiện quốc tế như Tuyên bố Quốc tế Nhân quyền 1948, Công ước quốc tế về các quyền kinh tế, văn hóa và xã hội, Công ước quốc tế về các quyền dân sự và chính trị năm 1976, cũng là trọng tâm của tuyên bố này.

Một tuyên bố khác là Tuyên bố Montreal 2018 về phát triển AI có trách nhiệm đã được hơn 60 quốc gia, công ty và tổ chức quốc tế ủng hộ. Tuyên bố này không có tính ràng buộc nhưng đặt ra sáu nguyên tắc căn bản về phát triển AI gồm vì lợi ích của con người, bình đẳng, minh bạch, có trách nhiệm, bảo vệ đời sống riêng tư và sự quản lý kiểm soát của con người.

Hiện nay, chủ đề quản lý và giám sát sự phát triển của AI cũng được đặt ra trong khuôn khổ của Diễn đàn kinh tế thế giới (World Economic Forum). Hàng năm, diễn đàn này là nơi tập hợp các chính phủ, đại diện các ngành công nghiệp, giới nghiên cứu và các tổ chức dân sự, cho phép trao đổi, chia sẻ và hợp tác phối hợp giữa các bên để tìm cách giải quyết những thách thức mà AI có thể đặt ra.

Liên hiệp quốc cũng đã lập ra một cơ quan tư vấn về AI để tìm ra các giải pháp cho các vấn đề quản lý AI. Các nguyên tắc an ninh mà cơ quan này đặt ra có thể được áp dụng cho việc xây dựng, phát triển và mở rộng các hệ thống AI. Các quốc gia cần sớm nhận ra sự cần thiết trong việc quản lý giám sát sự phát triển của AI, để tránh bị tụt hậu và mất khả năng kiểm soát.

Thiên Kim

Nguồn Saigon Times: https://thesaigontimes.vn/quan-ly-ai-can-nhung-cu-bat-tay-xuyen-bien-gioi/