Những rủi ro hiện hữu từ AI

Hàn Quốc mong muốn dẫn đầu cuộc đua khai thác AI và tự động hóa để thúc đẩy tăng trưởng kinh tế. Tuy nhiên, đây lại là nơi có các quy định về quản lý AI không theo kịp sự phát triển thực tế.

Tại Hàn Quốc chưa có tiêu chuẩn về lập trình AI một cách khách quan. Ảnh minh họa: Reuters

Tại Hàn Quốc chưa có tiêu chuẩn về lập trình AI một cách khách quan. Ảnh minh họa: Reuters

Không phải ngẫu nhiên mà Hội nghị thượng đỉnh toàn cầu tiếp theo nhằm thảo luận về những mối nguy hiểm và rủi ro của trí tuệ nhân tạo (AI) đối với nhân loại sẽ diễn ra tại Hàn Quốc.

Theo báo Joongang Ilbo, Hàn Quốc là nơi có một số trung tâm dữ liệu có thể thử nghiệm AI tổng quát. “Gã khổng lồ” công nghệ châu Á đang mong muốn dẫn đầu trong cuộc đua khai thác AI và tự động hóa để thúc đẩy tăng trưởng kinh tế. Tuy nhiên, Hàn Quốc lại là nơi có các quy định về quản lý AI được đánh giá là không theo kịp sự phát triển của thực tế.

Chính phủ Hàn Quốc cam kết đầu tư 1.200 tỷ won (910 triệu USD) trong năm 2024 để hỗ trợ phát triển doanh nghiệp và sử dụng AI, nhiều hơn 15% so với chi tiêu ngân sách dành cho công nghệ trong năm 2023.

Giới phân tích cho rằng Hội nghị về AI sắp tới có lẽ sẽ có ý nghĩa hơn đối với Hàn Quốc bởi việc xác định khung pháp lý cho quản lý hoạt động AI. Hiện tại Hàn Quốc xây dựng khung pháp lý dựa trên nguyên tắc phát triển AI trước khi điều chỉnh, ngoại trừ trường hợp sản phẩm AI được coi là có hại cho cuộc sống con người.

Choi Byeong-ho, chuyên gia về AI tại Đại học Hàn Quốc, cho biết: “Cách tiếp cận này có thể đặc biệt bất lợi vì các chương trình AI đang phát triển với tốc độ mà sự giám sát của con người với toàn bộ diễn biến tiến trình không còn khả thi”. Theo chuyên gia Choi, khả năng đặc biệt của AI ngày nay trong việc tạo và thực hiện các nhiệm vụ có thể dẫn đến những quyết định nguy hiểm đến tính mạng con người.

Một ví dụ điển hình là AI được lập trình để giảm lượng khí thải carbon bên trong không gian văn phòng. Khi tạo ra các nhiệm vụ phụ để cố gắng đạt được mục tiêu, nó sẽ phân tích nguyên nhân gây ra lượng khí thải carbon trong phòng. Đánh giá rằng nguồn phát thải carbon lớn nhất trong không gian là các nhân viên văn phòng, và việc lập trình có thể dẫn đến quyết định loại bỏ nguyên nhân gây ra nguồn phát thải.

Chuyên gia Choi cho biết, câu chuyện bắt đầu trở nên đáng sợ khi chúng ta không thể suy đoán và kiểm soát được AI suy nghĩ và đưa ra quyết định như thế nào.

Các nhà lãnh đạo tham dự Hội nghị thượng đỉnh về AI thế giới diễn ra dại Bletchley ở Anh mới đây đã nhất trí về sự cần thiết phải xác định các rủi ro hiện hữu của AI đối với nhân loại và điều phối các chính sách.

Một số chuyên gia AI đã nhấn mạnh tầm quan trọng của các cơ chế trao đổi thông tin, thúc đẩy nghiên cứu chung và đặt ra những quy định về giám sát các chương trình phát triển và ứng dụng AI. Cơ chế này không chỉ cần thực hiện giữa các quốc gia mà giữa các viện nghiên cứu, các công ty và cá nhân các nhà khoa học.

Luật sư của công ty Shin & Kim có trụ sở tại Seoul cho biết, Chính phủ Hàn Quốc đang cố gắng tập trung vào việc thúc đẩy ngành công nghiệp AI và hệ sinh thái liên quan trước bởi lo ngại nước này sẽ bị tụt lại phía sau trong cuộc cạnh tranh với Mỹ và Trung Quốc nếu bị ràng buộc bởi các quy định của hệ thống quy định và pháp luật.

Naver, cổng thông tin lớn nhất Hàn Quốc, đã ra mắt trung tâm dữ liệu thứ hai tại Sejong trong tháng 11 với các siêu máy tính AI có khả năng lưu trữ và xử lý 65 exabyte dữ liệu. Với hệ thống này, Hàn Quốc có thể trở thành một trong những thị trường tiên tiến nhất cho các mô hình ngôn ngữ lớn (LLM) sau Mỹ và Trung Quốc, mặc dù bộ dữ liệu của Hàn Quốc chủ yếu bằng tiếng Hàn và có thể không phù hợp trên toàn cầu. Các giám đốc điều hành của Naver đã tập trung vào việc ưu tiên phát triển hệ thống AI ngôn ngữ trước khi đề cập quy định liên quan đến quản lý AI.

Các nhà lập pháp Hàn Quốc đã được báo cáo rằng tất cả các luật về AI được soạn thảo và trình biểu quyết tại Quốc hội đều tuân thủ nguyên tắc. Mới đây, đạo luật do cựu doanh nhân công nghệ và ứng cử viên Tổng thống Ahn Cheol-soo soạn thảo, cấm phát triển bất kỳ sản phẩm trí tuệ nhân tạo nào gây ra mối đe dọa rõ ràng đối với hòa bình, nhân phẩm và các quyền cơ bản như tự do và bình đẳng, cũng như dân chủ.

Tuy nhiên, có những phạm vi khó phân định ví dụ ở khu vực phát triển các sản phẩm AI đưa ra quyết định về các nguồn tài nguyên công như năng lượng, nước uống, sức khỏe và y học, vận hành nhà máy điện hạt nhân và nhận dạng khuôn mặt để điều tra tội phạm. Theo chuyên gia AI Choi Byeong-ho từ Đại học Hàn Quốc, nếu có sự cố xảy ra ở các khu vực đó, cái giá phải trả đối với sức khỏe con người sẽ ở một quy mô khác, có thể là ở mức độ không thể phục hồi.

Lãnh đạo của các tập đoàn khổng lồ, như Giám đốc điều hành của Open AI, Sam Altman, đã thẳng thắn bày tỏ lo ngại về những gì họ có thể tạo ra. Liên minh châu Âu đã áp dụng cách tiếp cận quy định chi tiết và cụ thể hóa theo hạng mục AI. Theo đó, luật AI của khu vực này đưa ra kiểm soát theo loại sản phẩm AI và đánh giá theo mức độ rủi ro đối với tính mạng con người và các nguy cơ tiềm ẩn mà AI có thể gây ra.

Tổng thống Mỹ Joe Biden gần đây đã ban hành lệnh hành pháp về AI. Theo đó các công ty được yêu cầu chia sẻ kết quả kiểm tra độ an toàn với Chính phủ Mỹ. Đây được xem là biện pháp kiểm soát mạnh mẽ nhất của một chính phủ đối với các công trình nghiên cứu, ứng dụng AI hiện nay.

Ngay cả khi các nhà lãnh đạo thế giới nhất trí được về các loại sản phẩm AI nào gây ra rủi ro hiện hữu cho nhân loại, thì việc thiết kế AI để hành xử có đạo đức như con người - hoặc tốt hơn - sẽ đặt ra một thách thức ở tầm mức khác.

Lim Yun-jin, Giáo sư kỹ thuật AI tại Đại học Sookmyung, cho biết thế giới vốn đã không công bằng, điều đó có nghĩa là AI đang được lập trình bởi con người đều sẽ có những thành kiến riêng. Hiện chưa có tiêu chuẩn nào về cách lập trình AI một cách khách quan.

Ví dụ, một chiếc xe tự lái chở hai hành khách có thể phải đưa ra quyết định trong tích tắc khi dự đoán sẽ có một vụ va chạm ô tô sắp xảy ra với một chiếc xe chở ba hành khách. Nếu sử dụng phanh, nó có thể cứu được 3 hành khách trên xe kia nhưng có thể khiến 2 hành khách trên xe tự hành tử vong”, ông Lim nói.

“Làm cách nào để chúng tôi lập trình AI để đưa ra quyết định đúng đắn trong trường hợp này? Đâu sẽ là quyết định đúng cho trường hợp này? Và đây sẽ chính là những bài toán khó mà thế giới cần đặt ra khi phát triển AI.

Sự khác biệt về văn hóa cũng có thể tạo ra các tiêu chuẩn đạo đức khác nhau về AI, điều này có thể gây ra tranh chấp quốc tế. Theo chuyên gia Choi, vấn đề khác biệt văn hóa cũng có thể gây ra xung đột khi những điều bình thường trong văn hóa của dân tộc này có thể trở thành điều cấm kỵ trong văn hóa của cộng đồng khác.

AI sẽ phải là chủ thể xác định thế nào là sự phân biệt đối xử trong cách suy nghĩ của AI. Tất cả những điều này đều cần sự đối thoại và đồng thuận trên toàn xã hội. Hiện tại, giới chuyên môn đang lo ngại, trong khi tốc độ phát triển của AI vượt ngoài tầm kiểm soát thì khung pháp lý và các tranh cãi về chuẩn mực vẫn còn đang ở mức độ sơ khai./.

Khánh Vân (P/v TTXVN tại Seoul)

Nguồn Bnews: https://bnews.vn/nhung-rui-ro-hien-huu-tu-ai/314969.html