AI, khi ẩn họa đã hiện hình

Cuối tháng 5/2024, Hội đồng châu Âu (EC) chính thức thông qua hiệp ước toàn cầu đầu tiên có mang tính ràng buộc về mặt pháp lý, liên quan tới các quy định quản lý việc sử dụng trí tuệ nhân tạo (AI). Cho dù hiệu quả thực tiễn của thỏa thuận này vẫn sẽ còn phải chờ đợi thời gian minh chứng, thì đó vẫn là một hành động mang tính tất yếu, khi loài người đối diện những hiểm họa đến từ mặt trái của công nghệ, do chính mình tạo nên.

Châu Âu, và toàn thế giới

Trong một tuyên bố chính thức sau khi Công ước khung về AI được thông qua, EC cũng kêu gọi: Các quốc gia không phải là thành viên của Liên minh châu Âu (EU) cũng hoàn toàn có thể tham gia thỏa thuận ấy.

Công ước khung về AI đã được thông qua tại Hội nghị thường niên của Ủy ban Bộ trưởng EC, với sự tham gia của các bộ trưởng ngoại giao 46 nước thành viên, với mục đích: Đặt ra khung pháp lý đối với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm. Đây là kết quả sau hai năm làm việc của một cơ quan liên chính phủ, quy tụ 46 thành viên của EC, EU và 11 quốc gia không phải thành viên EU - trong đó có Mỹ, cũng như các đại diện của giới nghiên cứu khoa học.

Loài người phải sẵn sàng đối diện không ít hiểm họa xuất phát từ mặt trái của AI.

Loài người phải sẵn sàng đối diện không ít hiểm họa xuất phát từ mặt trái của AI.

Tổng thư ký EC Marija Pejcinovic Buric nêu rõ: Công ước khung về AI là hiệp ước toàn cầu đầu tiên, nhằm bảo đảm rằng AI được sử dụng một cách có trách nhiệm, tuân thủ các quy định luật pháp và bảo vệ quyền lợi của người dân. Hiệp ước này yêu cầu các bên đảm bảo rằng hệ thống AI không được sử dụng để làm suy yếu các thể chế. Các yêu cầu về tính minh bạch và giám sát sẽ bao gồm việc xác định nội dung do AI tạo ra cho người dùng.

Công ước này là cột mốc tiếp nối, trên một hành trình dài chưa có điểm kết thúc, bắt đầu hiện hữu kể từ khi nhân loại đạt được những bước phát triển vũ bão về công nghệ trí tuệ nhân tạo - cũng chính là khi những dự cảm bất an trỗi dậy.

Cuối tháng 3/2024, Nghị viện châu Âu (EP) cũng vừa thông qua Đạo luật Trí tuệ nhân tạo "đi vào lịch sử", mà trong đó áp dụng cách tiếp cận dựa trên rủi ro, nhằm đảm bảo mọi công ty phát hành sản phẩm AI phải tuân thủ các quy định của pháp luật, trước khi triển khai ra thị trường. Ngay sau đó, Ủy ban châu Âu (EC) yêu cầu một số đại gia công nghệ quốc tế như Bing, Facebook, Google, Instagram, Snapchat, TikTok, YouTube và X trình bày chi tiết phương án hạn chế rủi ro về AI sáng tạo của doanh nghiệp.

Trước đó, đầu tháng 2/2024, khi các nước châu Âu đạt được nhất trí xoay quanh những phác thảo cơ bản về Đạo luật AI của EU cũng như Công ước khung về AI của EC, một số nguyên tắc và phương án hành động mang tính nền tảng cũng đã được đặt ra cho vấn đề này.

Nếu Hội đồng châu Âu đề xuất thiết lập các tiêu chí phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng có thể gây ra cho người dùng, gồm các cấp độ: Rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro thấp…., thì Nghị viện châu Âu thậm chí còn đề xuất thành lập Văn phòng AI, một cơ quan mới của EU để hỗ trợ việc áp dụng hài hòa đạo luật AI, cung cấp hướng dẫn và điều phối các cuộc điều tra chung xuyên biên giới. Bên cạnh đó, về mặt chế tài, việc không tuân thủ các quy định có thể phải chịu mức phạt từ 35 triệu euro hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty.

Châu Âu đã lựa chọn hướng đi cho mình. Và hiện tại, họ muốn toàn thế giới cùng gia nhập, để chấp thuận các quy tắc chung cho việc phát triển trí tuệ nhân tạo.

Hiểm họa và rào cản

Có lẽ, đến thời điểm hiện tại, gần như bất cứ ai cũng đã có thể hình dung về tính hai mặt của các thành tựu công nghệ trí tuệ nhân tạo. Một mặt, những thành tựu ấy đưa đến cho loài người các công cụ cực kỳ hữu ích, để tiết kiệm tối đa thời gian và công sức nghiên cứu, nhằm thực hiện mọi công việc, trên mọi lĩnh vực.

Nhưng mặt khác, như đánh giá ngắn gọn của Interpol hồi đầu tháng 3/2024: Việc sử dụng AI đã dẫn đến các chiến dịch lừa đảo tinh vi và chuyên nghiệp hơn, mà không cần kỹ năng hay kỹ thuật nâng cao, trong khi lại chỉ đòi hỏi chi phí tương đối thấp. Nói cách khác, như chuyện "thuốc có thể cứu người, cũng có thể giết người", những bước tiến thần tốc của công nghệ AI cũng đã và đang cung cấp các phương tiện hoàn hảo cho mọi mưu đồ bất chính.

Thế giới thực sự hưởng lợi rất nhiều từ trí tuệ nhân tạo.

Thế giới thực sự hưởng lợi rất nhiều từ trí tuệ nhân tạo.

Làm rõ hơn, Tổng thư ký Interpol Jürgen Stock đưa ví dụ: "Chúng ta đang phải đối mặt với đại dịch gian lận tài chính ngày càng gia tăng, dẫn đến các cá nhân, thường là những người dễ bị tổn thương và các công ty bị lừa đảo trên quy mô lớn và ở phạm vi toàn cầu". Cũng theo ông Jürgen Stock, những thay đổi về công nghệ và sự gia tăng nhanh chóng về quy mô cũng như số lượng tội phạm có tổ chức đã thúc đẩy việc tạo ra nhiều cách thức mới để lừa gạt người dân vô tội, doanh nghiệp và thậm chí cả các chính phủ. Với sự phát triển của AI và tiền điện tử, tình hình sẽ chỉ trở nên tồi tệ hơn nếu không có hành động khẩn cấp.

Song, không chỉ vậy, nếu chúng ta trở lại với phần đòi hỏi "AI phải được bảo đảm không được phép sử dụng để làm suy yếu các thể chế" trong Công ước khung mà EC vừa thông qua, thì "độ phủ sóng" của những hiểm họa vô hình sẽ còn trở nên rõ ràng hơn, ở một vấn đề nhức nhối: Tin giả (fake news).

Trên lý thuyết, từ đầu thiên niên kỷ thứ ba, nhân loại đã chính thức bước vào kỷ nguyên bùng nổ thông tin, với sự trợ giúp đắc lực từ Intenet, cũng như các công cụ mạng. Nhưng thực tế, chính sự "dư dả" đó dần dần cũng đã chuyển hóa thành trạng thái "khủng hoảng thừa thông tin", khi mọi người dùng đều có thể bị mất hướng và chìm nghỉm trong những đại dương dữ liệu. Điển hình, thế hệ Gen Z (sinh ra từ năm 1995 đến năm 2010) kế cận đã và đang phải đối diện với hội chứng FOMO (Fear of missing out, nghĩa là nỗi sợ bị bỏ lỡ những câu chuyện nóng). Do đó, họ liên tục phải nạp vào trí não mình những lượng thông tin khổng lồ, mà không còn thời gian để kiểm chứng, hay quan trọng hơn là chiêm nghiệm và chắt lọc chúng.

Chính vì vậy, khi AI được sử dụng để tiếp tay cho các nỗ lực lan truyền các thông tin giả, đặc biệt là khi liên quan đến thượng tầng kiến trúc tư tưởng, nó có thể khiến mọi kết cấu xã hội trở nên hỗn loạn và suy yếu. Không cần phải nhìn đâu xa, những gì đã diễn ra trong cuộc bầu cử tổng thống cuối năm 2020 ở nước Mỹ - cường quốc số 1 thế giới - đã đủ chứng minh sự nguy hiểm của fake news, mà đỉnh điểm là cuộc bạo động ở Washington. Thời điểm đó, đến cả giới quan sát quốc tế cũng đã có những thời điểm không biết tin vào đâu, không có nguồn khả tín nào để kiểm chứng mọi lời đồn đoán, và chỉ có thể chờ đợi sự xác thực cuối cùng từ nước Mỹ. Ở một khía cạnh nào đó, khi thừa mứa thông tin, mà trong đó lại pha trộn quá nhiều thông tin giả, thực tế, chúng ta rơi trở lại vào sự bưng bít và tăm tối của thời kỳ bị "bịt mắt", không được tiếp cận với nhiều nguồn thông tin.

Đặt câu chuyện này sang lĩnh vực quân sự, khi chiến tranh và xung đột cũng đang từng ngày hủy hoại các cấu trúc của trật tự thế giới cũ, với vai trò tất yếu của những cuộc chiến tuyên truyền - tâm lý, dường như vẫn còn những khía cạnh khác lấp ló, trong nỗ lực kiểm soát trí tuệ nhân tạo của các chính phủ. Ở một góc nhìn nào đó, mọi chính quyền có lẽ đều đã trở nên dễ bị tổn thương hơn, nếu bị tập kích bằng một thứ vũ khí phi truyền thống và bất đối xứng: Lượng fake news được thiết lập với công nghệ deep fake, phục vụ cho những toan tính từ bên ngoài biên giới.

Đó là chưa kể, dĩ nhiên, nỗi ám ảnh muôn đời về việc trí tuệ nhân tạo sẽ lật đổ con người, và nắm quyền thống trị hành tinh.

Vì tất cả những lý do đó, việc xây dựng và nghiêm túc thực thi các quy định về phát triển AI, rõ ràng, là vô cùng cần thiết. Song, chắc chắn trước Đạo luật AI hay Công ước khung về AI vẫn là một vài rào cản không dễ vượt qua, khi cùng được dựng nên bởi một điều duy nhất: Lợi ích.

Đơn cử, trong cộng đồng công nghệ quốc tế, có không ít nỗi lo đã được công khai bộc lộ, về chuyện sự kiểm soát chặt chẽ sẽ trói buộc những bước phát triển tiếp theo của AI, và làm suy giảm động lực nghiên cứu. Không chỉ vậy, còn có cả những suy tưởng u ám, cho rằng các công cụ pháp lý áp đặt lên AI, cuối cùng, cũng sẽ chỉ phục vụ cuộc cạnh tranh của các cường quốc hàng đầu.

Thiên Thư

Nguồn ANTG: https://antgct.cand.com.vn/khoa-hoc-van-minh/ai-khi-an-hoa-da-hien-hinh-i734007/