Mỹ và Trung Quốc nghiên cứu quy tắc điều chỉnh, kiểm soát chatbot AI giống ChatGPT
Hôm 11.4, chính quyền Biden cho biết đang lấy ý kiến của công chúng về các biện pháp tăng cường trách nhiệm và giám sát tiềm năng với các hệ thống trí tuệ nhân tạo (AI) khi các câu hỏi về tác động của nó với an ninh và giáo dục quốc gia vẫn đang tồn tại.
ChatGPT đặc biệt thu hút sự chú ý của các nhà làm luật Mỹ vì trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử với hơn 100 triệu người dùng hoạt động hàng tháng, gây bão internet nhờ khả năng viết câu trả lời nhanh chóng cho nhiều loại truy vấn.
Cục Quản lý Thông tin và Viễn thông Quốc gia (NTIA), cơ quan của Bộ Thương mại tư vấn cho Nhà Trắng về chính sách viễn thông và thông tin, muốn có ý kiến đóng góp vì "sự quan tâm pháp lý ngày càng tăng với cơ chế trách nhiệm về AI”.
NTIA muốn biết liệu có biện pháp nào có thể được đưa ra để đảm bảo "rằng các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy hay không".
“Các hệ thống AI có trách nhiệm có thể mang lại những lợi ích to lớn, nhưng chỉ khi chúng ta giải quyết được những hậu quả và tác hại tiềm ẩn của chúng. Để các hệ thống này phát huy hết tiềm năng, các công ty và người tiêu dùng cần có thể tin tưởng chúng”, Quản trị viên NTIA - Alan Davidson tuyên bố.
Tổng thống Joe Biden tuần trước cho biết vẫn còn phải xem liệu AI có nguy hiểm hay không. Ông nói: “Theo quan điểm của tôi, các hãng công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi đưa ra thị trường”.
Được tạo bởi OpenAI và Microsoft hỗ trợ, ChatGPT khiến nhiều người dùng kinh ngạc với việc trả lời nhanh các câu hỏi nhưng lại gây khó chịu cho những người khác vì đôi khi đưa ra thông tin không chính xác.
NTIA dự định sẽ viết một báo cáo khi nghiên cứu "những nỗ lực để đảm bảo các hệ thống AI hoạt động như được quảng cáo, không gây hại", đồng thời cho biết những nỗ lực này sẽ hỗ trợ cho công việc đang diễn ra của chính quyền Biden trong việc "đảm bảo cách tiếp cận toàn diện và gắn kết của chính phủ liên bang với những rủi ro và cơ hội liên quan đến AI".
Cuối tháng 3, nhóm đạo đức công nghệ Center for Artificial Intelligence and Digital Policy đã yêu cầu Ủy ban Thương mại Liên bang Mỹ (FTC) ngăn OpenAI phát hành các bản phát hành thương mại mới của GPT-4.
GPT (Generative Pre-training Transformer) là mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT hoạt động.
Trong đơn khiếu nại gửi tới FTC, Center for Artificial Intelligence and Digital Policy đã gọi GPT-4 là "thiên vị, lừa dối, có nguy cơ với quyền riêng tư và an toàn công cộng", theo bản tóm tắt trên trang web của nhóm này.
OpenAI đã công bố phiên bản thứ tư của GPT hôm 14.3 với nhiều cải tiến, khiến người dùng phấn khích bằng cách thu hút họ vào các hoạt động giống như con người, trò chuyện, sáng tác bài hát và tóm tắt các tài liệu dài.
Trong đơn khiếu nại, Center for Artificial Intelligence and Digital Policy cho biết ChatGPT-4 của OpenAI không đáp ứng tiêu chuẩn của FTC là "minh bạch, có thể giải thích rõ ràng và dễ hiểu, không thiên vị, có cơ sở kinh nghiệm (được chứng minh bằng các thực nghiệm và chứng cứ khác), đảm bảo sự chịu trách nhiệm trong quá trình thực hiện".
"FTC có trách nhiệm rõ ràng trong việc điều tra và nghiêm cấm các hành vi thương mại không công bằng và lừa dối. Chúng tôi tin rằng FTC nên xem xét kỹ OpenAI và GPT-4", Marc Rotenberg, Chủ tịch Center for Artificial Intelligence and Digital Policy và là người ủng hộ quyền riêng tư lão làng, cho biết trong một tuyên bố trên trang web.
Center for Artificial Intelligence and Digital Policy đã thúc giục FTC "mở cuộc điều tra về OpenAI, ngăn chặn việc tiếp tục phát hành phiên bản GPT-4 thương mại mới và đảm bảo thiết lập các biện pháp bảo vệ cần thiết để bảo vệ người tiêu dùng, doanh nghiệp, thị trường".
Động thái trên diễn ra sau khi Elon Musk, nhiều chuyên gia AI cùng các nhà quản lý ngành công nghiệp đang kêu gọi tạm ngừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng 6 tháng vì nguy cơ tiềm tàng với xã hội và nhân loại. Họ cho biết điều này trong một bức thư ngỏ.
Bức thư do tổ chức phi lợi nhuận Future of Life Institute công bố và có chữ ký của hơn 1.800 người, gồm cả Marc Rotenberg, Elon Musk, Steve Wozniak (đồng sáng lập Apple) và Emad Mostaque (Giám đốc điều hành Stability AI), kêu gọi tạm dừng phát triển AI tiên tiến cho đến khi các giao thức an toàn chung cho các thiết kế như vậy được phát triển, triển khai và được kiểm tra bởi các chuyên gia độc lập.
"Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được", bức thư viết.
Bức thư cũng trình bày chi tiết những rủi ro tiềm ẩn với xã hội và nền văn minh do các hệ thống AI cạnh tranh với con người, dưới hình thức gây ra gián đoạn kinh tế và chính trị, đồng thời kêu gọi các nhà phát triển hợp tác cùng các nhà hoạch định chính sách về quản trị và cơ quan quản lý.
Bức thư được đưa ra khi lực lượng cảnh sát EU Europol hôm 27.3 đã bày tỏ mối lo ngại về đạo đức và pháp lý với AI tiên tiến như ChatGPT, cảnh báo về khả năng lạm dụng hệ thống trong các nỗ lực lừa đảo, phát tán thông tin sai lệch và tội phạm mạng.
Kể từ khi được OpenAI phát hành vào tháng 11.2022, ChatGPT đã gây ra một cơn sốt công nghệ, khiến các đối thủ tung ra các sản phẩm tương tự và các công ty tích hợp nó hoặc các công nghệ tương tự vào các ứng dụng và sản phẩm của họ.
“Do các mô hình ngôn ngữ lớn như GPT đang tích cực được cải tiến, khả năng khai thác tiềm năng của những loại hệ thống AI này bởi các tội phạm dẫn đến tầm nhìn u ám”, Europol nói khi trình bày báo cáo công nghệ đầu tiên của mình bắt đầu với chatbot.
Europol chỉ ra việc sử dụng ChatGPT có hại trong ba lĩnh vực tội phạm.
Europol cho biết: “Khả năng của ChatGPT trong việc soạn thảo văn bản vô cùng thực tế khiến nó trở thành công cụ hữu ích cho mục đích lừa đảo cá nhân”.
Với khả năng tái tạo các mẫu ngôn ngữ để bắt chước phong cách nói chuyện của các cá nhân hoặc nhóm cụ thể, ChatGPT có thể được sử dụng bởi tội phạm để nhắm mục tiêu vào các nạn nhân, cơ quan thực thi pháp luật của EU nói.
Europol nói rằng khả năng của ChatGPT trong việc sản xuất văn bản chân thực với tốc độ và quy mô lớn cũng khiến nó trở thành một công cụ lý tưởng cho hoạt động tuyên truyền và phát tán thông tin sai lệch.
"ChatGPT cho phép người dùng tạo và phổ biến những thông điệp phản ánh một câu chuyện cụ thể với tương đối ít nỗ lực", Europol cho hay.
Europol nói rằng tội phạm không có nhiều kiến thức kỹ thuật có thể sử dụng ChatGPT để tạo ra mã độc.
Cơ quan giám sát internet Trung Quốc đề xuất quy tắc, đánh giá bảo mật với chabot AI tương tự ChatGPT
Cơ quan giám sát internet của Trung Quốc đã tiết lộ một bộ quy tắc dự thảo mới nhắm mục tiêu vào các dịch vụ tương tự ChatGPT.
Các công ty cung cấp dịch vụ generative AI ở Trung Quốc phải thực hiện các biện pháp ngăn chặn nội dung phân biệt đối xử, thông tin sai lệch và nội dung gây hại cho quyền riêng tư cá nhân hoặc sở hữu trí tuệ, theo quy định đề xuất do Cục Quản lý không gian mạng Trung Quốc (CAC) công bố hôm 11.4.
CAC cho biết các doanh nghiệp cũng nên đảm bảo rằng các sản phẩm của họ tôn trọng giá trị xã hội chủ nghĩa của Trung Quốc và không tạo ra nội dung gợi ý lật đổ chế độ, bạo lực, nội dung khiêu dâm hoặc phá vỡ trật tự kinh tế và xã hội.
Tất cả sản phẩm generative AI phải vượt qua đánh giá bảo mật của CAC trước khi phục vụ công chúng, theo yêu cầu từ quy định năm 2018 về các dịch vụ thông tin trực tuyến có khả năng gây ảnh hưởng đến dư luận.
Tạo ra nội dung gốc dựa trên lời nhắc bằng văn bản, hình ảnh hoặc âm thanh, generative AI đã thu hút được sự quan tâm ngày càng tăng ở Trung Quốc sau khi OpenAI ra mắt ChatGPT vào tháng 11.2022.
Tại Trung Quốc, nơi ChatGPT vẫn chưa chính thức khả dụng, các công ty trong nước đã chạy đua để tung ra các công nghệ tương tự chatbot của OpenAI. Trong đó, nhà điều hành tìm kiếm web Baidu tiết lộ Ernie Bot vào tháng trước và gã khổng lồ thương mại điện tử Alibaba lên kế hoạch tích hợp Tongyi Qianwen vào tất cả sản phẩm của mình. Ngày 10.4, SenseTime công bố một loạt sản phẩm mới được trang bị AI bao gồm chatbot và trình tạo hình ảnh từ văn bản. SenseTime cho biết các sản phẩm này dựa trên phiên bản mới nhất mô hình ngôn ngữ lớn SenseNova mà công ty đã phát triển trong 5 năm qua.
Tuy nhiên, khi mối quan tâm đến AI tăng lên, chính quyền Trung Quốc đã cảnh giác với những rủi ro do lĩnh vực đang phát triển nhanh chóng gây ra.
Các phương tiện truyền thông nhà nước đã nhiều lần cảnh báo về “bong bóng thị trường” và “thổi phồng quá mức” xung quanh các công cụ generative AI, với một tờ báo gần đây cảnh báo rằng ChatGPT có thể làm suy đồi thay vì cải thiện đạo đức của người dùng.
Hôm 10.2, Hiệp hội Thanh toán & Thanh lý của Trung Quốc, do ngân hàng trung ương quốc gia này quản lý, kêu gọi những người làm trong ngành lưu ý đến những rủi ro liên quan đến việc sử dụng các công cụ giống ChatGPT cho công việc và tránh tải thông tin bí mật và nhạy cảm lên các dịch vụ đó.
Các quốc gia khác cũng đang cân nhắc các quy định về generative AI.
Bộ thương mại Mỹ hôm 11.4 đã bắt đầu mời công chúng bình luận về cách các nhà hoạch định chính sách nên tiếp cận các công cụ AI ngày càng tinh vi. Cuối tháng trước, Ý đã trở thành quốc gia phương Tây đầu tiên tạm thời cấm ChatGPT do lo ngại về quyền riêng tư.
Trong khi đó, Liên minh châu Âu (EU) đang thảo luận về Đạo luật AI, lần đầu tiên được đề xuất vào năm 2021 để điều chỉnh việc sử dụng các sản phẩm AI theo mức độ rủi ro của chúng.
Khung pháp lý của EU, tuân theo một cách tiếp cận khác với các quy tắc dự thảo của CAC, có khả năng áp đặt “gánh nặng tuân thủ cực kỳ nặng nề với các công ty”, theo bà Angela Zhang, phó giáo sư luật tại Đại học Hồng Kông. Thay vào đó, dự thảo quy định của Trung Quốc chủ yếu tập trung vào kiểm duyệt nội dung, Angela Zhang nói.
Angela Zhang cho hay: “Những yêu cầu về nội dung này không phải là mới với các công ty internet Trung Quốc, vì vậy tôi không nghĩ rằng việc công bố các quy tắc mới này sẽ tạo thêm gánh nặng cho các công ty Trung Quốc”.
Tuy nhiên, một số chuyên gia đã chỉ ra rằng kiểm duyệt là rào cản với các công ty Trung Quốc đang hy vọng tạo ra một đối thủ thực sự của ChatGPT.
Hanna Dohmen, nhà phân tích nghiên cứu tại Trung tâm Công nghệ An ninh và Mới nổi của Đại học Georgetown, nhận định: “Những hạn chế, quy định nội dung và kiểm duyệt quá mức có thể cản trở quá trình thương mại hóa và đổi mới hơn nữa những công nghệ như vậy”.
CAC đang thu hút phản hồi về các quy tắc được đề xuất cho đến ngày 10.5.