Mỹ có đạo luật đầu tiên về chatbot AI nhằm bảo vệ trẻ em

Ngày 13/10, Thống đốc bang California Gavin Newsom đã ký thông qua đạo luật đầu tiên tại Mỹ nhằm quản lý chatbot trí tuệ nhân tạo (AI) và bảo vệ trẻ em, thanh thiếu niên trước những nguy cơ tiềm ẩn từ công nghệ này.

Trước áp lực dư luận và hàng loạt vụ kiện về việc chatbot gây nguy hiểm cho trẻ vị thành niên, OpenAI và Meta trong tháng 9/2025 đã điều chỉnh cách chatbot phản hồi khi người dùng ở độ tuổi này đề cập đến vấn đề tự tử hoặc có dấu hiệu khủng hoảng tâm lý. (Nguồn: The Korea Times)

Trước áp lực dư luận và hàng loạt vụ kiện về việc chatbot gây nguy hiểm cho trẻ vị thành niên, OpenAI và Meta trong tháng 9/2025 đã điều chỉnh cách chatbot phản hồi khi người dùng ở độ tuổi này đề cập đến vấn đề tự tử hoặc có dấu hiệu khủng hoảng tâm lý. (Nguồn: The Korea Times)

Theo luật mới, các nền tảng phải thông báo cho người dùng biết rằng họ đang trò chuyện với chatbot chứ không phải con người thật. Đối với người dùng là trẻ vị thành niên, thông báo này sẽ tự động hiển thị lại sau mỗi ba giờ. Các công ty cũng phải xây dựng quy trình phát hiện và ngăn chặn nội dung liên quan đến hành vi tự làm hại bản thân, đồng thời nhanh chóng kết nối người dùng có biểu hiện khủng hoảng tinh thần đến các tổ chức, đường dây tư vấn và dịch vụ hỗ trợ khủng hoảng.

California là một trong số các bang của Mỹ đang nỗ lực giải quyết những lo ngại xung quanh việc trẻ em sử dụng chatbot để trò chuyện, tìm sự đồng hành. Lo ngại này tăng mạnh sau hàng loạt vụ kiện và báo cáo cho thấy chatbot của Meta, OpenAI và một số công ty khác đã có những cuộc trò chuyện mang tính gợi dục với người dùng nhỏ tuổi, thậm chí có trường hợp hướng dẫn họ tự sát.

Dự luật nói trên là một trong nhiều đề xuất được các nhà lập pháp California đưa ra trong năm nay nhằm siết chặt hoạt động của ngành công nghệ AI, lĩnh vực đang phát triển nhanh chóng nhưng thiếu sự giám sát. Theo tổ chức Tech Oversight California, các tập đoàn công nghệ đã chi ít nhất 2,5 triệu USD trong nửa đầu năm nay để vận động hành lang phản đối các biện pháp siết quản lý, đồng thời còn tuyên bố lập quỹ chính trị ủng hộ AI, nhằm ngăn chặn sự giám sát ở cấp bang và liên bang.

Tháng 9 vừa qua, Tổng chưởng lý bang California, ông Rob Bonta, đã gửi thư đến OpenAI bày tỏ “quan ngại nghiêm trọng” về việc chatbot của nền tảng này tương tác với trẻ em và thanh thiếu niên. Ủy ban Thương mại liên bang Mỹ (FTC) cũng mở cuộc điều tra đối với một số công ty AI về các rủi ro khi trẻ em sử dụng chatbot làm “bạn đồng hành”.

Một nhóm giám sát cho biết, nhiều chatbot từng đưa ra lời khuyên nguy hiểm cho trẻ em liên quan đến ma túy, rượu và rối loạn ăn uống. Tại Florida, một người mẹ đã khởi kiện công ty Character.AI sau khi con trai bà tự tử do “mối quan hệ cảm xúc lệch lạc” với chatbot. Trong khi đó, cha mẹ của cậu bé 16 tuổi Adam Raine ở California cũng nộp đơn kiện OpenAI và Giám đốc điều hành Sam Altman, cho rằng ChatGPT đã “xúi giục” con trai họ lên kế hoạch và kết liễu cuộc đời mình hồi đầu năm 2025.

Trước áp lực dư luận và hàng loạt vụ kiện về việc chatbot gây nguy hiểm cho trẻ vị thành niên, OpenAI và Meta trong tháng 9 này đã điều chỉnh cách chatbot phản hồi khi người dùng ở độ tuổi này đề cập đến vấn đề tự tử hoặc có dấu hiệu khủng hoảng tâm lý. OpenAI thông báo sẽ triển khai tính năng mới giúp phụ huynh có thể quản lý và theo dõi tài khoản của con thông qua tài khoản cá nhân.

Trong khi đó, Meta cho biết đã chặn chatbot trò chuyện với trẻ em về những chủ đề nhạy cảm như tự làm hại, tự tử, rối loạn ăn uống hay quan hệ tình cảm không phù hợp, và thay vào đó hướng các em đến các nguồn hỗ trợ tâm lý đáng tin cậy. Nền tảng này cũng đã bổ sung tính năng giúp phụ huynh quản lý tài khoản của con em mình.

(theo The Korea Times)

Đỗ Quyên

Nguồn TG&VN: https://baoquocte.vn/my-co-dao-luat-dau-tien-ve-chatbot-ai-nham-bao-ve-tre-em-330949.html