Cẩn trọng với công cụ tạo hình ảnh cá nhân bằng ChatGPT

Công cụ tạo ảnh của ChatGPT đã tạo nên những trào lưu 'viral' trên khắp các trang mạng xã hội, nhưng việc này cũng tiềm ẩn nhiều rủi ro về quyền riêng tư nếu người dùng không thực hiện một vài bước đơn giản để tự bảo vệ danh tính cá nhân…

Kể từ đầu tháng 4, khắp các trang mạng xã hội tràn ngập những hình ảnh hoạt hình được vẽ lại từ người thật, kèm theo những phụ kiện cá nhân như ly cà phê, thảm tập yoga, túi xách hay tai nghe. Hiện tượng này xuất phát từ công cụ tạo ảnh mới trên hệ thống GPT-4o của OpenAI, một bản nâng cấp giúp ChatGPT chỉnh sửa hình ảnh, viết chữ lên ảnh và nhiều chức năng thông minh hơn.

Công cụ này còn có khả năng tạo hình ảnh theo phong cách hoạt hình đặc trưng của Studio Ghibli, khiến trào lưu càng được lan truyền mạnh mẽ trong số đông đảo giới trẻ.

Việc tạo ảnh rất đơn giản và thú vị, người dùng chỉ cần một tài khoản ChatGPT miễn phí và một bức ảnh. Tuy nhiên, để tạo mô hình nhân vật hoặc phong cách ảnh Ghibli, người dùng cần cung cấp thêm cho OpenAI khá nhiều dữ liệu, và những dữ liệu này có thể sử dụng cho mục đích huấn luyện mô hình AI của họ.

“Những dữ liệu mà bạn chia sẻ khi dùng trình chỉnh sửa ảnh AI thường bị ẩn đi. Mỗi lần bạn tải ảnh lên ChatGPT, bạn có thể đang cung cấp toàn bộ gói siêu dữ liệu kèm theo ảnh đó, bao gồm dữ liệu EXIF như thời gian chụp ảnh và vị trí GPS nơi bức ảnh được chụp”, chia sẻ của ông Tom Vazdar, chuyên gia an ninh mạng tại Open Institute of Technology.

Ngoài ra, OpenAI còn thu thập thông tin về thiết bị mà bạn sử dụng để truy cập nền tảng, bao gồm loại thiết bị, hệ điều hành, phiên bản trình duyệt và mã nhận dạng duy nhất. “Vì ChatGPT hoạt động theo hình thức hội thoại, nó cũng thu thập hành vi người dùng, bạn đã gõ gì, yêu cầu loại hình ảnh nào, tương tác ra sao và với tần suất thế nào”, ông Vazdar nói thêm.

Không chỉ có gương mặt của bạn, nếu bạn tải lên một ảnh có độ phân giải cao, bạn còn đang chia sẻ mọi thứ xuất hiện trong ảnh như khung cảnh phía sau, người khác trong ảnh, các vật dụng trong cùng không gian và những gì có thể đọc được như tài liệu hoặc thẻ tên, theo tiết lộ của ông Camden Woollven, trưởng bộ phận tiếp thị sản phẩm AI tại công ty quản lý rủi ro GRC International Group.

Các chuyên gia khẳng định, nguồn dữ liệu tự nguyện như vậy là “mỏ vàng” cho việc đào tạo mô hình AI tổng hợp.

Phía OpenAI phủ nhận việc tạo ra các trào lưu ảnh như vậy để thu thập dữ liệu người dùng, nhưng rõ ràng là công ty được hưởng lợi lớn từ điều đó.

“Cha đẻ” của ChatGPT cũng cho biết họ không chủ động thu thập thông tin cá nhân để huấn luyện mô hình AI và họ không sử dụng dữ liệu công khai từ internet để tạo hồ sơ cá nhân nhằm mục đích quảng cáo hay bán dữ liệu. Tuy nhiên, theo chính sách quyền riêng tư hiện tại của OpenAI, những hình ảnh được gửi qua ChatGPT có thể được giữ lại và dùng để cải thiện mô hình AI của họ.

“Họ không cần phải quét internet để tìm khuôn mặt bạn nếu chính bạn đang tự nguyện tải nó lên. Trào lưu này, dù là cố tình hay chỉ là cơ hội ngẫu nhiên, đang giúp công ty thu thập lượng lớn dữ liệu khuôn mặt mới, chất lượng cao, từ nhiều độ tuổi, sắc tộc và khu vực khác nhau”, chuyên gia an ninh mạng Tom Vazdar giải thích thêm.

Không chỉ riêng ChatGPT mà người dùng cũng nên cẩn trọng với nhiều công cụ chỉnh sửa ảnh AI khác.

Tại một số quốc gia trên thế giới, hình ảnh của bạn được luật pháp bảo vệ. Ở Anh và EU, các quy định bảo vệ dữ liệu như GDPR cho phép người dùng truy cập hoặc xóa dữ liệu cá nhân. Việc sử dụng dữ liệu sinh trắc học cũng cần có sự đồng thuận rõ ràng.

Dù vậy, ảnh chỉ được xem là dữ liệu sinh trắc học khi nó được xử lý bằng các công nghệ có khả năng nhận dạng một cá nhân cụ thể, bà Melissa Hall, luật sư cấp cao tại hãng luật MFMac, cho biết. “Việc xử lý ảnh để tạo ra phiên bản hoạt hình của người trong ảnh gốc khó có thể nằm trong diện định nghĩa này”, bà Hall nói.

Trong khi đó, ở Mỹ, luật bảo vệ quyền riêng tư lại không đồng nhất. “California và Illinois đang dẫn đầu với các quy định bảo vệ dữ liệu chặt chẽ hơn, nhưng không có luật thống nhất trên toàn nước Mỹ”, bà Annalisa Checchi, đối tác tại công ty luật sở hữu trí tuệ Ionic Legal, quan sát.

Chính sách bảo mật của OpenAI cũng không đề cập rõ ràng đến hình ảnh hay dữ liệu sinh trắc, tạo ra “vùng xám” đối với các ảnh khuôn mặt được xử lý bằng AI.

Chính vì vậy, người dùng có thể kiểm soát dữ liệu của mình thông qua các công cụ tự quản, cho phép truy cập, xuất hoặc xóa thông tin cá nhân. Đối với ChatGPT, người dùng bản Free, Plus và Pro có thể bật/tắt việc đóng góp dữ liệu cho đào tạo AI trong phần cài đặt. Với ChatGPT Team, Enterprise và Edu, dữ liệu mặc định sẽ không được dùng để huấn luyện. Người dùng cũng nên chủ động thực hiện một số biện pháp để bảo vệ dữ liệu. Trong ChatGPT, cách hiệu quả nhất là tắt lịch sử trò chuyện, khiến dữ liệu của bạn không bị dùng cho mục đích khác. Bạn cũng có thể tải lên hình ảnh đã được làm mờ hoặc thay đổi, ví dụ dùng filter hoặc tạo hình đại diện kỹ thuật số thay vì ảnh thật.

Ngoài ra, người dùng nên xóa siêu dữ liệu khỏi file ảnh trước khi tải lên, điều có thể thực hiện được bằng các phần mềm chỉnh ảnh.

“Cũng cần chú ý liệu có công cụ bên thứ ba nào tham gia không, và tuyệt đối không tải ảnh của người khác nếu chưa có sự cho phép của họ cũng như hạn chế liên kết nội dung với tài khoản mạng xã hội. Điều khoản của OpenAI quy định rõ rằng bạn hoàn toàn chịu trách nhiệm với nội dung mình tải lên, vì vậy, nhận thức là điều quan trọng nhất”, luật sư Melissa Hall của MFMac kết luận.

Duy Anh

Nguồn Thương Gia: https://thuonggiaonline.vn/can-trong-voi-cong-cu-tao-hinh-anh-ca-nhan-bang-chatgpt-post559937.html