Từ câu chuyện giọng nói của Scarlett nghĩ về một loại vi phạm có chọn lọc

Khoảng một tuần sau khi OpenAI phát hành GPT- 4.0, chatbot mới này đã vấp phải lời chỉ trích và sự đe dọa về pháp lý từ phía nữ diễn viên Scarlett Johansson bởi giọng nói của trợ lý giọng nói GPT- 4.0 'Sky' giống với giọng của nữ diễn viên nổi tiếng tới mức khó phân biệt.

Scarlett nói CEO Sam Altman của OpenAI từng mời cô tham gia lồng tiếng cho trợ lý giọng nói ChatGPT mới có tên là “Sky” vào tháng 9-2023 nhưng cô đã từ chối. Chín tháng sau, trợ lý ảo Sky ra đời phục vụ miễn phí hàng trăm triệu người dùng của chat GPT, nhưng giọng nói của Sky, theo Scarlett là tương đồng với giọng của cô tới mức không thể phân biệt. Scarlett nói rằng OpenAI đã “miễn cưỡng đồng ý gỡ bỏ” giọng nói đó sau khi cô “buộc phải thuê luật sư”. Với danh tiếng của mình, nếu OpenAI không gỡ bỏ, đây hẳn là vụ kiện đình đám bởi do tên tuổi quá nổi bật của Scarlett trong giới truyền thông.

Liệu đây chỉ là lỗi đơn thuần từ phía đội ngũ OpenAI? Hay đây là một dạng thử nghiệm vi phạm có chọn lọc nhằm tìm ra cách vi phạm “an toàn” để chiếm lĩnh thị trường hoặc một nguồn tài nguyên nào đó với chi phí thấp nhất có thể?

Món hời thu về từ vi phạm có chọn lọc

Phần lớn doanh nghiệp nhỏ và vừa không có mục tiêu độc quyền thị trường và hất cẳng mọi doanh nghiệp mới cùng lĩnh vực sẽ không có mối quan tâm với vi phạm có chọn lọc. Nhưng đây là một chiến lược và cách thâu tóm của các tập đoàn lớn. Vi phạm có chọn lọc chính là thử nghiệm.

OpenAI với nguồn gọi vốn khổng lồ, một ban giám đốc cố vấn tinh nhuệ và đội ngũ luật sư xuất sắc đằng sau không thể nào chưa từng đề cập tới các mối nguy tiềm tàng về mặt pháp lý khi thu thập giọng nói của các cá nhân trong xã hội dùng cho mục đích thương mại của chính mình. Cũng như vậy, đội ngũ OpenAI chắc chắn đã nghe về nguy cơ bị kiện trong việc lấy ảnh có bản quyền dùng làm nguồn cho công cụ Dall-E hay dùng các tác phẩm văn học cho ChatGPT. Nhưng họ vẫn làm.

Chuyện OpenAI thu thập giọng nói của người dùng hoặc tái tạo giọng nói các cá nhân khác nhau phục vụ cho tính năng “Sky” trong tương lai hẳn cũng đã được đội ngũ luật sư của chính OpenAI dự đoán trước sẽ vấp vào nguy cơ kiện tụng và chỉ trích trên diện rộng như câu chuyện của Scarlett ở trên. Nhưng OpenAI vẫn làm. Tại sao?

Bởi đối với OpenAI, sự vi phạm cố ý này là thử nghiệm thị trường có chọn lọc.

Thông qua một hành vi vi phạm như vậy, OpenAI thu về tay: Thái độ của thị trường với việc OpenAI dùng giọng tái tạo giống y hệt người nổi tiếng. Thái độ của người nổi tiếng với việc này. Ví dụ: kiện lập tức, không kiện lập tức nhưng đe dọa, nếu kiện thì chi phí kiện, cách thức kiện, có đàm phán được không… tất cả đều trở thành dữ liệu (data) vận hành của OpenAI.

Thoạt nghe tưởng lạ vì không ai lại muốn thực hiện hành vi vi phạm để bị dính vào kiện tụng tại tòa rắc rối và mất thời gian. Một cách nào đó có thể xem đây là bước đi thông minh và buộc phải có nguồn vốn lớn hỗ trợ đằng sau.

Ở thời điểm OpenAI có ý định độc quyền thị trường AI, họ đã biết có nhiều rào cản pháp lý phải đối mặt và phải vượt qua. Với suy nghĩ tương tự như cách vận hành của tòa án Mỹ, họ tự tạo ra thách thức để có “tiền lệ” giải quyết các vụ kiện của nhiều bên khác về sau, khi mà phần mềm của họ hay các tính năng mới trong tương lai có dính nhiều hơn tới data của bên khác, bản quyền, hình ảnh nhiều cá nhân, tài sản vô hình của nhiều cá nhân như giọng nói, thể hình, tính cách…

Thái độ của người dùng (không phải người nổi tiếng) với tính năng trợ lý ảo giọng nói này theo quốc gia/vùng miền: ví dụ: có boycot tính năng mới không, hay chỉ đọc tin, và số lượng người chờ dùng thử tính năng hoặc đăng kí dùng tính năng hoặc nhấp vào dùng tính năng vẫn gia tăng đều. Data này dùng để đánh giá thị trường và người dùng.

Với số lượng người bị thu hút bởi vụ bê bối và tính năng mới của chatGPT được đề cập trong các vụ bê bối thì số lượng người dùng toàn cầu dùng thử tính năng mới sẽ tăng lên, đồng thời báo chí liên tục nói về vi phạm này – khiến cho độ phủ sóng tính năng mới càng ngày càng lớn, cái được coi là vi phạm cũng là một cách marketing tính năng mới, và chiến lược marketing dựa trên vi phạm có chọn lọc đi rất nhanh và hiệu quả.

Vô số người dùng trải nghiệm tính năng mới miễn phí và phản hồi lại để điều chỉnh tính năng tốt hơn nữa.

Vậy rốt cuộc vi phạm có chọn lọc là gì?

Câu chuyện giọng nói của Scarlett là ví dụ tuyệt vời nhất của vi phạm có chọn lọc – một dạng thử nghiệm có chiến lược, có kế hoạch dài hơi, có sự lựa chọn đối tượng để thực hiện hành vi vi phạm.

Nếu OpenAI tái tạo giọng nói của một người không nổi tiếng, không ai biết người này là ai và người đó kiện thẳng ra tòa, vụ việc cũng sẽ không gây sốt và độ lan tỏa không quá lớn. Ngược lại, khi hai cái tên OpenAI và Scarlett Johansson đứng chung với nhau, mọi tờ báo sẽ muốn để vụ việc này ở trang đầu.

Việc OpenAI miễn cưỡng gỡ là chiến lược trì hoãn về mặt thời gian để nhiều người dùng vào kiểm tra thử xem “Sky” có giọng giống với Scarlett tới mức nào, sự tò mò này nhân lên hàng trăm lần thông qua hàng trăm triệu người dùng thử.

Chúng ta vẫn biết việc các công ty phần mềm khi ra mắt tính năng mới sẽ để người dùng thử phần mềm, bộ phận phần mềm trong công ty thử nghiệm, dùng các bên chuyên dùng thử hay kêu gọi người dùng trung thành thử tính năng mới, việc này không còn xa lạ, nhưng sự thử nghiệm này mang lại hiệu quả không toàn diện như sự “vi phạm có chọn lọc” của OpenAI. Bởi, tự dưng chỉ sau vài đêm, “Sky” có thật nhiều data và feedback từ người dùng.

Khi xem xét kết quả mang lại của hành vi vi phạm có chọn lọc này cộng với làm vài phép tính đơn giản, bỗng nhiên tôi nhận thấy khả năng nếu Scarlett kiện OpenAI ra tòa thì tiền đền bù cũng nhỏ hơn tiền chạy thu thập data và tiền quảng cáo toàn cầu do hiệu ứng vụ bê bối này mang lại nhiều. Thật là một “cuộc vi phạm” có lời!

Nhiều tập đoàn siêu lớn toàn cầu như META hay Google cũng có chiến lược sử dụng vi phạm có chọn lọc này để thử thị trường, thử đối thủ, để mua tài nguyên giá rẻ, để dùng tài nguyên một cách không hợp pháp hoặc không hợp đạo đức nhưng không mất phí hoặc phí thấp, để buộc công ty sáng tạo nào đó ra tòa nhằm thâu tóm thông qua cơ chế “thôi không kiện nữa, giảng hòa đi và ta sẽ có lý do hợp lý để đề xuất mua công ty (thâu tóm)”.

Đây là chiến lược kinh doanh nhằm đưa công ty tới vị trí độc quyền trong thị trường, mặc dù đạo luật Chống Độc quyền ngăn chặn các hành vi kiểu này vẫn ngồi tọa ở các quốc gia, đặc biệt là ở Mỹ, EU, Úc, Trung Quốc…

Xem xét một cách thực tế có thể thấy đây không phải trò chơi kẻ xấu người tốt, chúng ta nên hạn chế đánh giá sự việc theo cách nhìn cá nhân. Đây chỉ là cách các tập đoàn siêu lớn vận hành để lấy thêm miếng bánh thị trường thậm chí tiến tới độc quyền khi không còn có thể dựa vào việc bán hàng nhỏ lẻ hoặc các kênh kinh doanh phân mảnh hoặc vụn vặt.

Lời kết

Tôi thường khuyên các công ty nhỏ và vừa không bao giờ nên áp dụng chiến lược vi phạm có chọn lọc này bởi dễ phá sản với một loạt các đơn kiện ở tòa. Và các công ty lớn hoặc siêu lớn, đặc biệt ở thị trường Việt Nam, cũng nên cân nhắc không áp dụng nhưng nên biết rõ để nhằm đối phó với các công ty siêu lớn ở nước ngoài – những tay chơi “vi phạm có chọn lọc” với nhiều thập niên kinh nghiệm dắt túi.

Việc biết rõ mục đích của “vi phạm có chọn lọc” sẽ giúp công ty đưa ra được các kế hoạch phản ứng lại khi có bên vi phạm các quyền và tài sản của mình một cách khôn ngoan và không bước thẳng vào bẫy rập mà chiến lược “vi phạm có chọn lọc” giăng sẵn.

(*) CEO IPGEEKLAB.COM

Nguyễn Ngọc Trâm(*)

Nguồn Saigon Times: https://thesaigontimes.vn/tu-cau-chuyen-giong-noi-cua-scarlett-nghi-ve-mot-loai-vi-pham-co-chon-loc/