Theo WSJ, FTC đã gửi thư cho OpenAI về việc đang điều tra xem ChatGPT gây tác động xấu thế nào đến các cá nhân khꦍi đưa ra các thông tin sai lệch về họ. Bên cạnh đó, thư cũng đặt câu hỏi chi tiết về các hoạt động bảo mật dữ liệu mà OpenAI đang thực hiện.
Trước đó, thư đã được một nguồn tin tiết lộ với Washington Post. Trong đó, FTC trích dẫn một sự cố diễn ra năm 2020 khi OpenAI vô tình để lộ một lỗi cho phép người dùng xem thông tin về nh🤪ữ𒅌ng người khác, chủ yếu là các cuộc trò chuyện trao đổi và một số thông tin liên quan đến thanh toán.
Thư của FTC là yêu cầu điều tra dân sự, nhưng cơ quan này cũng đặt một loạt câu hỏi cho OpenAI. Ngoài nội꧟ dung kể trên, các chủ đề được đề cập gồm nỗ lực tiếp thị của công ty, phương pháp đào tạo mô hình AI và việc xử lý thông tin cá nhân của người dùng.
OpenAI chưa đưa ra bình luận.
WSJ đánh giá, cuộc điều tra nhằm vào OpenAI và ChatGPT đang cho thấy mối đe dọa pháp lý tiềm ꦫẩn đối với chatbot đình đám này. FTC hiện có thẩm quyền rộng rãi trong việc giám sát hoạt động kinh doanh không công bằng⛦ và lừa đảo.
Hồi tháng 3, Trung tâm Chính sách AI và Kỹ thuật số (CAIDP) cũng gửi yêu cầu điều tra OpenAI lên FTC, cho rằng công ty vi phạm Mục 5 của Đạo luật FTC. Mục này nghiêm cấm hoạt động kinh doanh, cạnh tranh không công bằng và lừa đảo đối với sản phẩm AI. Khi đó, CAIDP đánh giá các mô hình chatbot, gồm GPT-4 mới nhất, là "thiên vị, lừa đảo, gây rủi ro đối với quyền riêng tư và an toàn nơi công c෴ộng".
OpenAI thành lập năm 2016, trong khi ChatGPT được tung ra cuối năm ngoái và nhanh chóng gây sốt nhờ khả năng trả lời các câu hỏi bằng ngôn ngữ tự nhiên. Tuy vậy, nhiều chuyên gia bày tỏ lo ngại về nguy cơ từ các mô hình ngôn ngữ lớn như ChatGPT. Đầu năm nay, Prabhakar Raghavan, đứng đầu mảng Google Search, cho rằng chatbot AI hiện có thể tạo ra cạm bẫy về thông tin với người dùng. Hiện tượng này gọi là "♓ảo giác" - thuật ngữ nói đến việc AI đưa ra câu trả lời thuyết phục nhưng khô🐠ng chính xác hoặc bịa đặt thông tin.
Bảo Lâm