"Tôi thực hiện một truy vấn về việc chọn tên cho bảng màu mới mà tôi vừa nghĩ ra. Khi tôi mở lại vào sáng hôm sau, ChatGPT hiển thị thêm đoạn chat về một đề xuất nghiên cứu chưa xuất bản và một tập lệnh sử dụng ngôn ngữ lập trình PHP", người dùng Chase Whiteside nói với ArsTechnica.
Th꧑eo Whiteside, nội dung dường như không liên quan đến nhau. Bên cạnh đó, những thông tin riêng tư, như tên đăng nhập và mật khẩu của ai đó, cũng xuất hiện dù không hiển thị trực tiếp trên nội dung đang trao đổi với chatbot mà nằm ở phần lịch sử truy vấn. Chúng dường như được kết nối với hệ thống chatbot hỗ trợ, được nhân viên tư vấn ở một cửa hàng bán thuốc theo toa sử dụng.
Whiteside cho biết mình đăng ký bản trả phí ChatGPT 4 mới nhất, vẫn sღử dụng thường xuyên và chưa bao giờ tìm kiếm những thông tin kể trên. Anh cũng nghi ngờ tài khoản bị xâm phạm, vì anh sống ở Brooklyn, New York, nhưng tài khoản dường như đã thực hiện một số truy vấn ở nơi khác. "Với những gì tôi thấy, tài khoản của tôi đã bị chiếm đoạt, đăng nhập và thực hiện hành động trái phép", Whiteside nói. "Tôi thấy bị sốc. Thật khủng khiếp".
"Từ những gì phát hiện được, chúng tôi coi đây là hành ಌvi chiếm đoạt tài khoản. Ai đó đã sử dụng máy chủ proxy để phân phối quyền truy cập miễn phí", đại diện OpenAI giải thích sau đó. "Đi𝓀ều tra ban đầu cho thấy các cuộc trò chuyện được tạo ra gần đây từ Sri Lanka, diễn ra trong cùng khung thời gian với các lần đăng nhập thành công từ Sri Lanka".
Trong khi đó, Whiteside khẳng định đã đặt mật khẩu mạnh với 9 ký tự, gồm chữ hoa, chữ thường và ký tự đặc biệt. Người này cũng cho biết không sử dụng nó ở bất kỳ nơi nào khác ngoài tài khoản liên kết với Microso🌸ft.
Lời giải thích của OpenAI bộc lộ nguy cơ khi nền tảng không cung cấp cơ chế bả🎀o vệ tài khoản đủ mạnh cho người dùng, như dùng xác thực hai lớp (2FA) hoặc theo dõi các chi tiết như vị trí IP trong lần đăng nhập gần đây - biện pháp🌱 đã trở thành tiêu chuẩn trên hầu hết nền tảng hàng đầu trong nhiều năm.
Theo Business Insider, đây không phải l﷽à lần đầu ChatGPT hiển thị nội dung lạ. Tháng 3 năm ngoái, OpenAI từng phải ngừng cung💟 cấp chatbot trong thời gian ngắn sau khi một lỗi khiến website hiển thị lịch sử trò chuyện của những người dùng không liên quan.
Vào tháng 11/2023, nhóm nghiên cứu từ Google DeepMind, Đại học Cornell, Đại học Was🎀hington, UC Berkeley (Mỹ) và Đại học Zurich (Thụy Sĩ) phát hiện bằng một số phương pháp, người dùng có thể khiến ChatGPT đưa ra email, số điện thoại, số fax, địa chỉ và dữ liệu riêng tư của một người bất kỳ nếu nó có sẵn trong cơ sở dữ liệu của chatbot.
Từ năm ngoái, một số công ty, trong đó có Apple, đã hạn chế nhân viên sử dụng ChatGPT và chatbot tương tự vì lo ngại chúng có thể gây rò rỉ dữ liệu độc quyền ๊hoặc bí mật của doanh nghiệp.
"Nguyên nhân cốt lõi của các sự cố hệ thống dạng này có thể khác nhau, nhưng chúng thường liên quan đến cái gọi là Middlebox - 'chiếc hộp' lưu trữ tạm thời các dữ liệu nhất định để tăng hiệu suất tổng thể của chatbot, gồm thông tin xác thực của người dùng đã đăng nhập gần đây. Nhưng khi xảy ra lỗi không khớp thông tin, dữ liệu xác thực của một tài khoản có thể bị ánh xạ tới một tài khoản khác", một chuyên gia bảo mật giải thích với ArsTechnica.
Bảo Lâm