Các nhà nghiên cứu tại Đại học Stanford và Đại học Rice của Mỹ phát hiện các mô hình AI tạo sinh cần "dữ liệu thật và mới 🍌hoàn toàn" để bảo đảm chất lượng, nếu không chúng sẽ cho ra những tác phẩm kỳ dị.
Nhóm cho biết hình ảnh do AI tạo ra sẽ phóng đại những bất thường trong hình ảnh, dẫn tới dữ liệu đào tạo sai lệch ꦉvà khiến mô hình xuất bản những bức ảnh ngày càng không giống con người. Tình trạng đó được gọi là "Rối loạn Mô hình Tự thực" (MAD). Tự thực là quá trình tế bào tự ăn các thà🙈nh phần của chính nó, trong trường hợp này AI tạo ảnh tự tiêu hóa những nội dung do nó tạo ra.
"Nếu không bổ sung dữ liệu thực t𓂃ế và mới mẻ vào từng thế hệ mô hình tự thực, AI sẽ ngày càn🃏g suy giảm về chất lượng và sự đa dạng", các nhà nghiên cứu cho hay.
Nếu điều này không được khắc phục, trí tuệ nhân tạo không thể sinh ra lượng dữ liệu vô tận để tự huấn luyện. Chúng sẽ phải dựa vào hì🍸nh ảnh thực tế với chất lượng cao do con người tạo ra để tiếp tục phát triển. Đây được coi là tin tốt với các nhiếp ảnh gia và người làm nội dung, khi AI tạo sinh không thể xóa bỏ vai trò của họ.
Hiện nay, lượng lớn tư liệu của các nhiếp ảnh gia đang được dùng để đào tạo AI. Vấn đề MAD có thể buộc các công ty AI mua bản quyền dữ ꦯliệu, từ đó duy trì sức sống cho giới nhiếp ảnh.
Từ khi các AI như Dall-E hay Midjourney trở nên nổi tiếng cách đây một năm, những công ty phát triển luôn khẳng định họ chỉ dùng dữ liệu công khai trên Internet để huấn luyện mô hình. Tuy nhiên, nhiều hình ảnh trong số đó được bảo vệ bản quyền. Ngay cꦫả khi nhà phát triển không phải hứng chịu hậu quả pháp lý do thế hệ AI đầu tiên, họ cũng sẽ phải tìm cách hợp tác với giới nhiếp ảnh gia để tiếp tục cải thiện những mô hình AI trong tương lai.
Điệp Anh (theo PetaPixel)