Trong cuộc phỏng vấn tại hội nghị AI for Good Global Summit ở Thụy Sĩ ngày 30/5, Altman đã nói về mức độ an toàn và l𝔉ợi ích mà AI có thể mang lại cho con người. Tuy nhiên, ông cũ𒆙ng thừa nhận OpenAI vẫn chưa thể trả lời câu hỏi là GPT hoạt động như thế nào.
"Chúng tôi chưa lý giải được cách AI đưa ra quyết định. Nếu không hiểu điều🐷 gì đang xảy ra, liệu có nên ngừng tung ra những mô hình mới và mạnh mẽ hơn?", Altman nói, sau đó khẳng định các hệ thống AI "có thể coi là an toàn và vững chắc" ngay cả khi nhà phát triển chưa hoàn toàn hiểu về c꧒húng.
Ông ví các mô hình GPT với bộ não người. "Giới khoa học vẫn chưa hiểu rõ những gì xảy ra𓂃 trong bộ não người ở cấp độ tế bào thần kinh🤪, nhưng vẫn biết rằng con người có thể tuân theo quy tắc và giải thích cách tư duy của họ", ông nói.
Những công nghệ AI tạo sinh như GPT tạo ra nội dung mới dựa trên các bộ dữ liệu có sẵn và khả năng học hỏi theo thời gian. GPT không sở hữu trí ♏thông minh ♉và cảm xúc như con người, nhưng vẫn đi kèm nhiều bí ẩn về cách khiến thuật toán ra quyết định cụ thể.
OpenAI hồi đầu tháng 5 tung ra mô hình GPT-4o và thông báo đang bắt đầu huấn l🅺uyện mô hình mới. "Chúng có khả năng giúp tiến thêm một bước trên con đường hướng tới siêu trí tuệ nhân tạo tổng hợp (AGI)", thông cáo của công ty có đoạn.
Tháng trước, OpenAI giải tán nhóm bảo đảm an toàn AI, được dẫn dắt bởi cựu nhà khoa học trường Ilya Sutskever, và thành lập nhóm mới dưới sự điều hành của chính Sam Altman. Ông khẳng định sự xuất hiện của nhóm an toàn và an ninh mới là nhằm giúp OpenAI chuẩn bị sẵn sàng cho những mô hình thế hệ tiếp theo. "Càng hiểu nhiều về những gì đang diễn ra với các mô hình càng tốt", ông nói, nhưng thừa nhận đây là điều OpenAI chưa đạt được.
Điệp Anh (Theo Observer)