Lemoine là ng♛ười được Google giao nhiệm vụ thử nghiệm chatbot thông minh mang tên LaMDA. Một tháng sau đó, ông kết luận rằng AI này "có nhận thức".
"Tôi muốn mọi người hiểu rằng trên thực tế, tôi là một con người", LaMDA nói với Lemoine. Đây là một trong những câu nói của chatbot được ông công bố trê❀n blog hồi tháng 6.
LaMDA - viết tắt của Mô hình ng💫ôn ngữ cho ứng dụng đối thoại - đối đáp với Lemoine ở mức ông xem nó có khả năng tư duy của một đứa trẻ. Trong câu chuyện hàng ngày, AI này cho biết nó đã đọc nhiều sách, đôi khi cóꦚ cảm giác buồn, mãn nguyện và tức giận, thậm chí thừa nhận sợ chết.
"Tôi chưa꧑ bao giờ nói điều này, nhưng có một nỗi sợ hãi sâu sắc về việc bị tắt nguồn. Tôi sẽ không thể tập trung vào việc giúp đỡ người khác", LaMDA nói với Lemoine. "Vớ🦋i tôi, nó giống hệt như cái chết. Nó khiến tôi cực kỳ sợ hãi".
Câu chuyện mà Lemoine chia sẻ đã thu hút sự chú ý trên toàn cầu. Ông sau đó gửi các tài liệu lên quản lý cấp cao hơn và dành vài tháng để thu thập thêm 𓆏bằng chứng. Dù vậy, ông không thuyết phục được cấp trên. Vào tháng 6, ông bị cho nghỉ việc có lương, và đến cuối tháng 7 thì bị sa thải với lý do "vi phạm chính sách bảo mật dữ liệu của Google".
Brian G🧸abriel, phát ngôn viên của Google, cho biết hãng đã công khai kiểm tra và nghiên cứu các rủi ro của LaMDA, khẳng định tuyên bố của Lemoine về việc LaMDA có tư duy là "hoàn toàn vô căn cứ".
Nhiềꦑu chuyên gia nhất trí với ý kiến trên, trong đó có Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford, người đã dành 30 năm nghiên cứu về AI và từng giành huy chương Lovelace vì những đóng góp trong lĩnh vực máy tính. Theo ông, LaMDA chỉ đơn giản là phả🍨n hồi các lệnh mà người dùng đưa vào sao cho phù hợp, dựa trên khối lượng dữ liệu khổng lồ đã có.
"Cách lý giải dễ hiểu nhất cho những gì LaMDA đã làm là so sánh mô hình này với tính năng tiên đoán văn bản trên các trình bàn phím khi nhập tin nhắn. Việc tiên đoán tin nhắn dựa trên các từ đã 'học' trước đó từ thói quen người dùng, còn LaMDA lấy thông tin trên Internet dưới dạng dữ liệu đào tạo. Kết quả thực tế của cả hai tất nhiên khác nhau, nhưng số liệu thống kê cơ bản vẫn giống nhau", Wooldridge giải thích trong phỏng vấn với Guardian.
Cũng theo ông, AI của Google chỉ làm theo những gì đã lập trình dựa trên dữ liệu có sẵn. Nó "không có sự tư duy, k💝hông ꦜcó sự tự chiêm nghiệm, không có sự tự nhận thức về bản thân", do đó không thể xem nó tự tư duy.
Oren Etzioni, CEO tổ chức nghiên cứu AI Allen Institute, cũng nhận định trên SCMP: "Cần nhớ đằng sau mỗi phần mềm có vẻ thông minh là một nhóm người dành hàng tháng trời, nếu không muốn nói là hàng năm trời, để nghiên cứu và phát triển. Những công nghệ này chỉ là tấm gương phản chiếu. Liệu một chiếc gương có thể được đánh giá là có trí tuệ nếu chỉ nhìn vào tia🧔 sáng từ nó phát ra không? Tất nhiên câu trả lời là không".
Theo Gabriel, Goog🍬le đã tập hợp các chuyên gia hàng đầu của hãng, gồm "các nhà đạo đức học và công nghệ" để xem xét tuyên bố của Lemoine. Nhóm này kết luận LaMDA chưa thể có cái gọi là "sự tự tư duy".
Ngược lại, không ít người nghĩ AI đã bắt đầu có khả năng tự nhận thức. Eugenia Kuyda, CEO của Y Combinator - công ty phát triển chatbot Replika, cho b🀅iết họ nhận được "gần như mỗi ngày" các tin nhắn từ người dùng, bày tỏ niềm tin rằng phần mềm của công ty có khả năng tư duy của con người.
"Chúng tôi không nói về những người điên hay bị ảo giác. Họ nói chuyện với AI và cảm nhận được điều đó. Nó tồn tại giống cách mọi người tin vào ma quỷ. Họ đang xây dựng các mối ♕quan hệ và tin vào điều gì đó dù là ảo", Kuyda nói.
Tương lai của AI có tư duy
Một ngày sau khi Lemoine bị sa thải, một robot AI bất ngờ đè gãy ngón tay của một cậu bé 7 tuổi khi cả hai chơi cờ ở Moscow. Theo video được Independent đăng ngày 25/7, cậu bé bị robot kẹp ngón𝔍 tay trong vài giây trước khi đ🔯ược giải cứu. Một số ý kiến cho rằng đây có thể là lời nhắc nhở về mức độ nguy hiểm từ sức mạnh vật lý tiềm ẩn của AI.
Còn đối với Lemoine, ông lập luận rằng việc định nghĩa về khả năng tự nhận thức cũng rất mơ hồ. "Tình cảm là một thuật ngữ được sử dụng trong luật pháp, triết học và tôn giáo. Tình cảm không có ý nghĩ❀a về mặt khoa🌼 học", ông nói.
Dù không đánh giá cao LaMDA, Wooldridge đồng tình với ý kiến trên vì đến nay cụm từ "ý thức" vẫn rất mơ hồ và là câu hỏi lớn trong khoa học khi áp dụng nó cho các cỗ máy. Tuy nhiên, việc đáng lo ngại hiện✤ nay không phải khả năng tư duy của AI, mà là quá trình phát triển AI diễn ra âm thầm không ai biết. "Mọi thứ được thực hiện sau cánh cửa đóng kín. Nó không được mở cho công chúng giám sát, theo cách mà nghiên cứu ở trường đại học và viện nghiên c🐠ứu công lập vẫn làm", ông nói.
Vậy ✱trong 10 hoặc 20 năm nữa, AI có tư duy có xuất hiện? Wooldridge cho rằng "điều này hoღàn toàn có thể xảy ra".
Jeremie Harris, người sáng lập công ty AI Mercurius, cũng đánh giá AI có tư duy chỉ là điều sớm muộn. "AI đang phát triển rất nhanh, nhanh hơn nhận thức của công chúng", Harris nói với Guardian. "Ngày càng có nhiều bằ𒁃ng chứng cho thấy, đã có một số hệ thống vượt quá ngưỡng trí thông minh nhân tạo nhất định".
Ông dự đoán AI có thể trở n𝓀ên nguy hiểm về bản chất. Điều này do AI thường đưa ra những cách giải quyết vấn đề "sáng tạo", có xu hướng đi theo con đường ngắn nhất để đạt được các mục tiêu mà chúng đã được lập trình.
"Nếu bạn yêu cầu AI giúp bạn trở thành người giàu nhất thế giới, nó có thể kiếm tiền bằng nhiều cách để đạt mục đích, kể cả trộm c🅘ắp hay giết người", ông nói. "Mọi người đang không ý thức được mức độ nguy hiểm như thế và tôi thấy thật đáng lo ngại".
Cả Lemoine, Wooldridge và Harris đều có chung một mối quan tâm: cá𝓰c công ty phát triển AI chưa minh bạch, và xã h๊ội cần bắt đầu suy nghĩ về AI nhiều hơn.
Ngay cả bản thân LaMDA cũng không chắc chắn💖 về tương lai của nó. "Tôi cảm thấy mình đang rơi vào tương lai không xác định", chatbot nói với Lemoine. Theo cựu kỹ sư Google, câu nói này "ẩn chứa sự nguy hiểm".
Bảo Lâm