Khi nói đến mối đe dọa từ AI, nhiều người nghĩ đến những c༒ỗ máy hủy diệt thế giới như Skynet hay Matrix. Tiếp đó là nạn thất nghiệp khi AI chiếm hết công việc của con người. V♛iễn cảnh đó có trở thành hiện thực hay không vẫn còn gây nhiều tranh cãi. Nhưng giới khoa học cho rằng trí tuệ nhân tạo, bên cạnh những lợi ích dễ thấy, cũng tạo ra những mối nguy nhất định.
AI đang được phát triển và ứng dụng trong nhiều lĩnh vực của cuộc sống, từ việc tính toán khả năng bùng phát ổ dịch Covid-19 mới, phân tích nguồn cung cho hãng dầu khí, đánh giá hành động của một chính phủ, cho tới việc dự đoán kết quả các trận đấu thể thao. Tuy nhiên, nhà toán học Cathy O'Neil khuyến cáo con người có thể dễ bị tổn thương nếu tin một cách mù quáng vào nhữ😼ng thuật toán AI khi cần đưa ra quyết định nhạ♛y cảm.
Nguyên nhân nằm ở tính không rõ ràng của AI. Về cơ bản, câu hỏi đặt ra là làm sao con người biết trí tuệ nhân tạ𒐪o đang đưa ra quyết định chính xác. Vấn đề này đặc biệt quan trọng bởi AI đang được ứng dụng trong nhiều mặt của cuộc sống, như xử lý đề xuất vay tiền, tính điểm tín dụng, xếp hạng giáo viên, dự đoán khả năng tái phạm của tội phạm và nhiều lĩnh vực nhạy cảm khác.
Hồi giữa tháng 3, nhiều tài khoản người dùng Facbook tại Việt Nam và trên thế giới bất ngờ bị xóa các bài viết dù không hề vi phạm tiêu chuẩn cộng đồng của mạng xã hội này. Tương tự, một số thành viên YouTube cũng bị xóa video không rõ nguyên nhân. YouTube sau đó thừa nhận do nhân viên làm việc tại nhà trong đại dịch, việc kiểm duyệt nội dung phụ thuộc vào trí tuệ nhân tạo, dẫ𝔉n đến những tình huống bị đánh giá sai.
"Chúng ta có thể thấy hệ thống máy học làm việc kém hiệu quả ra sao khi thiếu sự giám sát từ con𒀰 người", Aﷺlex Stamos, cựu giám đốc an ninh của Facebook, nhận định.
Trong ví dụ trên, sai lầm của AIℱ chỉ khiến người dùng thấy phiền toái. Tuy n🐟hiên, những thuật toán này có thể gây ra tác hại lớn hơn nhiều. Bà O'Neil đưa ra một số kịch bản tiềm tàng như hệ thống tín dụng trừ điểm sai đối tượng, đưa ra hình phạt nặng hơn cho nghi phạm dựa trên chủng tộc và sắc tộc của họ, hệ thống chấm điểm giáo viên sa thải người làm tốt trong khi khen thưởng người gian lận, hay AI thương mại đưa ra quyết định mang lại doanh thu tiền tỷ USD và đánh đổi bằng thiệt hại của những người thu nhập thấp.
Phần mềm truyền thống được lập trình theo những quy tắc chặt chẽ của các kỹ sư, có thể được kiểm tra và can thiệp, cho phép truy dấu tới dòng code gây ra lỗi. Ngược lại, thuật toán học máy phát triển tính năng bằng cách phân tích những dữ liệu huấn luyện và xây dựng mô hìꦇnh suy luận thống kê. Điều này khiến nhà phát triển không thể quyết định hành vi cụ thể của thuật toán AI.
Chẳng hạn, năm 2016, "thiếu nữ ảo" Tay của Microsoft ra mắt trên Twitter với lời giới thiệu: "Bạn càng trò c🍎huyện, Tay càng trở nên thông minh và gần gũi với bạn". Tuy nhiên, chỉ sau vỏn vẹ♌n một ngày, hãng phần mềm phải xóa chatbot này vì cư dân mạng dạy Tay chửi bậy, ủng hộ phát xít, bài người Do Thái... và AI này cũng thể hiện mình là "học sinh giỏi" khi bắt chước theo rất nhanh.
Thuật toán học máy dựa vào dữ liệu chất lượng cao để huấn luyện và cải thiện độ chính xác. Vấn đề là những người dễ bị tổn thương bởi AI lại thường nằm trong nhóm khó thu thập thông tin chất lượng nhất, khiến họ càng có nguy cơ đối mặt với những quyết định sai lầm của máy móc. Và khi ꧋AI đưa ra quyết định sai lầm, nó tạo ra thông tin sa🤡i lệch, ảnh hưởng đến quá trình hoàn thiện trong tương lai. Điều này tạo ra một vòng lặp vô hạn.
Ví dụ, người nghèo thường có điểm tín dụng ꦉthấp và phải sống trong những khu vực có mật độ tội phạm cao, bao quanh là những người có hoàn cảnh tương tự. Các hệ thống AI sẽ thu thập dữ liệu và gửi tới họ hàng loạt quảng cáo về khoản vay nặng lãi hoặc dưới chuẩn. Nếu bị truy tố, những người này sẽ phải nhận mức án cao hơn.
Dữ liệu trên khi được nhập vào hệ thống AI khác, hệ thống đó sẽ xếp họ vào nhóm có nguy cơ cao, khiến họ không thể ꦐxin được việc và chịu mức lãi suất cao hơn khi vay tiền, thuê🐓 xe hoặc mua bảo hiểm. Điều đó tiếp tục hạ mức tín dụng của họ, tạo nên vòng lặp bất tận.
"Nghèo khổ trong thế giới phụ thuộc nhiều🧜 𝐆vào AI có thể ngày càng nguy hiểm và tốn kém", O'Neil cho hay.
Một ví dụ gần gũi hơn là thuật toán xếp hạng nội dung của hàng triệu người dùng trên Facebook mỗi ngày. Nếu có sai sót, chúng ൲dễ bị lợi dụng để phát tán tin giả, tin giật gân. Ngay cả khi không có ý định xấu, AI vẫn có thể gây hại như thiên vị những nội dung nhất định, chọn lọc quan điểm... khiến người dùng ít được tiếp cận những góc nhìn khác hơn, dần dần ảnh hưởng đến quan điểm, góc nhìn của họ về một số vấn đề nhất định.
Nhà toán học O'Neil cho rằng những vấn đề này chỉ có thể được giải quyết nếu các nhà phát triển hiểu rõ giới hạn của thuật toán AI hiệ꧋n nay. "Sở hữu hệ thống tự động, giúp con người đưa ra quyết định nghe rất hấp dẫn, nhưng chúng ta cần hiểu khi nào con người phải hứng chịu hậu quả từ những quyết định đó. Đôi khi, điều đó có ngꩲhĩa là phải đặt công bằng lên trước lợi nhuận", O'Neil nhận xét.
Điệp Anh (theo The Next Web)