AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người - Ảnh: AI
Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn...
Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.
AI có thật sự "vô tư" như kỳ vọng?
Tiến sĩ Yang Chen, phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada) và là tác giả chính của nghiên cứu, nhận định: "AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người".
Nhóm nghiên cứu đã đưa vào ChatGPT các tình huống giả định quen thuộc trong tâm lý học, lồng ghép thêm ngữ cảnh thực tiễn như quản lý tồn kho hay đàm phán với nhà cung cấp.
Điều đáng chú ý là các mô hình AI vẫn thể hiện thiên kiến nhận thức ngay cả khi bối cảnh câu hỏi được chuyển đổi từ trừu tượng sang thực tế kinh doanh.
GPT-4 thông minh hơn, nhưng không hề hoàn hảo
GPT-4 là phiên bản nâng cấp của GPT-3.5 tỏ ra vượt trội khi giải quyết các bài toán logic hoặc xác suất. Tuy nhiên trong các mô phỏng mang tính chủ quan, ví dụ như lựa chọn phương án rủi ro để gia tăng lợi nhuận, GPT-4 lại thể hiện thiên hướng hành xử cảm tính hơn cả con người.
Đặc biệt, nghiên cứu ghi nhận GPT-4 luôn đưa ra phản hồi thiên lệch trong các tình huống kiểm tra thiên kiến xác nhận, và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy), tức xu hướng tin rằng sự kiện ngẫu nhiên sẽ lặp lại theo chuỗi, rõ rệt hơn GPT-3.5.
Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).
Nguyên nhân khiến ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta - Ảnh: AI
Nguồn gốc của thiên kiến AI: Từ chính dữ liệu của con người
Theo nhóm nghiên cứu, nguyên nhân ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta. Việc AI được tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, khi mô hình được "thưởng" cho những phản hồi có vẻ hợp lý, thay vì hoàn toàn chính xác.
"Muốn có kết quả chuẩn xác và không thiên lệch, hãy dùng AI cho các nhiệm vụ mà bạn vốn dĩ tin tưởng một chiếc máy tính có thể làm tốt", tiến sĩ Chen khuyến nghị. "Còn nếu phải xử lý các vấn đề mang tính chiến lược hoặc cảm tính, con người vẫn cần giám sát và can thiệp, thậm chí chỉ đơn giản bằng cách viết lại câu hỏi".
Đồng tác giả Meena Andiappan, phó giáo sư ngành nhân sự và quản trị tại Đại học McMaster (Canada), cho rằng: "AI nên được xem như một nhân viên có quyền ra quyết định quan trọng, nghĩa là cần được giám sát và tuân theo nguyên tắc đạo đức. Nếu không, chúng ta đang vô tình tự động hóa lối tư duy sai lệch thay vì cải thiện nó".
Nguồn: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Bình luận (0)