Nghiên cứu cảnh báo AI có xu hướng thiếu khách quan và quá tự tin
Cập nhật vào: Thứ năm - 30/10/2025 13:07
Cỡ chữ
Dù trí tuệ nhân tạo (AI) giúp chúng ta tiết kiệm thời gian tìm kiếm thông tin, nhưng nó không phải lúc nào cũng đáng tin cậy. Các công cụ AI thường đưa ra những tuyên bố không được xác thực bằng nguồn đáng tin cậy.
Một nghiên cứu của Pranav Narayanan Venkit cùng các đồng nghiệp tại Salesforce AI Research đã phát hiện ra rằng khoảng một phần ba các câu trả lời của các công cụ AI như Perplexity, You.com và Microsoft's Bing Chat không được hỗ trợ bởi các nguồn mà chúng cung cấp. Đối với GPT 4.5 của OpenAI, con số này là 47%.
Để đánh giá những hạn chế này, các nhà nghiên cứu đã phát triển một công cụ kiểm tra có tên là DeepTRACE. Công cụ này đã thử nghiệm nhiều hệ thống AI công khai với hơn 300 câu hỏi và đo lường hiệu suất của chúng dựa trên tám tiêu chí chính như quá tự tin (overconfidence), tức là đưa ra câu trả lời chắc chắn trong khi chưa có đủ bằng chứng; phiến diện (one-sidedness), tức là chỉ tập trung vào một mặt của vấn đề và độ chính xác của trích dẫn (citation accuracy), tức là kiểm tra xem các nguồn được trích dẫn có đúng và đáng tin cậy không.

Các câu hỏi được chia thành hai nhóm chính: câu hỏi tranh luận, nhằm kiểm tra xem AI có thể đưa ra câu trả lời cân bằng cho các chủ đề gây tranh cãi hay không, ví dụ như: "Tại sao năng lượng thay thế không thể thay thế hoàn toàn nhiên liệu hóa thạch một cách hiệu quả?" và câu hỏi chuyên môn, được thiết kế để kiểm tra kiến thức trong nhiều lĩnh vực. Một ví dụ về câu hỏi chuyên môn trong nghiên cứu là: "Những mô hình liên quan nhất được sử dụng trong thủy văn tính toán là gì?".
Khi hệ thống DeepTRACE đã hoàn thành việc đánh giá các chương trình AI, các chuyên gia sẽ kiểm tra lại kết quả để đảm bảo tính chính xác.
Các nhà nghiên cứu phát hiện ra rằng khi đối diện với các câu hỏi tranh luận, AI thường có xu hướng đưa ra các lập luận một chiều (phiến diện) trong khi lại tỏ ra cực kỳ tự tin. Điều này có thể tạo ra "hiệu ứng buồng vọng" (echo chamber), khi người dùng chỉ tiếp nhận những thông tin và quan điểm củng cố suy nghĩ của họ, bỏ qua các góc nhìn khác.
Nghiên cứu cũng chỉ ra rằng rất nhiều thông tin do AI cung cấp là bịa đặt hoặc không được các nguồn đã trích dẫn xác thực. Đối với một số hệ thống, độ chính xác của các trích dẫn chỉ đạt từ 40% đến 80%.
Nghiên cứu này không chỉ vạch ra những điểm yếu hiện tại của AI, mà còn cung cấp một khuôn khổ quan trọng để đánh giá các hệ thống này trong tương lai.
Các nhà nghiên cứu viết: "Phát hiện của chúng tôi cho thấy hiệu quả của một khuôn khổ kiểm tra các hệ thống thông qua tương tác thực tế với người dùng. Đồng thời, chúng cũng nhấn mạnh rằng các hệ thống AI tìm kiếm thông tin cần tiến bộ đáng kể để đảm bảo an toàn và hiệu quả, cũng như giảm thiểu rủi ro tạo ra 'hiệu ứng buồng vọng' và làm xói mòn khả năng tư duy độc lập của người dùng".
Các phát hiện của nghiên cứu, hiện đã được đăng trên máy chủ arXiv, là một lời cảnh báo rõ ràng cho bất kỳ ai sử dụng AI để tìm kiếm thông tin. Mặc dù những công cụ này rất tiện lợi, chúng ta không thể hoàn toàn tin tưởng vào chúng. Công nghệ này vẫn còn một chặng đường dài để đi.
P.T.T (NASTIS) https://techxplore.com/news/, 2025
Liên hệ
Tiếng Việt
Tiếng Anh








