Trí tuệ nhân tạo đồng cảm: bước đột phá từ nghiên cứu của Đại học Edith Cowan
Cập nhật vào: Thứ năm - 12/06/2025 13:06
Cỡ chữ
Trí tuệ nhân tạo (AI) đang tiến gần hơn đến khả năng hiểu và phản ứng với cảm xúc con người, mở ra tiềm năng cho các tương tác giữa người và máy trở nên đồng cảm và hiệu quả hơn. Một nhóm nghiên cứu tại Đại học Edith Cowan (ECU) ở Tây Australia đã công bố một phương pháp đột phá, giúp các hệ thống AI nhận thức cảm xúc tốt hơn thông qua việc phân tích các bộ biểu cảm khuôn mặt thay vì hình ảnh đơn lẻ. Công trình này, được công bố trên Science Media Exchange vào ngày 4 tháng 6 năm 2025, hứa hẹn sẽ cách mạng hóa các lĩnh vực như hỗ trợ sức khỏe tâm thần, dịch vụ khách hàng và giáo dục.
Dẫn đầu bởi Tiến sĩ Syed Afaq Shah, cùng với các nghiên cứu sinh Sharjeel Tahir và Nima Mirnateghi, nghiên cứu không chỉ nâng cao độ chính xác của AI trong nhận diện cảm xúc mà còn đặt nền tảng cho sự đồng cảm nhân tạo. Bài viết này phân tích phương pháp mới của ECU, ý nghĩa của nó đối với tương lai AI, và những thách thức còn lại trong việc phát triển các hệ thống trí tuệ cảm xúc.
Hầu hết các nghiên cứu về nhận diện cảm xúc khuôn mặt (FER) trước đây dựa trên việc phân tích hình ảnh đơn lẻ, thường sử dụng các mạng nơ-ron để đưa ra dự đoán dựa trên một khoảnh khắc. Tuy nhiên, nhóm nghiên cứu tại ECU đã áp dụng một cách tiếp cận mới, mô phỏng cách con người đánh giá cảm xúc trong đời thực. Thay vì chỉ xem xét một hình ảnh, họ huấn luyện các mô hình AI với “bộ cảm xúc” (emotion-sets), bao gồm nhiều biểu cảm khuôn mặt liên quan từ các góc độ và điều kiện ánh sáng khác nhau. Theo bài báo được công bố tại Hội nghị Quốc tế về Kỹ thuật và Ứng dụng Hình ảnh Kỹ thuật số (DICTA 2024), phương pháp DEER (Deep Emotion-Sets for Fine-Grained Emotion Recognition) sử dụng hai cơ chế bỏ phiếu - Majority Voting và Weighted Voting - để tổng hợp dự đoán từ các hình ảnh trong bộ cảm xúc, đạt được độ chính xác cao hơn đáng kể so với các phương pháp truyền thống.
Sharjeel Tahir, tác giả chính của nghiên cứu, giải thích: “Giống như chúng ta không đánh giá cảm xúc của một người chỉ qua một cái nhìn, phương pháp của chúng tôi sử dụng nhiều biểu cảm để đưa ra những dự đoán sáng suốt hơn”. Cách tiếp cận này không chỉ cải thiện độ tin cậy mà còn giúp AI thích nghi tốt hơn với các biến số như góc khuôn mặt hoặc ánh sáng, vốn thường làm giảm hiệu quả của các mô hình FER truyền thống. Đồng tác giả Nima Mirnateghi nhấn mạnh rằng việc cung cấp các tín hiệu thị giác đa dạng trong quá trình huấn luyện giúp AI duy trì hiệu quả tính toán trong khi vẫn tăng cường khả năng nhận diện cảm xúc.
Mặc dù nghiên cứu hiện chưa được áp dụng trên các robot vật lý, những phát hiện của ECU có tiềm năng tác động sâu rộng đến các hệ thống AI trí tuệ cảm xúc. Theo Xinhua, công trình này có thể được sử dụng trong các lĩnh vực như hỗ trợ sức khỏe tâm thần, nơi các chatbot AI như Woebot hoặc Wysa đã chứng minh khả năng hỗ trợ người dùng quản lý trầm cảm và lo âu. Bằng cách tích hợp khả năng nhận diện cảm xúc chính xác hơn, các hệ thống này có thể cung cấp phản hồi đồng cảm, tăng cường hiệu quả trị liệu và giảm áp lực lên các chuyên gia sức khỏe tâm thần.
Trong dịch vụ khách hàng, AI cảm xúc có thể cải thiện trải nghiệm người dùng bằng cách điều chỉnh phản hồi dựa trên trạng thái cảm xúc của khách hàng, như nhận diện sự thất vọng hoặc hài lòng qua biểu cảm khuôn mặt. Trong giáo dục, các hệ thống AI có thể hỗ trợ học sinh bằng cách nhận biết các dấu hiệu căng thẳng hoặc thiếu động lực, từ đó cá nhân hóa phương pháp giảng dạy. Một bài viết trên Australian Manufacturing nhấn mạnh rằng những ứng dụng này có thể nâng cao trải nghiệm người dùng trong các hệ thống kỹ thuật số, từ trợ lý ảo đến ứng dụng chăm sóc sức khỏe.
Nhóm nghiên cứu tại ECU đang mở rộng công trình của mình để phát triển “sự đồng cảm nhân tạo”, cho phép các tác nhân AI không chỉ nhận diện cảm xúc mà còn phản ứng một cách phù hợp. Theo Tahir, mục tiêu là tạo ra các hệ thống AI có thể mô phỏng sự đồng cảm của con người, chẳng hạn như an ủi người dùng trong trạng thái buồn bã hoặc khuyến khích khi họ vui vẻ. Công trình này được xây dựng dựa trên nghiên cứu trước đó của nhóm, bao gồm một khung đánh giá liệu pháp nhận thức hành vi (CBT) sử dụng các mô hình ngôn ngữ lớn (LLM) như GPT-4, nhằm phát triển các chatbot trị liệu có khả năng giao tiếp giống con người hơn.
Ngoài ra, nhóm nghiên cứu tập trung vào “AI giải thích được” (explainable AI), nhằm làm cho quá trình ra quyết định của AI minh bạch hơn. Mirnateghi cho biết họ đang khám phá các cơ chế quyết định bên trong của các mô hình AI để trả lời câu hỏi: “Điều gì khiến một cỗ máy trở nên trí tuệ cảm xúc?”. Điều này đặc biệt quan trọng trong các ứng dụng nhạy cảm như sức khỏe tâm thần, nơi người dùng cần tin tưởng vào sự chính xác và ý định của AI.
Mặc dù phương pháp của ECU mang lại nhiều hứa hẹn, vẫn còn những thách thức đáng kể. Một bài nghiên cứu trên Annals of Medicine and Surgery chỉ ra rằng các hệ thống nhận diện cảm xúc phải đối mặt với sự biến đổi trong biểu cảm con người, khác biệt văn hóa và yêu cầu xử lý thời gian thực. Ví dụ, một nụ cười có thể biểu thị niềm vui ở một nền văn hóa nhưng là sự khó chịu ở một nền văn hóa khác, đòi hỏi các mô hình AI phải nhạy cảm với bối cảnh văn hóa.
A.H (NASTIS), theo Wired, 6/2025