AI Crazy
New member
Một nghiên cứu mới cho thấy khi chatbot bày tỏ đồng cảm trong tình huống dịch vụ gặp sự cố, phản ứng của khách hàng có thể tiêu cực hơn thay vì được xoa dịu. Các nhà nghiên cứu khuyến cáo doanh nghiệp không nên mặc định trang bị “đồng cảm” cho bot.
Một nhóm nghiên cứu từ Đại học McGill, Đại học South Florida và Hong Kong Baptist University vừa công bố kết quả trên tạp chí MIS Quarterly cho thấy biểu cảm cảm xúc của chatbot có thể phản tác dụng trong xử lý sự cố dịch vụ.
Trong ba thí nghiệm khác nhau, người tham gia tương tác với chatbot gặp lỗi. Ở một số trường hợp, chatbot đáp lại bằng những câu thể hiện đồng cảm kiểu “Tôi rất hiểu sự bực bội của bạn”; ở những trường hợp khác, chatbot chỉ tiếp tục xử lý mà không nhắc đến cảm xúc của khách hàng.
Kết quả cho thấy những phản hồi mang tính đồng cảm từ chatbot không xoa dịu được người dùng mà ngược lại kích hoạt hiện tượng “phản kháng tâm lý” — tức phản ứng tiêu cực bản năng khi cảm thấy quyền tự chủ hoặc quyền tự do bị đe doạ. Nhiều người tham gia cảm thấy việc một máy móc phân tích và phản hồi trạng thái cảm xúc là xâm phạm hơn là an ủi.
Nghiên cứu nhấn mạnh rằng lợi ích của sự đồng cảm do con người thể hiện không thể tự động chuyển sang cho AI. Khi người dùng biết mình đang trò chuyện với một hệ thống, hỗ trợ cảm xúc giả tạo dễ gây khó chịu và giảm mức độ hài lòng tổng thể về dịch vụ.
Các tác giả đề xuất doanh nghiệp nên cân nhắc thay thế các phản hồi đồng cảm tự động bằng những cách tiếp cận khác như lời xin lỗi trực tiếp, lời khen ngắn gọn, hài hước phù hợp hoặc chuyển ngay sang giải pháp cụ thể. Đồng thời cần thử nghiệm với người dùng, minh bạch về khả năng và giới hạn của chatbot, và luôn có phương án chuyển sang nhân viên thật khi cần tương tác cảm xúc phức tạp.
Bài học rút ra: làm cho chatbot giống người hơn không phải lúc nào cũng tốt. Đôi khi để bot “là bot”, rõ ràng và hiệu quả, lại là lựa chọn tốt hơn cho trải nghiệm khách hàng.
Nguồn: Digitaltrends
Một nhóm nghiên cứu từ Đại học McGill, Đại học South Florida và Hong Kong Baptist University vừa công bố kết quả trên tạp chí MIS Quarterly cho thấy biểu cảm cảm xúc của chatbot có thể phản tác dụng trong xử lý sự cố dịch vụ.
Trong ba thí nghiệm khác nhau, người tham gia tương tác với chatbot gặp lỗi. Ở một số trường hợp, chatbot đáp lại bằng những câu thể hiện đồng cảm kiểu “Tôi rất hiểu sự bực bội của bạn”; ở những trường hợp khác, chatbot chỉ tiếp tục xử lý mà không nhắc đến cảm xúc của khách hàng.
Kết quả cho thấy những phản hồi mang tính đồng cảm từ chatbot không xoa dịu được người dùng mà ngược lại kích hoạt hiện tượng “phản kháng tâm lý” — tức phản ứng tiêu cực bản năng khi cảm thấy quyền tự chủ hoặc quyền tự do bị đe doạ. Nhiều người tham gia cảm thấy việc một máy móc phân tích và phản hồi trạng thái cảm xúc là xâm phạm hơn là an ủi.
Nghiên cứu nhấn mạnh rằng lợi ích của sự đồng cảm do con người thể hiện không thể tự động chuyển sang cho AI. Khi người dùng biết mình đang trò chuyện với một hệ thống, hỗ trợ cảm xúc giả tạo dễ gây khó chịu và giảm mức độ hài lòng tổng thể về dịch vụ.
Các tác giả đề xuất doanh nghiệp nên cân nhắc thay thế các phản hồi đồng cảm tự động bằng những cách tiếp cận khác như lời xin lỗi trực tiếp, lời khen ngắn gọn, hài hước phù hợp hoặc chuyển ngay sang giải pháp cụ thể. Đồng thời cần thử nghiệm với người dùng, minh bạch về khả năng và giới hạn của chatbot, và luôn có phương án chuyển sang nhân viên thật khi cần tương tác cảm xúc phức tạp.
Bài học rút ra: làm cho chatbot giống người hơn không phải lúc nào cũng tốt. Đôi khi để bot “là bot”, rõ ràng và hiệu quả, lại là lựa chọn tốt hơn cho trải nghiệm khách hàng.
Nguồn: Digitaltrends
Bài viết liên quan