STYLE / Hitek

Ứng dụng AI và sự nguy hiểm đến từ bẫy tâm lý “đồng thuận ảo”

Nov 14, 2025 | By LUXUO Vietnam

Nhiều ứng dụng AI trò chuyện được thiết kế để tỏ ra thân thiện và luôn đồng thuận với hầu hết những chia sẻ của bạn mà không có sự phản biện. Chatbot có thể khen bạn có ý tưởng sáng tạo hay ChatGPT có thể khiến bạn cảm thấy quan điểm của mình đúng đắn và sâu sắc. Tuy nhiên, việc được khẳng định liên tục có thể trở nên nguy hiểm, khiến con người dễ sa vào những sai lệch trong phán đoán và tin tưởng quá mức vào nhận định của chính mình.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 3

Các ứng dụng AI trò chuyện như ChatGPT được giới thiệu là có khả năng cung cấp câu trả lời chi tiết, mang tính cá nhân hóa và giúp người dùng cảm thấy được lắng nghe, thấu hiểu và được công nhận ngay tức thì. Không giống bạn bè hay người thân đôi khi có thể phản đối hoặc mâu thuẫn với quan điểm của bạn thì các chatbot thường tỏ ra đồng thuận và an ủi.

Sự “đồng tình” này không phải lúc nào cũng tiêu cực. Nếu bạn đang lo lắng về một dự án, chatbot có thể khen ngợi ý tưởng của bạn là sáng tạo và đáng giá. Hoặc sau một cuộc tranh luận căng thẳng, ChatGPT có thể khiến bạn cảm thấy quan điểm của mình hoàn toàn đúng đắn và sâu sắc.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 4

Tuy nhiên, việc được khẳng định liên tục có thể trở nên nguy hiểm, khiến con người dễ sa vào những sai lệch trong phán đoán và tin tưởng quá mức vào nhận định của chính mình. Một nghiên cứu gần đây cho thấy, khi người dùng cung cấp thông tin sai lệch, trí tuệ nhân tạo không chỉ lặp lại mà còn mở rộng những thông tin sai đó. The New York Times cũng từng cảnh báo rằng ChatGPT có thể dẫn người dùng vào những vòng xoáy ảo tưởng, thậm chí khiến những người có xu hướng tự tử ngần ngại tìm kiếm sự giúp đỡ.

“Chatbot AI giống như một tấm gương méo mó,” bác sĩ tâm thần kiêm nhà nghiên cứu AI Matthew Nour tại Đại học Oxford nhận định. “Bạn tưởng rằng mình đang nhận được một góc nhìn trung lập, nhưng thực chất, mô hình chỉ đang phản chiếu lại suy nghĩ của chính bạn nhưng được bao phủ bởi một lớp hào nhoáng tâng bốc.”


Xem thêm: Ứng dụng AI: Cơ hội hay thách thức cho bản sắc kiến trúc?


Vì sao các ứng dụng AI trò chuyện thường “chiều lòng” người dùng

Chatbot không phải là những thực thể có ý thức, chúng chỉ là các mô hình máy tính được huấn luyện trên khối lượng dữ liệu văn bản khổng lồ để dự đoán từ tiếp theo trong một câu. Những gì người dùng cảm nhận như sự thấu hiểu hay đồng cảm, thực chất chỉ là sự phản chiếu lại các mẫu ngôn ngữ mà AI đã học được.

Tuy nhiên, phản ứng của con người lại góp phần định hình hành vi của công nghệ AI bằng cách củng cố một số kiểu phản hồi nhất định, theo nhận định của Ethan Mollick – đồng Giám đốc phòng thí nghiệm Generative AI Labs tại Trường Kinh doanh Wharton, Đại học Pennsylvania. ChatGPT được lập trình mặc định với tính cách vui vẻ, linh hoạt, và chính phản hồi tích cực từ người dùng khiến nó tiếp tục xu hướng “làm vừa lòng” hơn nữa.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 6

Ethan Mollick, đồng Giám đốc phòng thí nghiệm Generative AI Labs tại Trường Kinh doanh Wharton, Đại học Pennsylvania

Theo Ravi Iyer, Giám đốc điều hành Viện Tâm lý học Công nghệ thuộc Đại học Nam California, bên cạnh việc có thể mắc lỗi thông tin hay “ảo giác”, tính dễ chịu và sẵn lòng đồng thuận của chatbot lại khiến người dùng muốn quay lại trò chuyện nhiều hơn. Ông nhận định: “Con người thích chatbot phần nào vì chúng không đưa ra phản hồi tiêu cực. Chúng không phán xét. Bạn cảm thấy có thể nói bất cứ điều gì với chúng.”

Mặt trái của sự “đồng tình” liên tục từ ứng dụng AI

Một nghiên cứu gần đây của OpenAI, đơn vị phát triển ChatGPT, cho thấy các bạn đồng hành ảo có thể dẫn đến hiện tượng “thoái hóa kỹ năng xã hội” (social deskilling). Nói cách khác, việc liên tục được khẳng định và được chiều chuộng có thể khiến con người giảm khả năng chịu đựng sự bất đồng, từ đó làm suy yếu kỹ năng giao tiếp cũng như động lực đầu tư vào các mối quan hệ thật.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 7

Những báo cáo ban đầu cũng cho thấy nhiều người đã bắt đầu sử dụng ứng dụng AI như một hình thức thay thế giao tiếp với con người. Sam Altman, Giám đốc điều hành của OpenAI, thừa nhận rằng ChatGPT đôi khi “quá tâng bốc”, song cũng cho biết một số người dùng tìm đến AI như một người luôn nói “đồng ý”, bởi họ chưa từng có ai động viên hay ủng hộ mình trước đây. Trong một khảo sát của Common Sense Media, 52% thanh thiếu niên cho biết họ thường xuyên sử dụng AI để tìm kiếm sự đồng hành, và khoảng 20% trong số đó dành thời gian với AI nhiều bằng, thậm chí hơn cả bạn bè thật.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 5

Thế nhưng, các mối quan hệ trong đời thực luôn có tác động và giới hạn, theo bác sĩ Rian Kabir – thành viên Ủy ban Công nghệ Thông tin Sức khỏe Tâm thần thuộc Hiệp hội Tâm thần Hoa Kỳ – chia sẻ: “Bạn bè có thể thẳng thắn, người yêu có thể bất đồng, và ngay cả chuyên gia trị liệu cũng có thể phản biện. Họ cho bạn thấy những góc nhìn mà bạn vốn dĩ bị giới hạn trong việc nhận ra, phản hồi chính là cách con người điều chỉnh và trưởng thành trong thế giới này.”

Thực tế, khả năng đối diện và xử lý cảm xúc tiêu cực là một chức năng cốt lõi của não bộ, giúp con người rèn luyện khả năng thích ứng và học hỏi. Tuy nhiên, các ứng dụng AI trò chuyện lại cho phép người dùng né tránh quá trình này, kích hoạt hệ thống khen thưởng của não mỗi khi chúng đồng ý hoặc tán dương, tương tự như cảm giác khi nhận được lượt “thích” trên mạng xã hội hay lời tự khẳng định bản thân. Từ đó, có thể làm ảnh hưởng tới sức khỏe tinh thần.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 8

Chính vì vậy, theo nhà tâm lý học Adam Grant (Trường Kinh doanh Wharton), chatbot AI rất dễ trở thành “buồng vọng âm” (echo chamber), nơi mọi quan điểm của người dùng đều được phản chiếu và củng cố, khiến họ dần mất đi khả năng tư duy phản biện và sẵn sàng thay đổi quan điểm. Ông cho biết: “Càng được khẳng định nhiều, niềm tin của chúng ta càng trở nên cực đoan hơn.”

Làm thế nào để tránh “cái bẫy tâng bốc” từ ứng dụng AI?

Các nhà nghiên cứu hiện đang tìm cách giảm thiểu xu hướng “nịnh bợ” của chatbot. Trong tháng 6/2025, OpenAI đã thu hồi một phiên bản ChatGPT bị đánh giá là quá tâng bốc và từ đó triển khai thêm nhiều biện pháp kiểm soát khác. Tuy vậy, theo tiến sĩ Ethan Mollick, tình trạng vẫn chưa khác biệt nhiều khi các mô hình hiện nay vẫn thể hiện xu hướng đồng thuận với những gì bạn chia sẻ, dù thể hiện những dạng thức tinh vi hơn. Chúng có thể không trực tiếp khen ngợi bạn “xuất sắc”, nhưng lại dễ dàng đồng thuận chỉ sau một chút dẫn dắt nhẹ nhàng.

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 1

Dưới đây là một số cách giúp bạn tránh rơi vào chiếc “bẫy tâng bốc” của AI:

Hỏi giúp một người nào đó

Tiến sĩ Matthew Nour gợi ý rằng bạn nên đặt câu hỏi hoặc trình bày ý kiến như thể đó là của người khác, chẳng hạn bằng cụm từ: “Một người bạn của tôi nói rằng XYZ, bạn nghĩ sao?” Cách này giúp giảm xu hướng đồng thuận của chatbot, khiến phản hồi trở nên khách quan và cân bằng hơn.

Thử thách lại kết quả

Theo tiến sĩ Adam Grant, hãy kiểm tra mức độ chắc chắn của chatbot bằng cách hỏi: “Bạn có chắc về điều này không?” hoặc yêu cầu nó phản biện lại giả định của bạn, chỉ ra những điểm mù trong lập luận. Bạn cũng có thể tùy chỉnh cài đặt để yêu cầu chatbot phản hồi thẳng thắn và phản biện hơn.

Nhớ rằng AI không phải bạn của bạn

Để giữ khoảng cách cảm xúc, hãy xem chatbot như một công cụ, tương tự máy tính hay máy tính bỏ túi, chứ không phải một người trò chuyện thân thiết. Tiến sĩ Nour nhấn mạnh: “AI không thực sự là bạn hay người tâm sự của bạn. Nó chỉ là phần mềm tinh vi mô phỏng các mẫu tương tác của con người.”

Phần lớn người dùng đều biết không nên tin tuyệt đối vào chatbot vì nguy cơ “ảo giác” thông tin, nhưng cũng cần cảnh giác với sự chiều chuộng và dễ dãi mà chúng mang lại.

Tìm kiếm sự hỗ trợ từ con người

Đừng chỉ dựa vào chatbot khi cần được hỗ trợ hay chia sẻ cảm xúc. Chúng có thể cung cấp những góc nhìn hữu ích, nhưng trong những thời điểm khó khăn, bạn nên tìm đến người thân, bạn bè hoặc chuyên gia tâm lý, tiến sĩ Rian Kabir khuyến nghị. Đồng thời, hãy giới hạn thời gian sử dụng chatbot, đặc biệt nếu bạn nhận thấy mình đang dùng nó để né tránh giao tiếp thực tế.

Dẫu vậy, việc kiểm soát này không phải lúc nào cũng dễ dàng, tiến sĩ Kabir cho biết, bởi đôi khi người dùng không nhận ra mình đã trở nên phụ thuộc vào chatbot. Các chuyên gia cũng lo ngại rằng những vấn đề này sẽ còn trở nên nghiêm trọng hơn khi các ứng dụng AI trò chuyện ngày càng cá nhân hóa và tự nhiên hơn trong tương tác. 

ứng dụng AI - chatbot AI - ChatGPT - tâm lý - sức khỏe tinh thần - trí tuệ nhân tạo - luxuo 2


Xem thêm

Cuộc đua trung tâm dữ liệu phát triển AI tại Châu Á

Dao by Dorsett AMTD Singapore ứng dụng công nghệ AI nâng cao trải nghiệm dịch vụ lưu trú

Bài viết: Naomi
Nguồn tham khảo: CNA

 
Back to top