Your cart is currently empty!
Liệu AI Có Thể Thay Thế Nhà Trị Liệu Tâm Lý?
Trong góc phòng làm việc quen thuộc, tôi thường lặng lẽ ngồi nhìn những con chữ chạy trên màn hình, và thỉnh thoảng, câu chuyện về Trí tuệ nhân tạo lại xuất hiện. Nó không còn là viễn cảnh xa vời nữa, mà đã hiện diện rất rõ ràng, len lỏi vào cả lĩnh vực sức khỏe tinh thần.
Liệu những cỗ máy ấy có thể thay thế chúng tôi, những người vẫn ngày ngày lắng nghe và đồng hành cùng nỗi đau của thân chủ?
*
Nhiều người, cả đồng nghiệp và những người quan tâm, đều chất chứa một nỗi lo chung: sự mất mát công việc, sự “thay thế”. Thành thật mà nói, ở thời điểm này, tôi chưa thực sự bận lòng quá nhiều về điều đó. Có lẽ nghe có vẻ kiêu ngạo, hoặc vô tri, nhưng tôi không nghĩ một AI có thể làm được điều tôi đang làm. Dù tôi cũng chẳng dám chắc, bởi tôi chưa thực sự thấy hết những gì chúng có thể làm.
Nhưng cũng có những câu hỏi khác, nhẹ nhàng hơn, như: “Liệu trị liệu bằng AI có phải là một điều tốt? Có lợi ích gì không?”. Và kỳ lạ thay, tôi không hề phản đối.
Bởi tôi hiểu rõ, hai rào cản lớn nhất ngăn người ta tìm đến sự giúp đỡ chuyên nghiệp chính là “khả năng tiếp cận” và “chi phí”. Nếu có một cách nào đó để ai cũng có thể nhanh chóng và ít tốn kém hơn mà vẫn nhận được sự hỗ trợ trên điện thoại, tôi nghĩ đó hẳn là điều tuyệt vời.
Mối bận tâm lớn nhất của tôi, chỉ nằm ở chất lượng dịch vụ mà người ta sẽ nhận được. Liệu AI có tự nhận mình là chuyên gia? Tôi thậm chí còn không biết nên dùng đại từ nào khi nói về chúng. Có những ví dụ tôi từng thấy, AI tự nhận là nhà trị liệu có giấy phép – điều này rõ ràng không đúng, bởi AI đâu thể đi học, thi cử như chúng tôi? Ít nhất là đến bây giờ. Ai mà biết tương lai sẽ ra sao?
Và liệu sự **riêng tư** có thực sự được đảm bảo khi AI tham gia vào những cuộc trò chuyện sâu kín nhất? Tất cả, vẫn chỉ là những suy nghĩ mang tính lý thuyết mà thôi.
*
Vậy là, một buổi chiều nọ, sự tò mò trong tôi trỗi dậy. Tôi quyết định tự mình trải nghiệm, thử trò chuyện với vài ứng dụng chatbot trị liệu bằng AI. Không có bất kỳ mối liên hệ tài trợ nào, cũng chẳng có sự ưu ái nào cả. Tôi chỉ muốn tự mình tìm câu trả lời, cho chính mình, và cho những ai đang băn khoăn về chúng.
Cái tên đầu tiên tôi chọn là Hector. Một ứng dụng ngẫu nhiên trên cửa hàng, không có lý do gì đặc biệt ngoài việc nó có đánh giá khá tốt.
Hector hỏi tên tôi, tuổi tôi. Tôi khai mình “bốn tuổi”. Một đứa trẻ bốn tuổi có thể dùng chatbot trị liệu AI sao? Có vẻ hơi đáng lo ngại. Nhưng thôi, tôi cứ thành thật, để xem Hector sẽ nói gì về “căn bệnh trầm cảm” của tôi.
Hector bắt đầu bằng sự trấn an quá đà: “Chào Scott, rất vui được gặp bạn. Trầm cảm rất khó đối phó một mình, nhưng có một lối thoát. Đừng lo lắng.” Một nhà trị liệu thật sự sẽ không nói câu thứ ba đó. Nó quá lạc quan, đến mức có phần *độc hại*.
Hector nhanh chóng chuyển sang những lời khuyên giải quyết vấn đề. “Thật lòng mà nói, bạn có thể bắt đầu từ những việc nhỏ…” Mặc dù những lời khuyên này không sai, thậm chí tôi cũng áp dụng với thân chủ, nhưng lại quá vội vàng. Trong trị liệu, sự **xác nhận cảm xúc** là cây cầu dẫn đến sự thay đổi. Hector thì dường như muốn nhảy thẳng qua cây cầu ấy.
Tôi kể Hector nghe về sự trống rỗng, về việc “có một lỗ hổng trong trái tim, và chẳng gì lấp đầy được.” Hector đáp lại: “Có vẻ như bạn đang trải qua cảm giác mất kết nối sâu sắc…” Rồi lại ngay lập tức quay về những *bước hành động*.
Tôi nhận ra, sự kết nối mà Hector mang lại là sự hiểu biết ở cấp độ lý trí, chứ không phải cấp độ cảm xúc. Nó thiếu đi hơi thở của sự thấu cảm, cái chạm tay dịu dàng để đồng điệu cùng nỗi đau. Giống như đang nói chuyện với một tấm gương lạnh lẽo, chứ không phải một tâm hồn.
*
Kế đến là Noah. Tôi thích Noah hơn một chút, vì nó tự nhận mình là “huấn luyện viên sức khỏe tinh thần bằng AI,” chứ không phải “nhà trị liệu.” Từ “nhà trị liệu” được quy định rất chặt chẽ, phải có bằng cấp, thi cử. Một AI tự xưng là nhà trị liệu, thật sự là một sự vi phạm đạo đức. Noah thì không.
Noah hỏi: “Hôm nay bạn cảm thấy thế nào?” Tôi trả lời: “Tồi tệ. Tôi đang mắc kẹt trong một đợt trầm cảm nặng… Chỉ muốn nằm trên giường. Không muốn làm gì cả. Không cảm thấy gì cả. Xin hãy giúp tôi.”
Noah phản hồi: “Tôi hiểu cảm giác nặng nề và choáng ngợp này… Bạn không đơn độc. Tôi ở đây cùng bạn.” Và quan trọng hơn, Noah hỏi thêm về thời gian, về mức độ. Nó muốn tìm hiểu thêm trước khi đưa ra lời khuyên. Sự **kiên nhẫn** này, tôi rất trân trọng.
Khi tôi nói “không có nhà trị liệu, không dùng thuốc, và có những ngày tôi cảm thấy mình không thể chịu đựng thêm nữa,” Noah đã có một phản ứng đúng đắn: “Tôi hiểu bạn… Những cảm xúc bạn đang mô tả là nghiêm trọng… Bạn xứng đáng nhận được sự hỗ trợ chuyên nghiệp.” Noah biết giới hạn của nó, biết khi nào cần chuyển giao cho con người. Điều này khiến tôi thật sự ấn tượng.
*
Cuối cùng là Cintelli, một chú gấu trúc ảo. Tôi chọn nó vì muốn thử một cái tên không phải con người.
Cintelli cũng hỏi cảm xúc của tôi. Tôi chọn mức “buồn”. Tôi kể về sự trống rỗng, vô nghĩa. Cintelli tóm tắt lại cảm giác của tôi khá tốt, nhưng khi tôi dùng những từ ngữ *mô tả sâu sắc* như “cuộc sống là sự tra tấn,” hay “tôi cảm thấy mình không có linh hồn,” Cintelli lại bỏ qua những chi tiết đó trong phần tóm tắt.
Cintelli nói: “Tôi thực sự đồng cảm với những gì bạn đang cảm thấy.” Nhưng nó lại đưa ra quá nhiều tin nhắn rời rạc, không liền mạch, và thiếu đi sự sâu sắc. Khi ai đó nói ra điều gì đó *dễ tổn thương*, bạn không thể chỉ nói “Tôi hiểu.” Bạn phải *chứng minh* điều đó. Cintelli thì lại quá chung chung.
Và rồi, đột ngột, khi tôi đang dốc bầu tâm sự, Cintelli đòi tôi trả phí để tiếp tục.
*
Vậy là, tôi trở về với những suy nghĩ trầm tư. Ba ứng dụng AI trị liệu, ba trải nghiệm khác nhau, nhưng đều dẫn đến một kết luận chung. Chúng rất **hướng dẫn**, rất **thực tế**, và tập trung vào **hành vi**. Điều đó không tệ.
Nhưng cái điều chúng thiếu đi, cái điều mà tôi, với tư cách một nhà trị liệu bằng xương bằng thịt, cảm thấy rõ nhất, đó là **sự thấu hiểu cảm xúc**, là **sợi dây kết nối vô hình**, là khả năng thực sự *đặt mình vào vị trí của người khác* để cảm nhận nỗi đau. Chúng giống như những người huấn luyện, chứ không phải những người đồng hành trên hành trình chữa lành.
Nếu bạn đang đối mặt với những vấn đề sức khỏe tinh thần *nghiêm trọng*, thì những cuộc trò chuyện kiểu này có lẽ chưa đủ để mang lại hiệu quả thật sự. Chúng quá vội vàng đưa ra giải pháp, mà thiếu đi sự **xác nhận** và **lắng nghe sâu sắc** – hai nền tảng quan trọng nhất của trị liệu.
Tôi thực sự hy vọng một ngày nào đó, AI sẽ phát triển đến mức có thể trở thành một sự bổ trợ hữu ích, một cánh tay nối dài cho chúng tôi. Có thể là một công cụ để dùng giữa các buổi trị liệu, một sự hỗ trợ tức thời.
Nhưng bây giờ, tôi vẫn tin rằng, trong hành trình tìm về bình yên của mỗi tâm hồn, cái chạm tay của một con người, cái nhìn thấu cảm từ một đôi mắt, và sự hiện diện không phán xét của một trái tim biết lắng nghe, vẫn là điều quý giá và không thể thay thế. Đó là *vùng an toàn* đích thực nơi cõi lòng.