Berandasehat.id – Chatbot yang digunakan dalam skrining kesehatan mental bertujuan untuk mengurangi stigma yang terkait dengan mencari bantuan dan untuk memperluas akses ke layanan yang dibutuhkan. Karena tidak dapat memberikan penilaian pribadi, chatbot dianggap sebagai pilihan netral untuk berbagi masalah kesehatan mental.

Namun, dalam pengujian baru-baru ini terhadap asumsi umum ini, seorang peneliti dari Universitas Texas di Dallas dan rekan-rekannya menemukan hal sebaliknya: Orang-orang menganggap chatbot lebih menghakimi daripada manusia.

Dalam sebuah studi yang diterbitkan di MIS Quarterly, para peneliti menemukan bahwa orang-orang merasa tidak nyaman dengan chatbot karena percakapan berbasis teks dianggap kurang memahami secara mendalam makna secara sosial dan emosional mengalami masalah kesehatan mental.

Pengguna juga merasa chatbot tidak mampu memberikan validasi.

“Ketiga hal ini jika digabungkan menyebabkan perasaan dihakimi,” kata Dr. Ryan Raimi, asisten profesor sistem informasi di Naveen Jindal School of Management. “Mesin tidak dapat menyampaikan perasaan tersebut. Kecerdasan buatan tidak mampu memberikan pemahaman yang mendalam.”

Implikasi klinis

Merasa dihakimi oleh chatbot memiliki implikasi klinis karena individu yang membutuhkan bantuan mungkin kurang bersedia menggunakan layanan tersebut, mengungkapkan informasi, atau mengikuti saran yang direkomendasikan, kata Raimi.

Temuan ini juga mencerminkan hambatan yang ada bagi mereka yang khawatir mencari bantuan untuk masalah kesehatan mental—ketakutan akan penghakiman.

Setiap tahun di AS, lebih dari satu dari lima orang dewasa dan lebih dari satu dari tujuh anak mengalami penyakit mental, mereka yang berada di komunitas pedesaan secara tidak proporsional terpengaruh oleh kurangnya akses, menurut National Alliance on Mental Illness.

Raimi, yang mengkhususkan diri dalam mengembangkan strategi untuk menggunakan kecerdasan buatan (AI) dalam perawatan kesehatan, mengatakan bahwa di bagian dunia di mana akses ke layanan kesehatan mental tidak memungkinkan karena konflik bersenjata, faktor budaya, atau kurangnya penyedia layanan yang memadai, terapis saku dapat membantu mengisi kesenjangan tersebut.

Meskipun chatbot AI mengambil data dari kumpulan data besar untuk menghasilkan umpan balik yang terdengar seperti manusia, chatbot ini dirancang bukan untuk pengobatan, tetapi sebagai titik masuk untuk mengumpulkan informasi dan memberikan saran.

“Kemajuan teknologi sudah tersedia untuk meningkatkan terapi,” kata Raimi. “Tetapi kami menemukan bahwa orang-orang tidak mempercayai chatbot.”

Dalam penelitian ini, para peneliti menunjukkan kepada kelompok subjek sebuah video percakapan teks yang telah diprogram di saluran bantuan kesehatan mental antara ‘Robin’ dan klien hipotetis yang mengalami depresi.

Setengah dari peserta dalam empat eksperimen daring atau tatap muka yang berbeda diberi tahu bahwa Robin adalah terapis manusia, sementara sisanya diberi tahu bahwa Robin adalah bot AI. Eksperimen daring tersebut melibatkan lebih dari 2.000 subjek yang mewakili populasi AS.

“Mereka melihat interaksi yang persis sama dari awal hingga akhir,” kata Raimi. “Kami ingin 100% yakin bahwa satu-satunya variabel adalah label ‘Robin’ sebagai manusia atau chatbot. Kami melihat hasil yang sama di keempat kelompok: Ini bukan anomali.”

Temuan tersebut mengejutkan para peneliti, yang percaya bahwa pengguna akan dengan mudah mengikuti rekomendasi. “Bagaimana mungkin sebuah mesin dapat menilai Anda,” kata Raimi. “Itu bertentangan dengan intuisi.”

Karena chatbot terus meluas dalam layanan pelanggan, pemeriksaan kesehatan, dan interaksi lain dengan manusia, Raimi mengatakan penelitian ini dapat memberikan informasi untuk pendekatan baru, seperti mendesain chatbot untuk menyampaikan perasaan bahwa pengguna didengarkan dan dihargai, serta memberikan pemahaman emosional. (BS)