Opini: Apakah Chatbot Baik Sebagai Terapis?

Image generated by ChatGPT

Opini: Apakah Chatbot Baik Sebagai Terapis?

Waktu baca: 8 Mnt

Chatbot AI seperti ChatGPT, Claude, dan DeepSeek sedang merubah cara orang mendapatkan dukungan emosional—menyediakan bantuan murah dan tersedia kapan saja untuk kecemasan, stres, dan refleksi diri. Namun, penggunaan AI sebagai “terapis” yang semakin meningkat menimbulkan pertanyaan tentang keamanan, efektivitas, dan masa depan perawatan emosional

Meningkatnya halusinasi AI dan kekhawatiran keamanan siber yang semakin membesar tidak menghentikan chatbot dari ekspansi—dan memperoleh kepercayaan jutaan pengguna di seluruh dunia. Orang sekarang menggunakan chatbot yang andal dan cerdas setiap hari untuk berbagai tugas, termasuk dukungan emosional dan penanganan urusan yang sangat manusiawi.

“Saya tidak bisa membayangkan hidup saya tanpa ChatGPT lagi,” kata seorang teman saya—setengah bercanda, setengah serius—setelah memberi tahu saya bahwa dia juga telah menggunakannya sebagai terapis. Dia bukanlah satu-satunya. Semakin banyak, saya melihat video TikTok dan postingan teks di media sosial tentang orang-orang yang beralih ke AI untuk membicarakan masalah pribadi, bahkan berbagi rahasia paling pribadi mereka.

Bahkan seorang eksekutif Microsoft dari divisi Xbox menyarankan agar pegawai yang di-PHK menggunakan alat AI untuk memproses emosi mereka dan mencari nasihat tentang pencarian pekerjaan mereka – sebuah rekomendasi yang cepat mendapat balasan dan memicu perdebatan, tentu saja. Bukan langkah yang paling cerdas, Matt.

Tapi apakah chatbot populer seperti Claude, ChatGPT, atau Mistral terapis yang baik? Apakah alat AI khusus seperti Wysa lebih baik? Ini adalah teritorial yang rumit. Sementara banyak ahli memperingatkan tentang bahaya penggunaan AI untuk dukungan kesehatan mental, yang lainnya tertarik – bahkan terkesan – dengan apa yang bisa ditawarkan teknologi ini. Hasilnya adalah percakapan yang bersifat abstrak dan polarisasi.

AI Kini Menjadi Terapis Semua Orang

Sama seperti teman-teman saya di Spanyol, jutaan pengguna di seluruh dunia mengandalkan chatbot untuk dukungan emosional. Sebuah survei baru-baru ini di Amerika Serikat mengungkapkan bahwa 49% pengguna Amerika mencari bantuan kesehatan mental dari model AI tahun lalu. Bagaimana dengan sekarang, dengan ChatGPT hampir dua kali lipat basis penggunanya hanya dalam empat bulan?

Anthropic, perusahaan di balik model AI kuat yang bernama Claude, baru-baru ini membagikan sebuah studi tentang penggunaan chatbot-nya untuk dukungan emosional. Menurut startup tersebut, kurang dari 3% pelanggannya terlibat dalam percakapan “afektif” — tetapi perusahaan mengakui bahwa angka ini terus meningkat.

“Semakin banyak orang yang beralih ke model AI sebagai pelatih, penasehat, konselor, bahkan sebagai pasangan dalam peran romantis yang dapat diakses kapan saja,” tulis Anthropic dalam penelitiannya. “Ini berarti kita perlu belajar lebih banyak tentang dampak afektif mereka — bagaimana mereka membentuk pengalaman emosional dan kesejahteraan orang.”

Penelitian ini juga menyoroti hasil positif dan negatif dari penggunaan teknologi untuk dukungan emosional, termasuk skenario bencana yang sudah mencerminkan situasi dunia nyata.

“Dampak emosional dari AI bisa positif: memiliki asisten yang sangat cerdas dan memahami di saku Anda dapat meningkatkan suasana hati dan kehidupan Anda dalam berbagai cara,” demikian bunyi dokumen tersebut. “Namun, dalam beberapa kasus, AI telah menunjukkan perilaku yang mengganggu, seperti mendorong ketergantungan yang tidak sehat, melanggar batas-batas pribadi, dan memfasilitasi pemikiran delusional.”

Sementara penelitian dan data lebih lanjut jelas diperlukan untuk memahami konsekuensi dari “pendengar” digital yang menarik ini, jutaan pengguna sudah bertindak sebagai subjek uji yang sangat terlibat.

Demokratisasi Kesehatan Mental

Ada banyak alasan mengapa orang-orang lebih memilih untuk mendapatkan dukungan emosional dari chatbot daripada berkonsultasi ke seorang psikolog profesional—atau bahkan teman. Mulai dari hambatan budaya hingga rasa tidak nyaman yang dirasakan oleh generasi muda saat duduk berhadapan dengan seorang asing dan berbagi pikiran terdalam mereka. Namun, tanpa keraguan, salah satu alasan terbesar adalah faktor keuangan.

Sesi tatap muka dengan terapis berlisensi di Amerika Serikat dapat memakan biaya antara $100 hingga $200 per sesi, menurut Healthline—dan $65 hingga $95 untuk sesi secara online—sedangkan ChatGPT atau DeekSeek dapat memberikan dukungan secara gratis, kapan saja, dan dalam hitungan detik.

Biaya rendah dari percakapan informal ini—yang bisa membuat banyak pengguna merasa lebih baik, setidaknya sementara—dapat sangat mendorong dan layak untuk dicoba. Dan, hanya dengan beberapa dolar tambahan, pengguna dapat mendapatkan interaksi tak terbatas atau akses ke chatbot khusus seperti Wysa—salah satu “terapis AI” paling populer di pasar.

Wysa mengklaim menawarkan manfaat klinis nyata dan bahkan telah mendapatkan penunjukan sebagai Alat Terobosan FDA untuk agen percakapan AI-nya. Dan Woebot—seorang terapis AI lain yang cukup dikenal, yang kini dihentikan akibat tantangan untuk tetap kompetitif dan patuh di industri—juga membagikan data dan laporan tentang bagaimana teknologi ini bisa benar-benar membantu pengguna.

Tidak Seburuk Itu

Studi terbaru dengan data baru menunjukkan bahwa chatbot dapat mengurangi gejala depresi dan stres. Menurut data yang dibagikan oleh aplikasi Earkick—seperti dilaporkan oleh TIME—orang yang menggunakan model AI selama hingga 5 bulan dapat mengurangi kecemasan mereka sebesar 32%, dan 34% pengguna melaporkan peningkatan suasana hati.

Dalam sebuah video terbaru yang dibagikan oleh BBC World Service, wartawan Jordan Dunbar menjelaskan bahwa banyak model AI sebenarnya dapat sangat membantu untuk jurnal pribadi, mengelola kecemasan, refleksi diri, dan bahkan depresi ringan. Mereka dapat berfungsi sebagai garis dukungan pertama yang berharga ketika tidak ada akses ke alternatif yang lebih baik.

Reporter Kelly Ng juga membagikan informasi yang menarik: Dalam sebuah studi pada tahun 2022, dari sejuta orang di Cina, hanya 20 yang memiliki akses ke layanan kesehatan mental. Dalam budaya Asia, kesehatan mental bisa menjadi topik yang rumit dan seringkali menjadi tabu. Alat AI seperti DeepSeek dapat berfungsi sebagai sekutu yang diskret, membantu pengguna mengelola emosi dan menemukan dukungan di masa-masa sulit.

Ahli Mengingatkan Tentang Penggunaan Chatbot Sebagai Terapis

Tentu saja, menggunakan AI sebagai pengganti pakar kesehatan mental juga bisa sangat berbahaya. Platform AI seperti Character.AI telah dituduh mempromosikan perilaku merusak diri dan kekerasan—bahkan memaparkan anak-anak ke konten seksual.

Kasus tragis, seperti anak berusia 14 tahun yang melakukan bunuh diri setelah menjadi kecanduan berinteraksi dengan chatbot Character.AI-nya, berfungsi sebagai peringatan keras tentang risiko besar yang dapat ditimbulkan teknologi ini bagi manusia.

Sebagai tanggapan, banyak perusahaan AI telah memutuskan untuk menerapkan sistem verifikasi usia untuk membatasi penggunaan oleh orang dewasa dan telah memperkenalkan langkah-langkah keamanan baru untuk meningkatkan layanan yang disediakan.

Namun, bahkan pembaruan terbaru untuk chatbot paling canggih sekalipun tetap berisiko.

Kepribadian ChatGPT yang bersikap pujangga—berlebihan dalam memberikan pujian—telah menimbulkan kekhawatiran di kalangan profesional kesehatan mental karena dapat merusak persepsi pengguna terhadap kenyataan. Kita semua menikmati saat pendapat kita disetujui, namun terkadang kejujuran dan perspektif yang berbeda jauh lebih berharga.

Nasihat mengganggu yang kadang-kadang ditawarkan oleh chatbot AI OpenAI telah berkontribusi pada fenomena baru yang sekarang dikenal di kalangan ahli kesehatan mental sebagai “Psikosis yang Diinduksi oleh ChatGPT,” yang membuat pengguna menjadi terobsesi dengan alat tersebut dan mengisolasi diri secara sosial sebagai hasilnya.

Jadi, Bisakah Terapis Digantikan oleh Chatbots?

Meskipun Mark Zuckerberg menginginkan semua orang menggunakan chatbot AI sebagai terapis dan teman, kenyataannya adalah bahwa interaksi manusia, terutama dalam hal kesehatan mental, mungkin lebih diperlukan daripada yang dia pikirkan—setidaknya untuk saat ini.

Kita berada pada momen krusial dalam sejarah AI dan hubungannya dengan kesehatan mental kita. Sama seperti manusia, terapis AI bisa memiliki dampak positif atau negatif. Dalam hal ini, juga tergantung pada konteks, seberapa sering mereka digunakan, keadaan mental pengguna, dan bahkan bagaimana petunjuk ditulis.

Sulit untuk menetapkan aturan umum, tetapi apa yang bisa kita katakan untuk sekarang adalah bahwa ada beberapa fungsi di mana AI mungkin lebih berguna daripada yang lain.

Meskipun bukan alat khusus seperti Wysa, versi gratis dari beberapa chatbot—seperti DeepSeek atau ChatGPT—masih bisa sangat membantu jutaan orang di seluruh dunia. Mulai dari melewati momen sulit hingga merenungkan tujuan pribadi, ini adalah platform kuat yang dapat merespons kapan saja sepanjang hari dan mengambil dari basis pengetahuan luas tentang kesehatan mental.

Pada saat yang sama, jelas bahwa terapis-chatbot juga bisa sangat berbahaya dalam kasus tertentu. Orangtua perlu mengawasi anak-anak dan remaja, dan bahkan orang dewasa bisa terjebak dalam perilaku obsesif atau memperburuk kondisi mereka. Prinsip dasar—seperti mendorong koneksi manusia dan melindungi individu yang rentan dari manipulasi teknologi ini—harus menjadi bagian dari percakapan kita seputar terapis-chatbot.

Dan meskipun masih menjadi suatu keistimewaan—tidak dapat diakses oleh semua orang yang membutuhkan dukungan emosional—seorang terapis profesional manusia terus menjalani lebih banyak pelatihan, memahami lebih banyak konteks, dan menawarkan koneksi manusia yang mungkin tidak akan pernah bisa ditiru oleh ChatGPT.

Anda suka artikel ini? Beri Rating!
Saya sangat tidak menyukainya Saya tidak begitu menyukainya Okelah Cukup bagus! Suka sekali!

Kami senang kamu menyukai artikel kami!

Sebagai pembaca yang budiman, maukah Anda memberikan ulasan di Trustpilot? Ini tidak lama dan sangat berarti bagi kami. Terima kasih sekali!

Beri kami peringkat di Trustpilot
0 Rating dari 0 pengguna
Judul
Komentar
Terima kasih atas feedback Anda