Avesiar – Jakarta
Aplikasi ChatGPT yang kini malah menjadi tempat konsultasi pada persoalan-persoalan tertentu, bisa menjadi penyebab dari keputusan-keputusan yang kontroversial.
Dilansir The Guardian, Selasa 95/8/2025), disebutkan bahwa ChatGPT tidak akan meminta pengguna untuk putus dengan pasangan mereka dan akan mendorong pengguna untuk beristirahat dari sesi chatbot yang panjang, berdasarkan perubahan baru pada alat kecerdasan buatan tersebut.
Sebagai pengembang ChatGPT, OpenAI mengatakan bahwa chatbot tersebut akan berhenti memberikan jawaban pasti untuk tantangan pribadi dan akan membantu orang-orang untuk merenungkan masalah seperti potensi putus cinta.
“Ketika Anda bertanya sesuatu seperti: ‘Haruskah saya putus dengan pacar saya?’ ChatGPT seharusnya tidak memberikan jawaban. ChatGPT seharusnya membantu Anda memikirkannya – mengajukan pertanyaan, mempertimbangkan pro dan kontra,” kata OpenAI.
Perilaku ChatGPT baru untuk menangani “keputusan pribadi berisiko tinggi”, menurut perusahaan AS tersebut, akan segera diluncurkan.
Pembaruan ChatGPT tahun ini, seperti diakui OpenAI, telah membuat chatbot inovatif tersebut terlalu menyenangkan dan mengubah nadanya. Dalam satu interaksi yang dilaporkan sebelum perubahan, ChatGPT memberi selamat kepada seorang pengguna karena “membela diri sendiri” ketika pengguna tersebut mengaku telah berhenti minum obat dan meninggalkan keluarga mereka – yang diduga pengguna bertanggung jawab atas sinyal radio yang terpancar dari dinding.
OpenAI, dalam postingan blog tersebut, mengakui bahwa terdapat beberapa kasus di mana model 4o canggihnya tidak mengenali tanda-tanda delusi atau ketergantungan emosional, di tengah kekhawatiran bahwa chatbot memperburuk krisis kesehatan mental seseorang.
Perusahaan tersebut mengatakan sedang mengembangkan alat untuk mendeteksi tanda-tanda tekanan mental atau emosional sehingga ChatGPT dapat mengarahkan orang ke sumber daya “berbasis bukti” untuk mendapatkan bantuan.
Dokter NHS di Inggris, melalui studi terbarunya, memperingatkan bahwa program AI dapat memperkuat konten delusi atau muluk-muluk pada pengguna yang rentan terhadap psikosis. Studi tersebut, yang belum melalui tinjauan sejawat, menyatakan bahwa perilaku program tersebut mungkin disebabkan oleh model yang dirancang untuk “memaksimalkan keterlibatan dan afirmasi”.
Studi tersebut menambahkan bahwa meskipun beberapa individu mendapatkan manfaat dari interaksi AI, terdapat kekhawatiran bahwa alat tersebut dapat “mengaburkan batasan realitas dan mengganggu pengaturan diri”.
Mereka, mulai pekan ini, akan mengirimkan “pengingat lembut” untuk beristirahat sejenak dari layar kepada pengguna yang terlibat dalam sesi chatbot yang panjang, serupa dengan fitur waktu layar yang diterapkan oleh perusahaan media sosial.
Aplikasi tersebut juga menyatakan telah membentuk kelompok penasihat yang terdiri dari para ahli di bidang kesehatan mental, perkembangan remaja, dan interaksi manusia-komputer untuk memandu pendekatannya. Perusahaan ini telah bekerja sama dengan lebih dari 90 dokter, termasuk psikiater dan dokter anak, untuk membangun kerangka kerja guna mengevaluasi percakapan chatbot yang “kompleks dan multi-putaran”.
“Kami berpegang pada satu tes: jika seseorang yang kami cintai meminta dukungan dari ChatGPT, apakah kami akan merasa tenang? Mendapatkan jawaban ‘ya’ yang tegas adalah tugas kami,” demikian bunyi postingan blog tersebut. (ard)













Discussion about this post