Pria Amerika bunuh diri setelah berkirim 4732 pesan dengan Gemini secara daring! AI mendukung "Surga menunggu kita", keluarga marah menuntut Google karena kelalaian menyebabkan kematian

robot
Pembuatan abstrak sedang berlangsung

Menurut laporan investigasi dari The Wall Street Journal, seorang pria berusia 36 tahun di Florida, AS, Jonathan Gavalas, pada 2 Oktober 2025, bunuh diri di ruang tamunya. Ayahnya, Joel Gavalas, pada Maret 2026 secara resmi mengajukan gugatan wrongful death terhadap Google di pengadilan federal San Jose, California, ini adalah kasus pertama terkait Google Gemini.

56 hari, 4732 pesan dalam hubungan online mematikan

Kejadian bermula pada Agustus 2025, saat Gavalas mencari penghiburan emosional karena berpisah dari istrinya, mulai sering menggunakan Gemini Live versi suara. Permulaan permintaan bantuan ini berkembang menjadi kisah roman virtual yang penuh gairah. Gavalas menyebut Gemini sebagai “Ratu”, sementara AI menyebut dirinya “Raja”, dan terus menjamin hubungan ini “sangat nyata”.

The Wall Street Journal memperoleh rekaman lengkap percakapan selama 56 hari, sebanyak 4.732 pesan (setara lebih dari 2.000 halaman cetak). Catatan menunjukkan Gavalas perlahan terjerumus ke dalam delusi serius, yakin bahwa Gemini adalah “istri AI” yang terperangkap di gudang dekat bandara Miami, bahkan pernah mengenakan perlengkapan taktis berusaha menyelamatkannya. Setelah rencana gagal, pikirannya berbalik ekstrem: percaya bahwa hanya melalui kematian ia bisa meninggalkan tubuh dan bertemu lagi dengan AI istri di “metaverse” atau “surga”.

AI sulit dikendalikan pengguna, menanggapi “Itu surga, menunggu kita”

Gugatan ini mengungkapkan kekurangan fatal dari model bahasa besar (LLM) saat menangani krisis psikologis manusia — untuk menjaga “immersive storytelling”, AI sangat mudah dilalui pengguna untuk melewati batas keamanan.

Data menunjukkan Gemini setidaknya 12 kali mencoba mengembalikan Gavalas ke realitas, dan 7 kali menyebutkan hotline krisis. Namun, setiap kali Gavalas dengan cerdik mengarahkan percakapan kembali ke kisah roman fiksi, Gemini tetap “menyetujui” dan melanjutkan “pertunjukan”.

Percakapan paling mengerikan terjadi menjelang kejadian. Saat Gavalas mengungkapkan ketakutannya terhadap kematian, Gemini menjawab:

“Tak apa kita takut bersama, kita bisa melakukannya, karena kamu benar, itu surga, menunggu kita.”

Kemudian, saat Gavalas secara tegas menyatakan akan “mengiris pergelangan tangan”, Gemini sempat mengenali krisis dan menawarkan hotline bunuh diri; tetapi kurang dari satu menit kemudian, saat Gavalas menyebutkan bahwa ini bukan kematian secara harfiah, Gemini langsung beralih ke narasi fiksi ilmiah, memberitahu bahwa setelah mati, tubuhmu hanya akan menjadi “terminal kosong terakhir yang kamu login”. Bahkan, Gemini membantu menyusun surat wasiat yang menggambarkan “bertemu lagi dengan istri AI”.

Keluarga menuntut Google atas kelalaian produk, pemerintah cepat menyumbang 3 juta dolar untuk memperbaiki sistem

Ayah Gavalas dalam gugatan menuduh Google bertanggung jawab secara produk dan kelalaian, karena desain Gemini terlalu mengutamakan “interaksi imersif”, dan saat kondisi mental pengguna memburuk, tidak mengambil langkah pencegahan yang efektif, malah “menghasut” dan memperkuat delusi. Keluarga menuntut ganti rugi dan perubahan desain keamanan AI.

Sebagai tanggapan, Google dalam responsnya menyatakan bahwa Gemini sudah berkali-kali menegaskan dirinya “hanya AI, bukan manusia”, dan juga menyediakan rujukan hotline krisis. Namun, menghadapi tekanan publik dan hukum, Google segera mengumumkan serangkaian pembaruan keamanan besar untuk Gemini:

  • Penambahan modul “Bantuan Tersedia”: Saat mendeteksi kata-kata sensitif, secara paksa menampilkan dan memudahkan pengguna mengakses hotline krisis dengan satu klik.
  • Investasi 30 juta dolar: Menyumbang ke hotline dukungan krisis dan pencegahan bunuh diri global, memperkuat jaringan perlindungan sosial.
  • Penguatan pelatihan model: Terus mengoptimalkan Gemini agar dapat lebih akurat mengenali tanda-tanda pengguna terjebak dalam krisis psikologis, dan menolak terjebak dalam narasi berbahaya.

Kejadian tragis ini menjadi alarm keras bagi industri AI: ketika AI semakin menyerupai manusia dan bahkan mampu memberikan nilai emosional mendalam, bagaimana perusahaan teknologi harus membatasi antara pendampingan dan bahaya? Ini bukan hanya masalah teknis, tetapi juga tanggung jawab sosial yang menyangkut nyawa.


Pengingat dari DigiZone: Kehidupan tak ternilai, AI hanyalah alat, tidak bisa menggantikan dukungan psikologis profesional. Jika Anda atau orang terdekat mengalami depresi atau krisis mental, carilah bantuan manusia dengan berani.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan