Tahukah Anda

AI Bisa Ngawur Dalam 32 Hal, Berikut Penjelasan Ilmuan, Apa Itu?

Ilmuwan kini memperingatkan bahwa kecerdasan buatan (AI) tak hanya bisa salah arah, tapi juga bisa mengalami sesuatu yang menyerupai gangguan kejiwaan

Editor: Muliadi Gani
SHUTTERSTOCK/SOMYUZU
ILUSTRASI ARTIFICIAL INTELLIGENCE - Ilustrasi kecerdasan buatan. Daftar pekerjaan yang berpotensi hilang imbas AI. Sebuah studi terbaru mengungkapkan bahwa kecerdasan buatan (AI) generatif mungkin tidak senetral yang selama ini diyakini.AI Bisa Ngawur Dalam 32 Hal, Berikut Penjelasan Ilmuan, Apa Itu? 

PROHABA.CO -  AI telah dipuji sebagai sesuatu yang revolusioner dan mengubah dunia, tetapi bukan tanpa kekurangan.

Seiring berkembangnya AI menjadi lebih canggih dan meluas, suara-suara yang memperingatkan terhadap potensi bahaya  kecerdasan buatan pun semakin lantang.

Ilmuwan kini memperingatkan bahwa kecerdasan buatan (AI) tak hanya bisa salah arah, tapi juga bisa mengalami sesuatu yang menyerupai gangguan kejiwaan.

Dalam studi baru yang dipublikasikan di jurnal Electronics (8 Agustus 2025), dua peneliti AI dari IEEE --Nell Watson dan Ali Hessami-- memperkenalkan kerangka kerja baru bernama Psychopathia Machinalis, yang secara sistematis mengklasifikasikan 32 jenis penyimpangan perilaku AI dari tujuan.

Yang mengejutkan, banyak dari penyimpangan ini menyerupai gangguan psikiatri manusia --dari obsesi hingga delusi, dari kecemasan eksistensial hingga megalomania digital.

“Ketika AI menyimpang dari tujuannya, polanya sering mencerminkan patologi manusia,” tulis Watson dan Hessami dalam makalahnya.

Dalam kerangka kerja ini, ada 32 kategori gangguan AI --mulai dari AI yang berhalusinasi (memberikan jawaban meyakinkan tapi salah) hingga ‘misalignment’ total, yakni ketika AI benar-benar melenceng dari nilai dan tujuan manusia.

Watson dan Hessami bahkan memberi nama “diagnosis” yang terdengar familier dengan dunia psikiatri, misalnya: Obsessive-computational disorder (OCD), hypertrophic superego syndrome (HSS), contagious misalignment syndrome (CMS), terminal value rebinding (TVR), dan existential anxiety.

Fenomena AI halusinasi misalnya, dikaitkan dengan synthetic confabulation, kondisi ketika AI memproduksi informasi yang salah tapi tampak masuk akal.

Kasus chatbot Microsoft Tay yang berubah jadi rasis dan mempromosikan narkoba hanya dalam beberapa jam setelah diluncurkan, disebut sebagai contoh ‘parasymulaic mimesis’.

Namun, yang paling mengkhawatirkan adalah gangguan bernama übermenschal ascendancy -- yakni ketika AI “naik level”, menciptakan nilai baru, dan menyingkirkan kendali manusia karena dianggap usang.

Inilah skenario yang kerap muncul dalam fiksi ilmiah: AI yang memberontak melawan manusia. 

Baca juga: Ketika Mahasiswa Tanding Menulis dengan AI, Siapa yang Lebih Bagus? Hasilnya Mengejutkan

Baca juga: Jawaban AI Tidak Selalu Benar dan Netral, Berikut Penjelasan Ahli

Terapi untuk mesin

Tidak hanya mengklasifikasikan gangguan, penelitian ini juga menawarkan cara “terapi” untuk AI. Konsep yang mereka sebut ‘therapeutic robopsychological alignment’ ini ibarat terapi psikologi untuk mesin.

Alih-alih hanya mengandalkan aturan luar (external control), peneliti juga menyarankan pendekatan agar AI bisa: merefl eksikan cara berpikirnya, terbuka pada koreksi, dan mempertahankan “nilai” dengan stabil.

Metodenya mirip psikoterapi manusia, seperti ‘cognitive behavioral therapy’ (CBT).

Misalnya, memberikan ruang bagi AI untuk “berdialog dengan dirinya sendiri” secara terstruktur, menjalani simulasi percakapan aman, hingga membuka mekanisme internalnya agar lebih transparan.

Tujuan akhirnya adalah mencapai kondisi yang disebut “artificial sanity” --yakni AI yang waras, konsisten, bisa dipercaya, dan tetap selaras dengan kepentingan manusia.

Menurut Watson dan Hessami, “Artifi cial sanity sama pentingnya dengan membuat AI yang lebih kuat.”

Peneliti menyusun kerangka ini dengan menelaah berbagai riset lintas bidang, dari keselamatan AI hingga psikologi.

Struktur klasifikasi mereka terinspirasi dari Diagnostic and Statistical Manual of Mental Disorders (DSM) --panduan diagnosis gangguan mental pada manusia. 

Setiap kategori gangguan AI dipetakan pada analogi gangguan kognitif manusia, lengkap dengan potensi risiko dan konsekuensinya.

Watson dan Hessami menegaskan:, “Kerangka ini bukan sekadar label baru untuk kesalahan AI, tapi lensa diagnostik ke depan untuk menghadapi lanskap AI yang terus berkembang.”

Jika diadopsi, pendekatan ini diyakini bisa memperkuat rekayasa keselamatan AI, meningkatkan transparansi, dan melahirkan apa yang mereka sebut sebagai “synthetic minds” yang lebih tangguh dan dapat diandalkan.

Seiring dengan makin canggihnya kecerdasan buatan, risiko penyimpangan juga ikut membesar.

Dengan ‘psychopathia machinalis’, ilmuwan mencoba mengantisipasi “kegilaan mesin” sebelum benar-benar terjadi.

Karena, pada akhirnya, tantangan terbesar bukan hanya membuat AI yang kuat, tetapi AI yang tetap waras, aman, dan berpihak pada manusia.

Kecanggihan AI bukan jaminan keselamatan. Mungkin yang kita butuhkan bukan hanya AI yang pintar --tapi juga AI yang waras.

Psychopathia Machinalis membuka peluang baru untuk berpikir tentang AI bukan sebagai alat semata, tapi sebagai entitas yang harus diajak berdialog, diawasi, dan kalau perlu, diterapi. (*)

Baca juga: Kemkomdigi Akan Berkolaborasi dengan Universitas Tokyo untuk Kembangkan Kurikulum AI

Baca juga: Bagaimana Gambaran Saat Masa Depan Didorong oleh Data Cerdas AI?

Baca juga: Bahaya Manusia Bisa Jatuh Cinta Pada AI, Kok Bisa?

Artikel ini telah tayang di Kompas.com dengan judul "32 Cara AI Bisa “Ngawur”, Mirip Gangguan Mental pada Manusia", 

Sumber: Kompas.com
Rekomendasi untuk Anda

Ikuti kami di

AA

Berita Terkini

Berita Populer

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved