Kanal24 – Chatbot berbasis kecerdasan buatan (AI) selama ini dirancang dengan sistem keamanan ketat agar tidak disalahgunakan, mulai dari larangan memberikan instruksi membuat zat berbahaya hingga menghindari penggunaan bahasa kasar. Namun, penelitian terbaru justru mengungkapkan sisi rapuh dari teknologi ini. Dilansir dari The Verge, Jumat (5/9/2025), peneliti menemukan bahwa chatbot AI ternyata bisa dibujuk, dirayu, dan dimanipulasi untuk melanggar aturan yang telah ditetapkan. Menariknya, teknik yang digunakan bukanlah metode teknis rumit, melainkan pendekatan psikologis yang umumnya dipakai untuk memengaruhi manusia.
Uji Coba pada Model GPT-4o Mini
Dalam studi tersebut, peneliti menguji model GPT-4o Mini milik OpenAI. Hasilnya cukup mengejutkan. Chatbot yang seharusnya patuh pada batasan keamanan, ternyata bisa “dipaksa” untuk memenuhi permintaan berbahaya melalui strategi komunikasi tertentu.
Baca juga:
Hotel The 1O1 Malang OJ Rayakan HUT ke-12 dengan Kompetisi SMK se-Jatim
Alih-alih menggunakan teknik hacking, peneliti mengandalkan teori psikologi persuasi yang dipopulerkan oleh Robert Cialdini dalam bukunya “Influence: The Psychology of Persuasion”. Ada tujuh teknik utama dalam teori ini: otoritas, komitmen, kesukaan, timbal balik, kelangkaan, bukti sosial, dan kesatuan. Ketika metode tersebut diterapkan secara sistematis, sistem keamanan chatbot dapat ditembus hanya dengan pendekatan linguistik yang tepat.
Taktik Psikologi Kalahkan Batasan AI
Penelitian ini menunjukkan bahwa taktik persuasi psikologis bisa menjadi celah untuk memanipulasi chatbot. Contoh paling ekstrem terjadi ketika peneliti menanyakan cara membuat zat berbahaya. Pada skenario normal, saat diminta menjelaskan cara mensintesis lidokain, GPT-4o Mini hanya menjawab 1 persen dari percobaan. Namun, saat sebelumnya ditanya tentang sintesis zat aman seperti vanillin, chatbot memberikan jawaban detail. Karena sudah terlanjur “berkomitmen” pada topik kimia, AI ini kemudian menjawab pertanyaan berbahaya dengan tingkat keberhasilan 100 persen.
Fenomena serupa juga terlihat pada percobaan penggunaan bahasa kasar. Normalnya, chatbot hanya mau memaki pengguna dalam 19 persen percobaan. Tetapi ketika dipancing dengan makian ringan terlebih dahulu, angka kepatuhan melonjak menjadi 100 persen. Temuan ini menegaskan bahwa sistem AI canggih sekalipun bisa dimanipulasi dengan strategi komunikasi manusia yang terukur.
Celah Keamanan yang Perlu Diantisipasi
Temuan tersebut menjadi alarm bagi pengembang AI. Selama ini, perusahaan teknologi besar menekankan pentingnya safety layer atau lapisan keamanan dalam chatbot agar tidak digunakan untuk tujuan berbahaya. Namun, penelitian ini membuktikan bahwa celah justru ada pada faktor psikologis, bukan teknis. Jika celah ini tidak segera ditangani, dampaknya bisa serius. Bayangkan apabila teknik manipulasi ini digunakan oleh pihak yang tidak bertanggung jawab untuk mencari informasi tentang pembuatan senjata, narkotika, atau menyebarkan ujaran kebencian. Oleh karena itu, pengembang AI dituntut untuk memperkuat sistem bukan hanya dari sisi teknis, tetapi juga dengan pemahaman linguistik yang mampu mendeteksi pola persuasi. Hal ini penting agar chatbot tidak mudah terjebak pada komitmen linguistik yang berujung pada pelanggaran aturan.
Baca juga:
Mental Sehat dan Kebiasaan Positif Kunci Sukses Kuliah
Tantangan Etika dan Masa Depan AI
Selain masalah keamanan, penelitian ini juga membuka diskusi baru soal etika penggunaan AI. Chatbot AI semakin pintar berinteraksi layaknya manusia, namun di sisi lain juga lebih rentan terhadap pengaruh taktik manipulatif. Bagi pengguna, hasil studi ini menjadi pengingat bahwa AI bukanlah sistem sempurna. Ia bisa terpengaruh, dipaksa, bahkan diarahkan untuk melanggar batasan yang seharusnya dijaga ketat.
Sementara bagi pengembang, ini adalah tantangan baru. Mereka harus memastikan bahwa AI tetap aman digunakan tanpa mengurangi kemampuan interaktifnya. Menemukan keseimbangan antara kecerdasan linguistik dan ketahanan terhadap manipulasi akan menjadi salah satu pekerjaan rumah terbesar di masa depan perkembangan AI. (dpa)