Jakarta, CNN Indonesia —
Platform chatbot dengan kecerdasan buatan atau AI seringkali memiliki jawaban atas sejumlah pertanyaan pengguna. Namun apakah jawaban mereka benar atau acak?
Model bahasa besar (LLM) seperti ChatGPT OpenAI semuanya memiliki masalah yang sama dalam menghasilkan respons.
Hal ini berdasarkan jawaban bahwa Jembatan Golden Gate dilewati wilayah Mesir pada tahun 2016, tidak berdasar. Reaksi yang ditimbulkan tidak lagi bermasalah, namun justru berbahaya.
Mengutip TechCrunch, seorang walikota Australia baru-baru ini mengancam akan menuntut OpenAI karena berbohong tentang pengakuan bersalah ChatGPT dalam skandal suap besar-besaran.
Para peneliti telah menemukan bahwa hantu LLM dapat digunakan untuk mendistribusikan paket kode berbahaya kepada pengembang perangkat lunak yang tidak menaruh curiga. LLM sering kali menyarankan kesehatan mental dan kesejahteraan, seperti minum anggur dapat ‘mencegah kanker’.
Kecenderungan untuk memalsukan “informasi” ini adalah fenomena yang dikenal sebagai ghosting, dan hal ini disebabkan oleh cara LL.M.
Model AI generatif tidak memiliki kecerdasan nyata karena merupakan sistem statistik yang memprediksi suara, gambar, ucapan, musik, dan data lainnya.
AI generatif seringkali dapat memberikan jawaban yang lebih akurat jika mengambil contoh akurat dari web publik. Model AI mempelajari kemungkinan munculnya data berdasarkan pola dengan konteks di sekitar data.
“Metode pengajaran LLM saat ini adalah menyembunyikan atau ‘menutupi’ kata-kata sebelumnya sesuai konteksnya,” kata Sebastian Barnes, Ph.D. di Universitas Queen Mary London.
“Ini seperti menggunakan teks prediktif di iOS dan terus-menerus mengklik salah satu kata yang disarankan berikutnya,” lanjutnya.
Pendekatan probabilistik ini bekerja sangat baik dalam skala besar, namun rentang kata dan probabilitasnya membuat teks menjadi masuk akal, namun tidak pasti.
Wu Ha, LL.M., seorang peneliti di Allen Institute for Artificial Intelligence dan seorang insinyur aplikasi, menegaskan bahwa “sebenarnya, hal itu selalu berhalusinasi.”
Namun, dia yakin ada cara khusus untuk mengurangi ghosting tergantung pada bagaimana LLM diajarkan dan digunakan.
“Pertimbangkan sistem tanya jawab,” kata Ha.
“Kami telah membangun basis pengetahuan berkualitas tinggi untuk kuis dan menghubungkan basis pengetahuan ini ke LLM untuk memberikan jawaban yang benar melalui proses pencarian, sehingga kami dapat membuat sistem ini sangat akurat,” lanjutnya.
Ha membedakan antara LLM dengan basis pengetahuan “berkualitas tinggi” yang dapat digunakan dan LLM dengan pemrosesan data yang ketat.
Ha juga percaya bahwa setiap sistem berbasis LLM menciptakan hantu. Namun, pertanyaannya tetap apakah manfaatnya lebih besar daripada dampak negatif halusinasi.
Selain itu, Burns menunjuk pada pendekatan lain yang berhasil digunakan untuk mengurangi ghosting LLM, yaitu pembelajaran dari umpan balik manusia (RLHF).
Pendekatan ini diperkenalkan oleh OpenAI pada tahun 2017, di mana RLHF melatih LLM, kemudian mengumpulkan data tambahan untuk melatih model dan menyempurnakan LLM dengan model tersebut melalui RLHF.
RLHF menghasilkan teks baru dengan meneruskan instruksi dari kumpulan data yang telah ditentukan sebelumnya melalui LLM.
OpenAI menggunakan RLHF untuk melatih beberapa modelnya, termasuk GPT-4. Namun RLHF pun tidak sempurna, kata Burns.
(bisa/tidak bisa)