8.1 C
New York
Monday, October 28, 2024

Kerap Berikan Jawaban Ngasal, Pakar: AI Sering Halusinasi

AI generatif bisa makin akurat memberikan jawaban apabila mendapat contoh-contoh akurat yang biasanya bersumber dari web publik. Model AI mempelajari seberapa besar kemungkinan data muncul berdasarkan pola, termasuk konteks data di sekitarnya.

“Kerangka kerja pelatihan LLM saat ini melibatkan penyembunyian, atau ‘masking’ kata-kata sebelumnya sebagai konteks,” kata Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London.

“Ini secara konseptual mirip dengan menggunakan teks prediktif di iOS dan terus menekan salah satu kata yang disarankan berikutnya,” sambung dia.

Pendekatan berbasis probabilitas ini bekerja dengan sangat baik dalam skala besar, meskipun rentang kata dan probabilitasnya cenderung menghasilkan teks yang masuk akal, hal ini masih jauh dari kata pasti.

Baca juga : Pakar ITB Ungkap Penyebab Air Minum Indonesia Tercemar Tinja

Vu Ha, seorang peneliti dan insinyur terapan di Allen Institute for Artificial Intelligence, menegaskan bahwa LLM “memang akan selalu berhalusinasi.”

Namun, ia juga percaya bahwa ada cara-cara konkret untuk mengurangi halusinasi, yaitu tergantung bagaimana LLM dilatih dan digunakan.

“Pertimbangkan sistem penjawab pertanyaan,” kata Ha.

“Kita bisa merekayasa sistem ini agar memiliki akurasi yang tinggi dengan mengkurasi basis pengetahuan yang berkualitas tinggi untuk pertanyaan dan jawaban, dan menghubungkan basis pengetahuan ini dengan LLM untuk memberikan jawaban yang akurat melalui proses pencarian,” sambung dia. (cnn/hm18)

Related Articles

Latest Articles