8.1 C
New York
Monday, October 28, 2024

Kerap Berikan Jawaban Ngasal, Pakar: AI Sering Halusinasi

Jakarta, MISTAR.ID

Platform chatbot dengan kecerdasan buatan alias AI sering kali memiliki jawaban dari sejumlah pertanyaan pengguna. Namun apakah jawaban mereka benar atau malah sekadar asal-asalan?

Large language models (LLMs) seperti ChatGPT dari OpenAI, semuanya memiliki masalah yang sama yaitu mereka mengada-ada jawaban.

Bukan tanpa alasan, hal itu berdasarkan jawaban yang mengklaim bahwa Jembatan Golden Gate diangkut melintasi Mesir pada 2016. Tak jarang jawaban yang dihasilkan bukan lagi dalam tahap bermasalah, tapi justru membahayakan.

Baca juga : Akademisi: Pembuatan MoU Pelajar Tawuran Sebaiknya Melibatkan Pakar Pendidikan

Seorang walikota di Australia baru-baru ini mengancam akan menuntut OpenAI karena ChatGPT secara keliru menyebut dia mengaku bersalah dalam skandal penyuapan besar yang dilihat, Minggu (27/10/24).

Para peneliti telah menemukan bahwa halusinasi LLM dapat dieksploitasi untuk mendistribusikan paket kode berbahaya kepada pengembang perangkat lunak yang tidak menaruh curiga. LLM sering kali memberikan nasihat kesehatan mental dan medis yang buruk, seperti konsumsi anggur dapat “mencegah kanker”.

Kecenderungan untuk menciptakan “fakta” ini adalah fenomena yang dikenal sebagai halusinasi, dan ini terjadi karena cara LLM saat ini beroperasi dengan cara dikembangkan dan dilatih.

Model AI generatif tidak memiliki kecerdasan yang nyata karena mereka adalah sistem statistik yang memprediksi kata, gambar, ucapan, musik, atau data lainnya.

Related Articles

Latest Articles