Selular.ID – Pendiri Wikipedia mengatakan dia tak khawatir dengan ancaman yang ditimbulkan oleh konten yang dihasilkan oleh kecerdasan buatan (AI), termasuk dari Grokipedia milik Elon Musk, karena informasi tersebut cenderung penuh dengan kesalahan.
“Mengapa saya pergi ke Wikipedia? Saya pergi ke Wikipedia karena itu adalah pengetahuan yang diverifikasi oleh manusia,” kata Jimmy Wales, pendiri ensiklopedia internet populer tersebut, yang artikelnya ditulis dan diedit oleh sukarelawan manusia.
“Kami tidak akan mempertimbangkan untuk membiarkan AI menulis artikel Wikipedia karena kami tahu seberapa buruk hasilnya. Jadi saya pikir itu bukan masalah yang perlu dikhawatirkan.”
Di antara masalah dengan output dari model bahasa besar (LLM) seperti ChatGPT milik OpenAI dan Gemini milik Alphabet Inc., katanya, adalah frekuensi tinggi di mana mereka masih menghasilkan “halusinasi,” atau informasi yang salah atau menyesatkan.
Inilah sebabnya Wales tidak khawatir tentang persaingan dari pesaing seperti Grokipedia, ensiklopedia daring yang dihasilkan oleh AI yang diluncurkan tahun lalu oleh xAI milik Musk, yang ia sebut sebagai “tiruan kartun dari ensiklopedia.”
Baca juga:
- OpenAI Rintis Gadget AI Pertamanya, Disebut Jadi Pengganti HP
- OpenAI Tak Tampilkan Iklan Bagi Pengguna ChatGPT Gratisan, Ini Syaratnya
Wales membuat komentar tersebut dalam wawancara pekan ini di sela-sela India AI Impact Summit di New Delhi, sebuah acara yang dihadiri lebih dari selusin kepala negara dan pejabat teknologi dari OpenAI, Alphabet Inc., Anthropic PBC, dan lainnya.
Halusinasi AI menjadi semakin mencolok dan umum seiring dengan semakin kabur atau spesifiknya topik yang dibahas, kata Wales.
Nilai dari artikel yang dibuat oleh manusia adalah bahwa mereka mendapat manfaat dari kontribusi para ahli di bidangnya, yang membantu mencegah ketidakakuratan dan menghasilkan artikel yang lebih informatif, kata dia.
“Orang-orang itu obsesif,” katanya. “Kontekstualisasi manusia yang kaya dan mendalam sebenarnya sangat penting dalam memahami apa yang diinginkan dan dibutuhkan pembaca.”
Sebuah studi tahun 2025 oleh OpenAI menemukan bahwa halusinasi masih umum terjadi bahkan pada model-model canggihnya, dengan tingkat halusinasi mencapai 79% dalam beberapa tes.
“Masalah halusinasi semakin parah seiring dengan semakin spesifiknya topik, dan oleh karena itu, untuk bidang-bidang yang mungkin kita pikir membutuhkan bantuan, sebenarnya sangat, sangat buruk,” kata Wales.













































