
Nusantara1News – CEO Tesla, Elon Musk, menyatakan bahwa hanya sedikit data dunia nyata yang tersisa untuk melatih model kecerdasan buatan (AI). Dalam siaran langsung terbaru, Musk mengungkapkan bahwa “data puncak” yang dapat digunakan AI sudah hampir tercapai, dengan sebagian besar pengetahuan manusia yang tersedia telah digunakan dalam pelatihan AI.
“Kami telah memanfaatkan hampir seluruh kumpulan pengetahuan manusia untuk melatih AI,” ujar Musk di platform media sosial X, seperti dilaporkan oleh TRT World pada Sabtu (11/1) seperti yang dikutip dari laman CNN Indonesia. Menurutnya, hal ini telah terjadi sejak tahun lalu.
Baca Juga : 7 Gaya Penipuan Terbaru Sedot Rekening, dari Kode QR hingga Undangan
Musk, yang meluncurkan perusahaan AI miliknya sendiri bernama xAI pada 2023, memperkirakan bahwa perusahaan teknologi akan mulai mengandalkan data “sintetis” yaitu, data yang dihasilkan oleh AI itu sendiri untuk memungkinkan pembelajaran mandiri di masa depan.
“Satu-satunya cara untuk mengatasinya adalah melalui data sintetis, di mana data tersebut akan menghasilkan esai atau tesis, lalu mengevaluasi dan mempelajari hasilnya secara mandiri,” ungkap Musk, pemilik platform media sosial X (sebelumnya dikenal sebagai Twitter).
Namun, Musk menyoroti potensi risiko dalam proses ini. Ia menjelaskan bahwa kecenderungan model AI untuk menghasilkan “halusinasi”, yakni informasi yang tidak akurat atau tidak logis dapat menjadi hambatan besar dalam penggunaan data sintetis.
“Halusinasi ini membuat data buatan menjadi sulit diandalkan,” ujar Musk. “Karena bagaimana Anda memastikan apakah jawaban yang diberikan adalah hasil dari halusinasi atau memang jawaban yang sebenarnya,” ujarnya.
Andrew Duncan, Direktur AI Dasar di Alan Turing Institute di Inggris, mencatat bahwa pernyataan Elon Musk sejalan dengan penelitian akademis terbaru yang memperkirakan data publik untuk melatih model AI dapat habis pada tahun 2026, seperti dilaporkan oleh The Guardian.
Baca Juga : Indonesia Percepat Digitalisasi, Presiden Prabowo Setujui Pembentukan Komite Khusus
Duncan memperingatkan bahwa ketergantungan yang berlebihan pada data sintetis dapat memicu “keruntuhan model,” yang ditandai dengan penurunan kualitas hasil yang dihasilkan oleh model AI.
“Ketika Anda mulai menggunakan data sintetis untuk melatih model, kualitas output akan semakin menurun,” jelasnya. Ia juga menekankan potensi risiko berupa bias dalam hasil model serta penurunan kreativitas.
Lebih lanjut, Duncan mencatat bahwa meningkatnya jumlah konten berbasis AI yang tersedia secara daring dapat mengakibatkan hal ini dimasukkan ke dalam data pelatihan AI.