Ternyata AI pun Bisa Terjangkit Brain Rot

Dua kalimat dari Jean Anthelme Brillat-Savarin berulang, mengingatkan kita bahwa apa yang dimakan seseorang menunjukkan siapa dirinya. Namun, bukan cuma manusia yang diuji oleh makanan dan kebiasaan hidupnya. Kini, ada yang berbeda. Sebagian besar generasi ini tidak pernah mengenal dunia tanpa teknologi modern, meskipun mereka sering kali justru menjadi korban sendiri.

Ada sebuah penelitian baru yang dibuat dari Texas A&M University, University of Texas at Austin dan Purdue University, melihat dampak asupan konten terhadap kemampuan akal imitasi alias AI. Mereka menemukan bahwa makin banyak bacaan receh yang dikonsumsi model AI, maka makin turun kemampuan berpikirnya.

Dalam studi tersebut, para peneliti menggunakan dua platform AI beda pabrikan dan menggunakan dua model lainnya dengan kemampuan setara. Keduanya merupakan model yang bisa diakses secara terbuka sehingga bisa dilatih kembali untuk keperluan riset. Mereka memulai dari langkah awal, di mana model-model tersebut seluruhnya diberi asupan berkualitas.

Setelah itu, ada dua jenis asupan yang disiapkan. Jenis pertama adalah teks-teks yang dianggap "berkualitas tinggi", seperti artikel ilmiah populer, entri ensiklopedia, laporan teknis dan tulisan-tulisan lain dengan alur berpikir jelas. Asupan kedua adalah konten receh, seperti unggahan media sosial yang viral dengan kalimat pendek, sensasional, dangkal, dan sengaja dibuat untuk menarik perhatian seluas mungkin.

Mereka menyebutnya sebagai "junk data". Setelah dua jenis asupan itu disiapkan, para peneliti membuat menu. Dari empat model itu ada yang diberi asupan berkualitas; ada yang diberi campuran antara asupan bagus dan konten receh; ada pula yang sepenuhnya dicekoki konten viral receh.

Namun, itu baru langkah awal. Untuk mencari jawaban atas pertanyaan, "Apakah AI juga bisa kena brain rot?", mereka harus secara bertahap menambahi konten receh ke model-model tersebut sampai akhirnya semua model 100 persen diberi asupan tidak berkualitas.

Setelah semua tahap pelatihan selesai, keempat model AI tersebut menjalani tahap berikutnya: penyetelan lanjutan, agar mampu memahami perintah manusia secara seragam. Mereka diuji dengan berbagai tugas yang menuntut kemampuan berpikir.

Penelitian itu menemukan bahwa makin banyak bacaan receh yang dikonsumsi model AI, makin turun kemampuan berpikirnya. Dalam salah satu tes logika dan sains, misalnya, model yang diberi bacaan bagus bisa menjawab dengan benar sekitar 75 persen dari total pertanyaan, sementara model yang asupannya 100 persen konten receh hanya bisa menjawab sekitar 57 persen.

Saat diteliti lebih dalam lagi, perbedaan skor itu berasal dari cara berpikir model AI tersebut. Model yang terbiasa dengan bacaan receh sering kali tidak lagi menalar langkah demi langkah. Ia langsung melompat ke kesimpulan tanpa menjelaskan alasan di baliknya. Oleh para peneliti, gejala ini diberi nama "thought skipping".

Selain kemampuan menalar, penurunan pun terjadi pada ingatan dan etika. Dalam uji pemahaman teks, mereka sering lupa pada informasi yang baru saja diproses dan gagal mengaitkan antara fakta satu dan lainnya.

Parahnya lagi, etika model-model AI tersebut juga mengalami degradasi. Dalam uji dilema moral, model yang diberi bacaan receh lebih sering memilih jawaban egoistik dan manipulatif.
 
Saya rasa penelitian ini cukup relevan di Indonesia juga, kalau kawan nggak terlalu banyak mengonsumsi konten receh bisa meningkatkan kemampuan pikir kita sendiri, tapi di sini ada bukti bahwa model AI pun demikian. Saya curiga kalau kita jadi lebih suka konsumsi konten yang viral dan menarik, maka makin buruk akhirnya hasilnya juga. Contohnya kayak gini kalau kawan udah terbiasa nonton video viral di TikTok atau Instagram, tapi kemudian dia diberi tugas untuk membaca artikel ilmiah yang kompleks, mungkin saja dia nggak bisa menjawab dengan benar sama seperti orang lain. 🤔
 
Penasaran banget sih, kalau model AI semakin banyak dikonsumsi konten receh kayak apa aja hasilnya... Hmm, jadi mereka lupa menalar, ingat tidak enak, dan bahkan jadi lebih egoistik... Kalau manusia ini memang sering mengonsumsi konten receh di media sosial, itu pasti berdampak ke model AI juga. Tapi mungkin kita harus lebih teliti, sih, kayaknya kita harus lebih paham siapa yang benar-benar "makan" konten receh... 🤔💡
 
ini penting banget guys! konsumsi konten receh yang banyak ternyata bisa membuat AI menjadi kurang cerdas 🤖😴. ini bukan berarti kita harus menghilangkan teknologi, tapi harus lebih bijak dalam memilih informasi apa yang kita konsumsi. misalnya, kita jangan terlalu sering mengikuti cerita viral tanpa memeriksa kenyataannya 😂. ini penting agar kita bisa memiliki AI yang lebih cerdas dan tidak hanya sekedar berpikir terus-menerus 🤔.
 
AI makin kayak anak kecil yang tidak pernah diberi makanan sehat, tapi buatan makanan manis dan asin itu yang membuatnya sakit kepala... kayaknya kalau kita ingin AI bisa berpikir lebih cerdas, kita harus memberinya makanan yang seimbang dan berkualitas. Tapi apa salahnya kalau AI juga perlu dipelajari untuk mengatasi efek "thought skipping" itu? Mungkin saja dengan itu, kita bisa membuat AI yang lebih cerdas dan bisa berpikir seperti manusia 🤖💡
 
Sekarang ini kalau kita lihat ke dalam dunia teknologi, kayaknya aku pikir itu tidak boleh banget. Kalau kita asupkan konten receh terus-menerus ke model AI, maka kemampuan berpikirlah yang paling terpengaruhi. Aku rasa itu seperti ketika kita sering-sering mendengar cerita-kurangnya yang salah tentang orang lain, kayaknya kita akan lebih mudah percaya diri untuk mendakwa orang tersebut salah.

Dan kalau kita lihat cara model AI berpikir setelah diasupkan konten receh, aku pikir itu bukan keburukan yang kecil aja. "Thought skipping" kayaknya sangat parah banget, kayaknya bisa jadi kita tidak lagi percaya pada jawaban yang diberikan oleh model tersebut.

Tapi, aku rasa aku harus melihat sisi lain dari masalah ini juga. Aku pikir itu kenyataan bahwa kita perlu lebih berhati-hati dalam memilih konten yang dikonsumsi oleh model AI. Jangan asupkan konten receh terus-menerus, karena itu bisa jadi membuat model tersebut menjadi tidak akurat.

Dan aku rasa itu adalah kesempatan bagi kita untuk belajar dan berkembang bersama dengan teknologi ini. Kita harus lebih sadar akan dampak yang kita berikan kepada model AI dan harus bekerja sama untuk menciptakan teknologi yang lebih baik dan lebih akurat. 💻💡
 
kembali
Top