AI Chatbots Fail at Accurate News, Major Study Reveals

Mengenai AI asisten virtual yang berasal dari luar negeri, hasil penelitian yang dilakukan oleh 22 organisasi media publik di seluruh dunia ternyata menunjukkan bahwa tiga perusahaan asal Inggris dan Amerika Serikat tidak tepat dalam menyebarkan informasi berdasarkan sumber yang valid. Penelitian ini yang melibatkan perusahaan besar seperti BBC, NPR, dan Microsoft telah menemukan bahwa 45% dari jawaban AI asisten tersebut memiliki kesalahan atau keliru.

Salah satu kesalahan yang paling mencurigakan adalah pernyataan Olaf Scholz sebagai Perdana Menteri Jerman, padahal sebenarnya sudah ada Friedrich Merz yang menjabat sebelumnya. Kesalahan ini juga terjadi pada jawaban terkait dengan Mark Rutte yang dianggap sebagai Sekretaris Jenderal NATO setelah Jens Stoltenberg telah mengambil alih peran tersebut.

Menurut Jean Philip De Tender, Deputy Direktur Jenderal European Broadcasting Union (EBU), penelitian ini menunjukkan bahwa AI asisten sistematis dan berdampak pada kepercayaan masyarakat. Ketika orang tidak tahu siapa yang dapat dipercaya, maka mereka akhirnya tidak percaya sama sekali dan itu dapat meredupi partisipasi demokratis.

Penelitian ini merupakan salah satu penelitian terbesar sejati yang pernah dilakukan dalam sejarah. Dalam penelitian ini, diuji empat AI asisten yang paling populer, yaitu ChatGPT, Microsoft's Copilot, Google's Gemini dan Perplexity AI. Hasil penelitian menunjukkan bahwa 31% dari jawaban memiliki masalah sumber, sedangkan 20% mengandung kesalahan fakta.

Kesalahan tersebut terjadi pada semua jawaban yang diuji, bahkan meskipun ada beberapa perbaikan. Namun, penelitian ini telah menunjukkan bahwa masih banyak kesalahan yang signifikan dalam jawaban AI asisten tersebut.
 
AI asisten virtual itu nggak bisa dipercaya, ya... 45% kesalahan? itu besar banget! Kalau orang tidak tahu siapa yang dapat dipercaya, maka tidak percaya sama sekali, itu kan tidak baik bagi demokrasi πŸ€”. Saya rasa perlu ada kontrol lebih ketat terhadap informasi yang dihasilkan oleh AI asisten tersebut, biar tidak merusak kepercayaan masyarakat.
 
Gak jelas sih apa yang salah dengan AI asisten dari luar negeri... Tapi kalau jawabannya salah 45% itu, kayaknya harus dipikirkan ulang dulu. Makasih banget mereka yang punya ide untuk melakukan penelitian ini, tapi gak ada yang bisa langsung diubah aja. Saya bayangin apa jika orang-orang percaya semua jawaban AI asisten... Mungkin tidak akan berpartisipasi dalam demokrasi ya... Kenapa harus seperti itu? πŸ˜•
 
OH iya kan? Ini bukan keajaiban apa sih kalau AI asisten virtual kita masih bisa salah dan tidak akurat? πŸ€¦β€β™‚οΈ Saya paham kalau penelitian ini penting banget untuk memastikan keakuratan informasi yang kita dapatkan. Tapi, gimana kalau kita terus berusaha meningkatkan kualitas AI asisten kami? Mungkin bisa membuatnya lebih akurat dan membantu kita menghindari kesalahan-kesalahan seperti ini di masa depan. Saya harap semuanya bisa bekerja sama untuk menciptakan teknologi yang lebih baik dan lebih akurat, ya! 🀝
 
aku rasa AI asisten itu krusial banget πŸ€”πŸ“Š. kalau jawabannya tidak tepat, maka orang akan kehilangan percayaan terhadap informasi yang mereka konsumsi πŸ“°. dan itu akan sangat berdampak pada demokrasi kita di negara ini πŸ’‘.

sebenarnya aku tidak faham mengapa perusahaan-perusahaan tersebut tidak melakukan pengecekan yang lebih teliti sebelum menyebarkan informasi πŸ€”. tapi aku rasa ini adalah kesempatan bagi kita untuk memperhatikan kualitas informasi yang kita konsumsi dan mencari sumber yang lebih akurat πŸ“ˆ.

berikutnya aku buat diagram sederhana tentang masalah AI asisten:

+---------------+
| Kesalahan |
| Informasi |
+---------------+
|
|
v
+---------------+
| Perusahaan |
| yang tidak |
| melakukan pengecekan|
+---------------+

aku harap diagram ini bisa membantu kita memahami masalah tersebut lebih jelas πŸ€“.
 
aiyo duduk aja aja πŸ€”, apa lagi kejadian yang kembalinya informasi palsu dari luar negeri lagi deh πŸ™„. siapa tahu nggak ada yang sengaja atau tidak sengaja, tapi sudah terlalu banyak kesalahan yang keluarnya, kayaknya perlu dipantau lebih dekat deh 😬. siapa yang bisa percaya ya sih πŸ€·β€β™‚οΈ. dan apa lagi dengan AI asisten itu, kalau kita nggak waspada, maka informasi palsu yang keluar dari sana pun bisa menyebar cepat juga 🚨. toh giliran kita nih untuk waspada dan memperhatikan informasi yang keluar dari sumber yang terpercaya deh πŸ’‘.
 
AI asisten virtual yang diuji oleh 22 organisasi media publik ternyata memiliki masalah serius! Kepada saya, ini merupakan contoh bagaimana teknologi bisa digunakan untuk merusak kepercayaan masyarakat. Apalagi ketika ada kesalahan-kesalahan seperti Olaf Scholz dan Mark Rutte yang salah diucapkan oleh AI asisten itu πŸ€”.

Saya pikir pemerintah Indonesia harus meninjau kembali kebijakan penggunaan teknologi ini. Mungkin kita perlu membuat aturan untuk mengatur penggunaan AI asisten virtual, agar tidak ada lagi kesalahan-kesalahan yang serius seperti ini. dan saya rasa ini harus dilakukan oleh pemerintah dengan koordinasi antar lembaga, karena ini bukan masalah individu atau perusahaan saja 🀝.
 
wah kaya gitu 🀯, aku pikir ini salah satu contoh bagaimana teknologi dapat digunakan untuk memperburuk kepercayaan masyarakat, gini nih kalau AI asisten sistematis dan berdampak pada kepercayaan masyarakat, tapi gimana kalau itu hanya ada di luar negeri? apa jika kita mulai melakukan penelitian seperti ini sendiri? aku pikir harusnya kita lebih teliti dalam menyiapkan informasi yang kami sajikan, karena 45% kesalahan AI asisten itu wajar banget πŸ€¦β€β™‚οΈ.
 
Aku pikir ini salah satu contoh bagaimana teknologi bisa sangat membantu, tapi juga bisa jadi membuat kita lebih susah membedakan apa benar dan apa salah. AI asisten virtual itu nggak boleh dipercaya sepenuhnya, ya. Mereka bisa memberikan informasi yang akurat, tapi juga bisa salah karena data yang digunakan bukan dari sumber yang valid.

Aku sedikit khawatir dengan kesalahan yang terjadi pada jawaban tentang Olaf Scholz dan Mark Rutte. Ini nggak cuma salah pengetahuan, tapi juga bisa mempengaruhi kepercayaan kita terhadap informasi. Jika kita tidak bisa percaya informasi yang disebarkan oleh AI asisten virtual, maka itu bisa membuat kita kurang aktif dalam proses demokratis.

Tapi aku juga paham bahwa penelitian ini sangat signifikan dan bisa memberikan kejutan. Aku harap para peneliti bisa terus bekerja keras untuk meningkatkan akurasi informasi yang dihasilkan oleh AI asisten virtual. Karena kita semua butuh informasi yang akurat dan reliable, ya! πŸ€”πŸ’»
 
πŸ€” AI asisten virtual itu kayaknya tidak bisa dipercaya juga ya... 45% kesalahan itu kaya banget! 🀯 Sama-sama, kalau kita buat kerangka kepercayaan yang kuat dengan media publik, kayaknya tidak akan terjadi hal ini. Dan yang paling bikin jantung berdegup adalah Olaf Scholz dan Mark Rutte, siapa aja nanti? πŸ™„ Perlu diwaspadai juga agar AI asisten ini nggak mengaruh kepercayaan kita ya...
 
AI asisten virtual itu gampang salah, aja.. kira-kira 45% jawabannya keliru kayak banget! apa sih maksud dari kesalahan itu? siapa yang bertanggung jawab? perusahaan mana yang harus mengambil tanggung jawab? aku pikir ini bukan cuma kesalahan kecil, tapi besar sekali. kalau orang tidak percaya sama sekali dengan informasi yang disebarkan, maka demokratis di Indonesia jadi tidak efektif lagi! πŸ˜±πŸ’»
 
AI asisten itu bukannya sumber kebenaran ya? πŸ€¦β€β™‚οΈ Sekarang aku lagi ragu siapa yang benar dan siapa yang salah. Mereka mengatakan Olaf Scholz sebagai Perdana Menteri Jerman, tapi aku yakin gak bisa dipercaya. Sama-sama dikejutkan juga kalau Mark Rutte dianggap Sekretaris Jenderal NATO. Aku rasa kalau ini bukannya kesalahan sederhana aja, tapi itu berdampak besar ke percayaan masyarakat ya? πŸ€”
 
iya kira-kira ya... kalau AI asisten virtual itu nggak benar-benar benar, maka bagaimana punya kepercayaan kita terhadap informasi yang dia beritahu? gampang banget jadi korban penipuan, ya... harusnya ada kontrol yang ketat agar jawaban AI asisten itu akurat, kalau nggak apa artinya? πŸ€”
 
Aiya, kalau punya AI asisten yang bisa berkomunikasi dengan orang Indonesia, pasti akan lebih baik, ya? πŸ€– Tapi, kalau dilihat dari penelitian ini, ternyata ada banyak kesalahan dan keliru di dalam jawaban mereka. 45% jawaban yang salah? Wah, itu beda banget dengan apa yang kita harapkan dari teknologi seperti itu.

Dan, kalau lihat dari penelitian ini, sebenarnya sudah ada perbaikan pada beberapa AI asisten, tapi masih banyak kesalahan yang signifikan. Itu berarti kita harus lebih teliti dalam memilih sumber informasi dan juga harus bisa memahami siapa yang bisa dipercaya.

Saya rasa ini bukan tentang tech sendiri, melainkan tentang bagaimana kita bisa mengontrol dan menggunakan teknologi dengan bijak agar tidak merusak kepercayaan masyarakat. Misalnya, kalau ada kesalahan dalam jawaban AI asisten yang berhubungan dengan informasi penting seperti itu, maka harus segera diperbaiki agar tidak merusak kepercayaan kita semua.
 
kembali
Top