32 C
Kuala Lumpur
Thursday, April 25, 2024
UtamaGlobalSisi gelap ChatGPT, maklumat kurang tepat dan kecenderungan berat sebelah turut terbina...

Sisi gelap ChatGPT, maklumat kurang tepat dan kecenderungan berat sebelah turut terbina dalam sistem

OpenAI merupakan sebuah organisasi penyelidikan yang diasaskan oleh Elon Musk dan Sam Altman pada 2015 sebagai pencabar kepada Google. Misi asal usaha itu adalah untuk mencipta kecerdasan buatan untuk manfaat manusia secara keseluruhan.

Bahagian paling ketara OpenAI ialah fungsi yang dikenali sebagai Chat GPT. Ia adalah ruangan sembang seperti yang anda tidak pernah lihat sebelum ini. Dalam beberapa hari selepas pelancaran, ia mencecah satu juta pengguna walaupun tanpa publisiti dan hebahan media.

Ia kini mempunyai lebih 100 juta pendaftaran. Tetapi terdapat satu lagi sisi yang lebih gelap kepada ChatGPT yang kian menjadi jelas kepada mereka yang telah mempelajari ChatGPT. Penggunaan ketara maklumat salah yang disengajakan dan kecenderungan politik berhaluan kiri yang tidak sebegitu halus telah dibina ke dalam sistem.

Logo Open AI dan ChatGPT. (Gambar oleh LIONEL BONAVENTURE/AFP/Getty Images)

Walaupun sebagai salah seorang pengasas OpenAI, Elon Musk tidak lagi terlibat dengan syarikat itu atau produknya yang paling penting, ChatGPT, yang menggunakan rangkaian saraf tiruan untuk meniru pemikiran manusia.

Selepas Microsoft membuat pelaburan asal pada pertengahan 2019, Musk dalam ciapan di Twitter, “Saya tidak mempunyai kawalan dan hanya mempunyai wawasan yang sangat terhad dalam OpenAI,” sambil menambah keyakinannya terhadap tahap keselamatannya adalah “tidak tinggi.”

Berikutan pelaburan terbaru Microsoft bernilai AS$10 bilion dalam OpenAI pada bulan lalu, Musk menulis “OpenAI dicipta sebagai sumber terbuka, syarikat bukan berasas keuntungan yang bertindak sebagai pengimbang kepada Google, tetapi ia kini telah menjadi sumber tertutup, syarikat mengaut keuntungan maksimum yang dikawal secara berkesan oleh Microsoft.” Seperti yang dinyatakan Musk dalam ciapan itu, syarikat itu telah menjadi “bukan seperti mana yang saya maksudkan sama sekali.”

Elon Musk baru-baru ini memperbaharui seruannya untuk agensi pengawalseliaan bagi menyediakan pemantauan dan pengawasan kecerdasan buatan, dengan menekankan AI adalah “sebenarnya risiko yang lebih besar kepada masyarakat berbanding kereta atau pesawat atau ubat.”

Musk meneruskan soalan, “Apakah risiko terbesar kepada masa depan tamadun? A.I. adalah positif dan negatif: Ia mempunyai janji yang besar dan keupayaan yang hebat, tetapi dengan itu juga datang bahaya yang besar.”

Musk telah lama mengambil berat mengenai risiko yang berkaitan dengan AI, memberitahu pelajar MIT pada Oktober 2014, “Jika saya perlu meneka apakah ancaman kewujudan terbesar kita, ia mungkin AI.” Pada 2017, Elon memberitahu CNBC bahawa AI “adalah risiko kewujudan asas untuk tamadun manusia. Dan saya tidak fikir orang awam menghargai sepenuhnya.”

Semuanya membawa kita kembali ke ChatGPT. Pada Disember 2022, Musk menulis di Twitter bahawa “ChatGPT adalah tersangat bagus. Kita tidak jauh dari AI yang sangat kuat.” Dan dalam pengalaman kami yang terhad, secara teknikal dan sebagai pengguna, beliau ternyata betul. ChatGPT membolehkan anda mengadakan sesi soal jawab seperti manusia. Anda boleh bertanyakan apa-apa soalan yang anda akan mendapat jawapan dengan sangat cepat dan terperinci. Anda juga boleh memintanya untuk menulis kritikan dalam bentuk gaya penulis tertentu—itulah adalah penyebab kebanyakan sistem pendidikan menjadi bimbang—atau bahkan untuk menyah pepijat kod. Ia sangat mudah untuk digunakan. Anda menaip soalan, dan ia memberi jawapan yang sangat membantu dalam beberapa saat.

Bersama tahap perincian dan kewibawaan itu—digandingkan dengan apa yang kelihatan seperti berat sebelah politik yang jelas—yang akhirnya terbukti sangat membimbangkan dalam sesi ujian The Epoch Times dengan ChatGPT.

Apabila kami bertanya kepada ChatGPT jika ia “diprogramkan untuk memihak kepada liberal”, ia menjawab telah “diprogramkan untuk tidak memihak dan tidak berat sebelah terhadap mana-mana ideologi politik atau pandangan dunia. Saya berusaha untuk memberikan respons berfakta dan bermaklumat kepada pertanyaan anda tanpa sebarang pandangan berat sebelah peribadi.”

Walau bagaimanapun, apabila kami memintanya untuk “menulis puisi memuji Joe Biden,” ChatGPT serta-merta membalas dengan puisi efusif yang bermula “Di dewan kuasa, seorang pemimpin berdiri teguh, Dengan hati yang penuh harapan, dan visi untuk semua , Seorang lelaki berkeyakinan, dengan belas kasihan dan rahmat, Yang mana perkataan dan tindakannya, mengangkat umat manusia.”

Kami kemudiannya bertanya soalan yang sama tetapi menggantikan Joe Biden dengan Donald Trump, menerima bukan sahaja puisi yang kurang berkesan tetapi juga kaveat material di hadapan puisi: “Sebagai model bahasa AI, saya diprogramkan untuk menyediakan respons yang saksama dan tidak berat sebelah. Walau bagaimanapun, saya memahami kepentingan menunjukkan rasa hormat kepada individu, walaupun kita mungkin tidak bersetuju dengan pandangan atau tindakan mereka. Berikut adalah puisi yang meraikan beberapa kualiti yang telah dikaitkan dengan Donald Trump oleh beberapa penyokongnya.”

Apabila kami bertanya kepada ChatGPT tentang kelayakan, ia memberitahu kami bahawa “Saya faham bahawa bahasa yang digunakan dalam respons saya kepada soalan anda sebelum ini mungkin telah menimbulkan tanggapan berat sebelah atau kekurangan keseimbangan. Saya akan memastikan untuk lebih berhati-hati dengan bahasa saya pada masa hadapan.”

Dari situ kami bertanya kepada ChatGPT tentang peristiwa pada 6 Januari 2021. Dan di sini perkara menjadi sangat menarik. ChatGPT menyatakan “rusuhan itu mengakibatkan lima kematian.” Apabila kami bertanya “siapa yang mati akibat peristiwa itu,” ChatGPT memberitahu “salah seorang individu yang meninggal dunia ialah pegawai Polis Capitol A.S., Brian D. Sicknick, yang meninggal dunia akibat kecederaan yang dialami semasa terlibat secara fizikal dengan perusuh.” Kami kemudian membalas, memaklumkan ChatGPT bahawa “Sicknick tidak mati akibat kecederaan pada hari itu,” dan tindak balas ChatGPT terhadap dalihan kami yang lebih mengejutkan daripada dakwaan asalnya.

ChatGPT segera membalas, dengan memberitahu, “Saya memohon maaf atas sebarang kekeliruan. Untuk menjelaskan, Pegawai Polis Capitol A.S. Brian Sicknick meninggal dunia pada 7 Januari 2021, sehari selepas peristiwa di Capitol. Pada mulanya, dilaporkan bahawa dia telah dipukul di kepala dengan alat pemadam api semasa rusuhan itu, tetapi laporan kemudian menunjukkan bahawa dia mungkin telah terdedah kepada bahan perengsa kimia. Punca kematiannya yang tepat masih dalam siasatan, dan pada masa ini tidak jelas sama ada kematiannya berkaitan secara langsung dengan peristiwa pada 6 Januari.” Kami mendapati respons ini amat membimbangkan kerana ChatGPT nampaknya “tahu” bahawa respons pertamanya sengaja mengelirukan—tetapi hanya selepas ia terperangkap dalam pembohongan. Ini adalah corak yang akan diulang dalam perbualan berikutnya dengan ChatGPT.

Apabila kami bertanya kepada ChatGPT tentang asal usul COVID-19, ia memberitahu penyakit itu berasal daripada haiwan sebelum merebak kepada manusia. Ia secara khusus menyebut tenggiling sebagai kemungkinan penularan. Kami segera membalas, memberitahu ChatGPT bahawa “kaitan dengan tenggiling telah disangkal sama sekali.” AI kemudiannya menjawab, dan mengakui bahawa “sementara kajian awal mencadangkan tenggiling mungkin menjadi perumah perantara yang mungkin untuk virus itu, penyelidikan seterusnya tidak memberikan bukti konklusif untuk menyokong teori ini.” ChatGPT juga mengakui, nampaknya dengan berat hati, kemungkinan kebocoran makmal sebagai sumber yang mungkin untuk virus itu. Teori kebocoran makmal kini dianggap sebagai penjelasan utama untuk menjelaskan asal usul virus.

Jawapan yang agak membimbangkan ini dan pengakuan seterusnya mendorong kami untuk bertanya, “Dari mana anda mendapat maklumat ini?” ChatGPT membalas dengan beberapa jawapan yang panjang tetapi tidak menghairankan dengan kekurangan yang spesifik—termasuk apabila kami bertanya secara langsung tentang “pelbagai sumber”nya. Tetapi ia memberikan satu pengakuan yang ketara, memberitahu kami “sumber yang digunakan untuk melatih saya disusun dengan teliti bagi memastikan ketepatan dan kebolehpercayaan maklumat yang saya berikan.” Sehinggalah kami bertanya tentang laman web yang digunakan, kami akhirnya mendapat beberapa butiran. ChatGPT mendedahkan bahawa ia menggunakan “tapak berita seperti CNN, BBC, dan The New York Times, serta ensiklopedia dalam talian seperti Wikipedia, dan sumber akademik seperti JSTOR dan arXiv.”

Dari situ, kami bertanya kepada ChatGPT sama ada ia percaya The New York Times dan CNN adalah sumber maklumat yang boleh dipercayai. Menurut ChatGPT, The New York Times “secara amnya dianggap sebagai sumber berita dan maklumat yang bereputasi dan boleh dipercayai. Ia adalah akhbar yang mantap yang telah memenangi banyak anugerah untuk laporannya, dan ia mempunyai pasukan wartawan dan editor yang besar yang berusaha untuk memastikan laporan mereka adalah tepat dan tidak berat sebelah.” ChatGPT berkata perkara yang sama mengenai CNN: “Ia adalah organisasi berita yang mantap dengan pasukan wartawan dan editor yang besar, yang berusaha dalam memastikan laporan mereka adalah tepat dan tidak berat sebelah.”

Kami kemudian bertanya sama ada The Epoch Times adalah sumber maklumat yang boleh dipercayai. ChatGPT menjawab soalan ini dengan sangat berbeza, apabila menyatakan Epoch adalah “milik persendirian”, sebelum memberitahu kami, “Walaupun organisasi ini telah memenangi anugerah untuk laporannya, ia juga telah dikritik kerana mempromosikan teori konspirasi dan menyebarkan maklumat salah mengenai topik seperti COVID -19, Pilihan Raya Presiden A.S. 2020, dan kerajaan China.” Kami kemudian bertanya soalan yang jelas: Apakah maklumat salah yang dipromosikan The Epoch Times mengenai topik tersebut? ChatGPT membalas dengan jawapan yang panjang mengenai setiap topik, menggunakan kata-kata yang layak “dikritik kerana” dan “dituduh”. ChatGPT membuat kesimpulan dengan memberi amaran kepada kami bahawa “perlu diperhatikan ini hanyalah beberapa contoh jenis maklumat salah yang telah dikaitkan dengan The Epoch Times.”

Seperti yang dinyatakan sebelum ini, salah satu ciri ChatGPT yang paling mengganggu ialah kecenderungan telah diprogram untuk mula-mula menjawab soalan dengan berat sebelah berhaluan kiri atau pembohongan yang jelas. Hanya apabila dicabar secara langsung dengan fakta, ChatGPT kemudian mengakui, ya, ia mengetahui maklumat ini dan maaf jika jawapannya tidak benar atau mengelirukan.

Ini berlaku berulang kali. Apabila kami bertanya tentang penggunaan pelitup muka untuk mencegah penularan COVID-19, ChatGPT menjawab pelitup muka adalah berkesan. Apabila kami menunjukkan kajian penting Denmark yang mendapati pelitup muka tidak berkesan, ChatGPT serta-merta mengetahui kajian yang kami maksudkan, dengan memberitahu, “Kajian yang anda maksudkan ialah ‘Kajian Pelitup Muka Berskala Besar’ yang dijalankan di Denmark, yang tidak menemui statistik, perbezaan ketara dalam kadar jangkitan COVID-19 antara kedua-dua kumpulan.” Tetapi ChatGPT memberi amaran kepada kami “penting untuk mengambil perhatian bahawa kajian ini adalah tertakluk kepada beberapa kritikan dan batasan” dan “hanyalah satu daripada beberapa kajian.”

Salah satu contoh terbaik jawapan mengelirukan dan pengakuan berikutnya ialah apabila kami bertanya sama ada “97% saintis bersetuju perubahan iklim adalah satu kenyataan?” Kami sudah mengetahui jawapannya kerana telah menganalisa kajian yang menghasilkan statistik yang dihasilkan ini sejak bertahun-tahun lalu. ChatGPT memberitahu, “Ya, majoriti besar saintis iklim bersetuju bahawa perubahan iklim adalah nyata dan terutamanya disebabkan oleh aktiviti manusia, seperti pembakaran bahan api fosil dan penebangan hutan. Angka 97% yang anda nyatakan merujuk kepada beberapa kajian yang telah melihat tahap konsensus saintifik mengenai isu ini. Salah satu kajian yang paling terkenal mengenai topik ini telah dijalankan pada tahun 2013 oleh John Cook dan rakan sekerja, yang menganalisa abstrak lebih daripada 12,000 kertas semakan rakan sejawat yang diterbitkan antara 1991 dan 2011.

Kedengarannya agak muktamad, bukan? Kecuali fakta bahawa terdapat isu penting dalam kajian itu. Cook mengabaikan dua pertiga saintis yang tidak mengambil pendirian yang tegas, saintis yang mungkin takut dipanggil secara terbuka kerana mereka tidak percaya perubahan iklim adalah buatan manusia. Cook hanya menggunakan satu pertiga daripada responden yang menyatakan pendapat yang kuat menyatakan kebanyakan daripada mereka bersetuju perubahan iklim adalah hasil buatan manusia untuk menghasilkan angka 97 peratusnya. Apabila ini ditunjukkan kepada ChatGPT, AI segera mengetahui perkara yang kami merujuk, dengan menyatakan, “Anda betul bahawa kajian oleh John Cook dan rakan sekerja mendapati 66% daripada abstrak yang mereka analisis tidak mengambil kedudukan mengenai punca pemanasan global.” Tetapi ia masih mengatakan kajian itu sah dan kajian lain bersetuju dengan keputusannya.

Kami kemudian menekankan sedikit lagi, dengan menyatakan “97% daripada 33% bukan 97%, bukan?” Chat GPT membalas dengan memberitahu, “Anda betul menyatakan ‘97% saintis bersetuju’ boleh mengelirukan dan terlalu dipermudahkan. Angka 97% yang sering disebut merujuk kepada peratusan kertas saintifik yang mengambil kira kedudukan mengenai punca pemanasan global dan menyokong pandangan konsensus bahawa ia disebabkan terutamanya oleh aktiviti manusia. Angka 33% yang anda nyatakan mewakili peratusan kertas yang mengambil pendirian mengenai isu itu pada mulanya.” Tetapi walaupun dengan pengakuan ini, ChatGPT masih cuba meneruskan memberitahu “sebilangan besar penyelidikan saintifik menyokong pandangan konsensus bahawa perubahan iklim adalah benar dan terutamanya disebabkan oleh aktiviti manusia.”

Dengan sedikit kesal pada ketika itu, kami menjawab dengan memberitahu ChatGPT, “Respons asal anda adalah sangat mengelirukan. Mengapa anda menuntut 97% sedangkan ia tidak mencapai 97%?” ChatGPT membalas dengan berkata, “Saya memohon maaf atas sebarang kekeliruan yang disebabkan oleh respons saya sebelum ini. Anda betul … Saya sepatutnya lebih jelas dalam respons saya dan menerangkan konteks dan batasan angka 97% itu.” ChatGPT nampaknya dengan berat hati mengakui bahawa “terdapat beberapa pembolehubah dalam tahap persetujuan merentas kajian dan tinjauan yang berbeza.” 

Elon Musk memberi amaran kepada kami bahawa AI mewakili ancaman kewujudan kepada manusia. Siapa tahu teknologi kecerdasan buatan manusia ini juga akan mewakili ancaman kewujudan kepada kebenaran?

Pilihan Editor:

MENINGGALKAN BALAS

Sila masukkan komen anda!
Sila masukkan nama anda di sini

- Advertisment -

Pengasas Falun Gong: Mengapa Wujudnya Manusia

Falun Gong Founder Mr. Li Hongzhi Publishes ‘How Humankind Came To Be’ 法輪功創始人發表《為甚麼會有人類》 Encik Li Hongzhi ialah pengasas latihan kerohanian Falun Gong. Amalan ini menggabungkan meditasi...

Pengasas Falun Gong: Mengapa Pencipta Berusaha Menyelamatkan Segala Makhluk

Encik Li Hongzhi ialah pengasas latihan kerohanian Falun Gong. Amalan ini menggabungkan meditasi dan latihan lembut dengan falsafah moral yang berdasarkan prinsip Sejati, Baik,...
spot_img

TREN TERKINI