Categories: AI dalam bisnisBlog

Fakta pemeriksaan dan halusinasi AI | AI dalam bisnis #110

Di dunia kecerdasan buatan, batas antara fiksi dan kenyataan kadang-kadang kabur. Sementara sistem AI yang inovatif mempercepat kemajuan di hampir setiap bidang, mereka juga datang dengan tantangan, seperti halusinasi – fenomena di mana AI menghasilkan informasi yang tidak akurat atau palsu. Untuk sepenuhnya memanfaatkan potensi teknologi ini, kita perlu memahami halusinasi dan memeriksa kebenarannya.

Apa itu halusinasi AI?

Halusinasi AI adalah hasil yang salah atau menyesatkan yang dihasilkan oleh model AI. Fenomena ini berakar pada inti pembelajaran mesin – proses di mana algoritma menggunakan kumpulan data besar, atau data pelatihan, untuk mengenali pola dan menghasilkan respons sesuai dengan pola yang diamati.

Bahkan model AI yang paling canggih pun tidak bebas dari kesalahan. Salah satu penyebab halusinasi adalah ketidaksempurnaan data pelatihan. Jika kumpulan data tidak memadai, tidak lengkap, atau bias, sistem belajar korelasi dan pola yang salah, yang mengarah pada produksi konten yang palsu.

Misalnya, bayangkan model AI untuk pengenalan wajah yang telah dilatih terutama pada foto orang Kaukasia. Dalam kasus seperti itu, algoritma mungkin kesulitan untuk mengidentifikasi orang dari kelompok etnis lain dengan benar karena tidak “dilatih” dengan baik dalam hal ini.

Penyebab lain dari halusinasi adalah overfitting, yang terjadi ketika algoritma terlalu menyesuaikan diri dengan kumpulan data pelatihan. Akibatnya, ia kehilangan kemampuan untuk menggeneralisasi dan mengenali pola baru yang sebelumnya tidak diketahui dengan benar. Model semacam itu berkinerja baik pada data pelatihan tetapi gagal dalam kondisi nyata yang dinamis.

Akhirnya, halusinasi dapat dihasilkan dari asumsi yang salah atau arsitektur model yang tidak memadai. Jika perancang AI mendasarkan solusi mereka pada premis yang salah atau menggunakan struktur algoritmik yang salah, sistem akan menghasilkan konten palsu dalam upaya untuk “cocok” dengan asumsi yang salah ini dengan data nyata.

Sumber: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Contoh halusinasi

Dampak halusinasi AI jauh melampaui ranah teori. Semakin sering, kita menemui manifestasi nyata yang terkadang mengejutkan dari mereka. Berikut adalah beberapa contoh fenomena ini:

  • Pada Mei 2023, seorang pengacara menggunakan ChatGPT untuk menyiapkan gugatan yang mencakup kutipan fiktif dari keputusan pengadilan dan preseden hukum yang tidak ada. Ini mengakibatkan konsekuensi serius – pengacara tersebut didenda, karena ia mengklaim bahwa ia tidak tahu apa-apa tentang kemampuan ChatGPT untuk menghasilkan informasi palsu,
  • terjadi bahwa ChatGPT menciptakan informasi palsu tentang orang-orang nyata. Pada April 2023, model tersebut mengarang cerita tentang dugaan pelecehan mahasiswa oleh seorang profesor hukum. Dalam kasus lain, ia secara keliru menuduh seorang walikota Australia menerima suap, padahal sebenarnya ia adalah seorang pembocor yang mengungkap praktik semacam itu.

Ini bukan kasus terisolasi – model AI generatif sering kali menciptakan “fakta” sejarah yang tidak benar, misalnya, memberikan catatan palsu tentang penyeberangan Selat Inggris. Lebih dari itu, mereka dapat menciptakan informasi palsu yang sama sekali berbeda tentang subjek yang sama setiap kali.

Namun, halusinasi AI bukan hanya masalah data yang salah. Mereka juga dapat mengambil bentuk yang aneh dan mengganggu, seperti dalam kasus Bing, yang menyatakan bahwa ia jatuh cinta dengan jurnalis Kevin Roose. Ini menunjukkan bahwa efek dari anomali ini dapat melampaui kesalahan faktual sederhana.

Akhirnya, halusinasi dapat diinduksi secara sengaja melalui serangan khusus pada sistem AI, yang dikenal sebagai serangan adversarial. Misalnya, sedikit mengubah foto kucing membuat sistem pengenalan gambar menginterpretasikannya sebagai …. “guacamole.” Jenis manipulasi ini dapat memiliki konsekuensi serius dalam sistem di mana pengenalan gambar yang akurat sangat penting, seperti dalam kendaraan otonom.

Bagaimana mencegah halusinasi?

Meski tantangan yang ditimbulkan oleh halusinasi AI cukup besar, ada cara efektif untuk memerangi fenomena ini. Kuncinya adalah pendekatan komprehensif yang menggabungkan:

  • data pelatihan berkualitas tinggi,
  • perintah yang relevan, yaitu, perintah untuk AI,
  • memberikan pengetahuan dan contoh secara langsung untuk digunakan AI,
  • pengawasan terus-menerus oleh manusia dan AI itu sendiri untuk meningkatkan sistem AI.
Perintah

Salah satu alat kunci dalam melawan halusinasi adalah perintah yang terstruktur dengan baik, atau perintah dan instruksi yang diberikan kepada model AI. Seringkali, perubahan kecil pada format perintah sudah cukup untuk meningkatkan akurasi dan keandalan respons yang dihasilkan secara signifikan.

Contoh yang sangat baik dari ini adalah Claude 2.1 dari Anthropic. Sementara menggunakan konteks yang panjang memberikan akurasi 27% tanpa perintah yang relevan, menambahkan kalimat “Berikut adalah kalimat yang paling relevan dari konteks: ” ke dalam perintah, meningkatkan efektivitasnya menjadi 98%.

Perubahan semacam itu memaksa model untuk fokus pada bagian paling relevan dari teks, alih-alih menghasilkan respons berdasarkan kalimat terpisah yang diambil dari konteks. Ini menyoroti pentingnya perintah yang dirumuskan dengan baik dalam meningkatkan akurasi sistem AI.

Membuat perintah yang rinci dan spesifik yang memberikan sedikit ruang bagi AI untuk interpretasi juga membantu mengurangi risiko halusinasi dan memudahkan pemeriksaan fakta. Semakin jelas dan spesifik perintahnya, semakin rendah kemungkinan terjadinya halusinasi.

Contoh

Selain perintah yang efisien, ada banyak metode lain untuk mengurangi risiko halusinasi AI. Berikut adalah beberapa strategi kunci:

  • menggunakan data pelatihan yang berkualitas tinggi dan beragam yang secara andal mewakili dunia nyata dan kemungkinan skenario. Semakin kaya dan lengkap data, semakin rendah risiko AI menghasilkan informasi palsu,
  • menggunakan template data sebagai panduan untuk respons AI – mendefinisikan format, ruang lingkup, dan struktur keluaran yang dapat diterima, yang meningkatkan konsistensi dan akurasi konten yang dihasilkan,
  • membatasi sumber data hanya pada materi yang dapat diandalkan dan terverifikasi dari entitas terpercaya. Ini menghilangkan risiko bahwa model akan “belajar” informasi dari sumber yang tidak pasti atau palsu.

Penguji dan penyempurnaan sistem AI secara terus-menerus, berdasarkan analisis kinerja dan akurasi mereka yang sebenarnya, memungkinkan perbaikan berkelanjutan dari setiap kekurangan dan memungkinkan model untuk belajar dari kesalahan.

Konteks

Menentukan konteks di mana sistem AI beroperasi juga memainkan peran penting dalam mencegah halusinasi. Tujuan di mana model akan digunakan, serta batasan dan tanggung jawab model, harus didefinisikan dengan jelas.

Pendekatan semacam itu memungkinkan untuk menetapkan kerangka kerja yang jelas bagi AI untuk beroperasi, mengurangi risiko “menghasilkan” informasi yang tidak diinginkan. Alat penyaring tambahan dapat disediakan dengan menggunakan alat penyaringan dan menetapkan ambang probabilitas untuk hasil yang dapat diterima.

Menerapkan langkah-langkah ini membantu menetapkan jalur aman bagi AI untuk diikuti, meningkatkan akurasi dan keandalan konten yang dihasilkannya untuk tugas dan domain tertentu.

Sumber: Ideogram, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Pemeriksaan fakta. Bagaimana memverifikasi hasil kerja dengan AI?

Terlepas dari langkah-langkah pencegahan yang diambil, sejumlah halusinasi oleh sistem AI sayangnya tidak dapat dihindari. Oleh karena itu, elemen kunci yang menjamin keandalan hasil yang diperoleh adalah pemeriksaan fakta – proses memverifikasi fakta dan data yang dihasilkan oleh AI.

Meninjau hasil AI untuk akurasi dan konsistensi dengan kenyataan harus dianggap sebagai salah satu langkah perlindungan utama terhadap penyebaran informasi palsu. Verifikasi manusia membantu mengidentifikasi dan memperbaiki setiap halusinasi dan ketidakakuratan yang tidak dapat dideteksi oleh algoritma sendiri.

Dalam praktiknya, pemeriksaan fakta harus menjadi proses siklis, di mana konten yang dihasilkan AI secara teratur diperiksa untuk kesalahan atau pernyataan yang meragukan. Setelah ini diidentifikasi, perlu tidak hanya untuk memperbaiki pernyataan yang dihasilkan AI itu sendiri, tetapi juga untuk memperbarui, melengkapi, atau mengedit data pelatihan model AI untuk mencegah masalah serupa terjadi di masa depan.

Penting untuk dicatat, proses verifikasi tidak boleh dibatasi hanya pada menolak atau menyetujui bagian yang meragukan, tetapi harus melibatkan secara aktif para ahli manusia dengan pengetahuan mendalam di bidang tersebut. Hanya mereka yang dapat menilai konteks, relevansi, dan akurasi pernyataan yang dihasilkan AI dengan benar dan memutuskan tentang kemungkinan perbaikan.

Verifikasi manusia dengan demikian menyediakan “perlindungan” yang diperlukan dan sulit untuk dinilai berlebihan untuk keandalan konten AI. Sampai algoritma pembelajaran mesin mencapai kesempurnaan, proses yang melelahkan tetapi penting ini harus tetap menjadi bagian integral dari kerja dengan solusi AI di industri mana pun.

Bagaimana memanfaatkan halusinasi AI?

Sementara halusinasi AI umumnya merupakan fenomena yang tidak diinginkan yang harus diminimalkan, mereka dapat menemukan aplikasi yang menarik dan berharga di beberapa area unik. Memanfaatkan potensi kreatif halusinasi dengan cerdik menawarkan perspektif baru dan sering kali tidak terduga.

Seni dan desain adalah area di mana halusinasi AI dapat membuka arah kreatif yang sama sekali baru. Dengan memanfaatkan kecenderungan model untuk menghasilkan gambar yang surreal dan abstrak, seniman dan desainer dapat bereksperimen dengan bentuk ekspresi baru, mengaburkan batas antara seni dan kenyataan. Mereka juga dapat menciptakan dunia yang unik dan seperti mimpi – yang sebelumnya tidak dapat diakses oleh persepsi manusia.

Di bidang visualisasi dan analisis data, fenomena halusinasi menawarkan kesempatan untuk menemukan perspektif alternatif dan korelasi yang tidak terduga dalam kumpulan informasi yang kompleks. Misalnya, kemampuan AI untuk menemukan korelasi yang tidak terduga dapat membantu meningkatkan cara lembaga keuangan membuat keputusan investasi atau mengelola risiko.

Akhirnya, dunia permainan komputer dan hiburan virtual juga dapat mengambil manfaat dari penyimpangan kreatif AI. Para pembuat solusi ini dapat menggunakan halusinasi untuk menghasilkan dunia virtual yang sama sekali baru dan menarik. Dengan menyuntikkan elemen kejutan dan ketidakpastian, mereka dapat memberikan pengalaman yang tak tertandingi dan mendalam bagi para pemain.

Tentu saja, setiap penggunaan sisi “kreatif” dari halusinasi AI harus dikendalikan dengan hati-hati dan tunduk pada pengawasan manusia yang ketat. Jika tidak, kecenderungan untuk menciptakan fiksi alih-alih fakta dapat menyebabkan situasi yang berbahaya atau tidak diinginkan secara sosial. Kuncinya, oleh karena itu, adalah menimbang dengan cermat manfaat dan risiko fenomena ini, dan menggunakannya secara bertanggung jawab hanya dalam kerangka kerja yang aman dan terstruktur.

Pemeriksaan fakta dan halusinasi AI – ringkasan

Munculnya fenomena halusinasi dalam sistem AI adalah efek samping yang tak terhindarkan dari revolusi yang kita saksikan di bidang ini. Distorsi dan informasi palsu yang dihasilkan oleh model AI adalah sisi terbalik dari kreativitas besar mereka dan kemampuan untuk mengasimilasi jumlah data yang sangat besar.

Untuk saat ini, satu-satunya cara untuk memverifikasi validitas konten yang dihasilkan AI adalah melalui verifikasi manusia. Meskipun ada beberapa metode untuk mengurangi halusinasi, dari teknik perintah hingga metode kompleks seperti Truth Forest, tidak ada yang dapat memberikan akurasi respons yang memuaskan yang akan menghilangkan kebutuhan untuk pemeriksaan fakta.

Jika Anda menyukai konten kami, bergabunglah dengan komunitas sibuk kami di Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

Ahli JavaScript dan instruktur yang melatih departemen TI. Tujuan utamanya adalah untuk meningkatkan produktivitas tim dengan mengajarkan orang lain bagaimana berkolaborasi secara efektif saat melakukan pengkodean.

View all posts →

Robert Whitney

Ahli JavaScript dan instruktur yang melatih departemen TI. Tujuan utamanya adalah untuk meningkatkan produktivitas tim dengan mengajarkan orang lain bagaimana berkolaborasi secara efektif saat melakukan pengkodean.

Share
Published by
Robert Whitney

Recent Posts

Peran AI dalam moderasi konten | AI dalam bisnis #129

Perusahaan menghadapi tantangan dalam mengelola sejumlah besar konten yang dipublikasikan secara online, mulai dari pos…

3 days ago

Analisis sentimen dengan AI. Bagaimana ini membantu mendorong perubahan dalam bisnis? | AI dalam bisnis #128

Di era transformasi digital, perusahaan memiliki akses ke jumlah data yang belum pernah terjadi sebelumnya…

3 days ago

Alat transkripsi AI terbaik. Bagaimana cara mengubah rekaman panjang menjadi ringkasan yang singkat? | AI dalam bisnis #127

Apakah Anda tahu bahwa Anda dapat mendapatkan inti dari rekaman multi-jam dari pertemuan atau percakapan…

3 days ago

Generasi video AI. Cakrawala baru dalam produksi konten video untuk bisnis | AI dalam bisnis #126

Bayangkan sebuah dunia di mana perusahaan Anda dapat membuat video yang menarik dan dipersonalisasi untuk…

3 days ago

LLMOps, atau cara mengelola model bahasa secara efektif dalam sebuah organisasi | AI dalam bisnis #125

Untuk sepenuhnya memanfaatkan potensi Model Bahasa Besar (LLM), perusahaan perlu menerapkan pendekatan yang efektif dalam…

3 days ago

Automatisasi atau augmentasi? Dua pendekatan terhadap AI di perusahaan | AI dalam bisnis #124

Pada tahun 2018, Unilever telah memulai perjalanan sadar untuk menyeimbangkan kemampuan otomatisasi dan augmentasi. Dalam…

3 days ago