Apa itu Retrieval-Augmented Generation?
Retrieval-Augmented Generation (RAG) adalah sebuah framework dalam kecerdasan buatan (AI) yang berfungsi untuk mengambil data dari sumber pengetahuan eksternal agar kualitas respons jadi lebih akurat dan relevan. Teknik ini biasanya dipakai dalam natural language processing untuk membuat Large Language Models (LLM) lebih up-to-date.
LLM adalah model AI yang jadi otaknya chatbot kayak ChatGPT dari OpenAI dan Google Bard. Mereka bisa memahami, merangkum, menghasilkan, sampai memprediksi konten. Tapi walaupun canggih, LLM masih bisa “ngaco” atau gagal dalam tugas-tugas yang butuh pengetahuan detail atau informasi yang lebih baru dari data pelatihannya. Hal ini bisa memunculkan informasi palsu, yang disebut AI hallucination.
Dengan bantuan RAG, model bisa ambil informasi tambahan dari luar — misalnya dari internet — untuk melengkapi data latihannya. Jadi, kalau LLM gak punya cukup informasi, RAG bisa bantu ngambilin data baru biar jawabannya tetap valid dan relevan.
Apa yang dilakukan RAG?
Karena LLM biasanya dilatih secara offline, mereka gak tahu soal data baru yang muncul setelah pelatihan. Nah, RAG ini bertugas buat ngambil data eksternal lalu menyisipkan informasi itu ke dalam prompt pengguna supaya responsnya makin lengkap.
Untuk tahu lebih banyak tentang istilah Generative AI, cek artikel berikut:
Bagaimana cara kerja RAG dengan LLM?
RAG menggabungkan proses pengambilan informasi (retrieval) dengan generator teks (generative model). Sumber eksternal bisa berupa database, API, situs web, atau repositori dokumen.
Contohnya, saat pengguna mengetik prompt di chatbot, sistem RAG akan mengekstrak kata kunci atau makna dari prompt tersebut, lalu menggunakannya buat nyari data relevan dari sumber luar. Setelah dapat, data itu disaring, lalu dipadukan dengan data pelatihan internal model dan disusun jadi jawaban akhir.
Apa saja manfaat dari RAG?
Berikut beberapa manfaat dari model RAG:
- Menyediakan informasi terbaru. RAG mengambil data dari sumber yang relevan, tepercaya, dan terkini.
- Menumbuhkan kepercayaan pengguna. Karena pengguna bisa melihat sumbernya, konten jadi lebih transparan dan bisa diverifikasi.
- Mengurangi halusinasi AI. Karena LLM mengambil referensi dari luar, kemungkinan “ngarang” jadi lebih kecil.
- Efisien secara waktu dan biaya. Organisasi nggak perlu terus-menerus melatih ulang model dengan data baru.
- Menggabungkan informasi. RAG menyatukan data hasil pencarian dan hasil generasi untuk menciptakan respons yang utuh.
- Lebih mudah dilatih. Karena informasi diambil dari luar, kebutuhan untuk data pelatihan dalam jumlah besar bisa dikurangi.
- Bisa untuk banyak keperluan. Gak cuma buat chatbot, RAG bisa digunakan untuk berbagai tugas seperti rangkuman teks atau sistem dialog khusus.
Pelajari juga tentang model generatif lain seperti VAE, GAN, Diffusion, Transformer, dan NeRF.