Retrieval-Augmented Generation (RAG) telah menjadi standar industri untuk mengatasi halusinasi pada Large Language Models (LLM). Namun, pendekatan konvensional berbasis vektor (Vector-RAG) sering mengalami kesulitan dalam menangani pertanyaan kompleks yang membutuhkan penalaran bertingkat (multi-hop reasoning). Pendekatan berbasis graf pengetahuan (GraphRAG) dan gabungan keduanya (Hybrid-RAG) diusulkan sebagai solusi potensial untuk menangkap hubungan semantik antar-entitas yang lebih dalam. Kendati demikian, efektivitas integrasi graf pada skala data terbatas dengan model open-source masih belum banyak dieksplorasi secara empiris. Oleh karena itu, penelitian ini bertujuan untuk merancang, membangun, dan mengevaluasi kinerja komparatif dari ketiga arsitektur RAG tersebut menggunakan model generatif Mistral-7B-Instruct pada dataset HotpotQA. Sistem dibangun secara end-to-end menggunakan bahasa pemrograman Python, dengan FAISS sebagai penyimpanan vektor dan NetworkX serta REBEL untuk konstruksi graf pengetahuan. Evaluasi dilakukan menggunakan metode Closed-Set pada 20.000 dokumen dengan metrik F1 Score, Exact Match (EM), serta metrik kualitas semantik berbasis LLM-as-a-Judge (Faithfulness dan Answer Relevancy). Hasil pengujian menunjukkan bahwa pendekatan Vector-RAG justru mengungguli pendekatan lainnya dengan stabilitas kualitas jawaban yang lebih konsisten. Sebaliknya, GraphRAG dan Hybrid-RAG mencatat performa yang lebih rendah dibandingkan baseline vektor. Analisis kritis mengungkap bahwa rendahnya kinerja tersebut disebabkan oleh masalah kelangkaan data (sparsity) pada struktur graf yang menyebabkan terputusnya jalur penalaran, serta fenomena dilusi konteks (context dilution) pada mode hibrida di mana masuknya informasi graf yang tidak relevan justru mendistraksi fokus model. Hasil ini membuktikan bahwa tanpa densitas relasi yang matang, kompleksitas arsitektur hibrida tidak serta-merta menjamin peningkatan akurasi dibandingkan metode vektor tunggal.
Copyrights © 2026