Abstrak : Perkembangan Large Language Models (LLMs) seperti GPT, Gemini, dan LLaMA telah mendorong penelitian lebih lanjut mengenai efektivitas dan sentimen yang dihasilkan oleh model-model ini dalam berbagai aplikasi. Studi ini bertujuan untuk melakukan analisis sentimen perbandingan terhadap ketiga model tersebut dengan pendekatan berbasis BERT (Bidirectional Encoder Representations from Transformers). Metode yang digunakan mencakup pengumpulan data dari keluaran masing-masing model dalam berbagai konteks, analisis sentimen menggunakan BERT, serta evaluasi perbedaan dalam distribusi sentimen positif, negatif, dan netral. Hasil penelitian ini menunjukan model GPT menunjukkan sentimen positif tertinggi (49,54%) dibandingkan dengan Gemini (38,76%) dan Llama (35,98%). Sementara itu, model Llama memiliki sentimen negatif tertinggi (43,47%), diikuti oleh Gemini (41,68%) dan GPT (35,21%). Untuk sentimen netral, Llama memiliki persentase tertinggi (20,55%), sedangkan Gemini dan GPT memiliki persentase yang lebih rendah, masing-masing 13,56% dan 15,25%.Secara keseluruhan, GPT cenderung menghasilkan lebih banyak sentimen positif dibandingkan dengan model lainnya, sedangkan Llama dan Gemini lebih banyak menghasilkan sentimen negatif.Secara umum, dapat disimpulkan bahwa GPT menerima persepsi publik yang lebih positif dibandingkan Gemini dan LLaMA dalam konteks yang dianalisis dalam studi ini. Hal ini mengindikasikan bahwa pengguna atau pihak yang memberikan sentimen cenderung memiliki pengalaman atau pandangan yang lebih baik terhadap GPT. Hasil penelitian ini diharapkan dapat memberikan wawasan mengenai keunggulan dan kelemahan masing-masing LLM dalam memahami dan menghasilkan teks yang mencerminkan sentimen secara akurat. Temuan ini juga dapat membantu dalam pemilihan model yang lebih sesuai untuk aplikasi spesifik yang memerlukan analisis sentimen tingkat lanjut.   Kata Kunci : Analisis Sentimen, Large Language Models, GPT, Gemini, LLaMA, BERT