LSTM, zaman serisi ya da dil verisiyle çalışırken geçmişteki adımları hatırlamak için devrimdi.
Ama artık işler değişti.
Bugün GPT, LLaMA gibi modellerle devasa metinler çalışıyoruz.
Ve sorun şu:
LSTM gibi mekanizmalar kısa vadeli hafıza sunar
Prompt sınırları nedeniyle uzun metinleri taşıyamayız
LLM’ler çok güçlü, ama bir “alt + tab” hafızaları yok!
RAG bu sorunu nasıl çözüyor?
Retrieval-Augmented Generation (RAG) sistemi,
modelin “unutmasına izin veriyor”, ama gerektiğinde hatırlamasını sağlıyor.
Nasıl mı?
🔹 Soru → Embed edilir
🔹 Dış veritabanından en alakalı bilgiler çekilir
🔹 Bu bilgilerle birlikte LLM’e prompt verilir
🔹 Modelin cevabı artık bağlamsal olarak güçlüdür
RAG ≠ Sadece arama
RAG, aynı zamanda dinamik bir hafıza katmanıdır.
LSTM ile sadece cümle içi geçmişe erişebilirsin,
ama RAG ile binlerce dokümanlık kurumsal hafızaya ulaşmak mümkün.
Sence gelecekte modeller içsel hafızayla mı gelişecek,
yoksa dışsal kaynaklara (RAG gibi) bağımlı mı kalacak?
Yorumlara fikirlerini yaz lütfen.
“LSTM yetmez” diyoruz çünkü LLM’ler sadece sırayı değil, bağlamı da hatırlamalı!
AI Orbit sitesinden daha fazla şey keşfedin
Son gönderilerin e-postanıza gönderilmesi için abone olun.

Yorum bırakın