Hocam son dönemlerde popülerleşen RAG hakkında birçok video izledim, tartışmasız en iyi anlatan sizdiniz. Önce teorik, sonra pratik anlatımınız anlaşılmayı aşırı kolaylaştırıyor.
Yorumunuz için çok teşekkür ederim! Güzel dilekleriniz ve desteğiniz benim için çok değerli. 😊🙏 Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara yorum yazarak kanalımıza destek olunuz 🙏👍👋
Hocam emeğinize sağlık çok açıklayıcı ve güzel anlatmışsınız. Diğer videolarınızı da izleyeceğim. Aynı zamanda videonun sonunda değindiğiniz konular için ayrıca teşekkürler
Yorumunuz için teşekkür ederim 🙏 Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Yorumunuz için teşekkür ederim 🙏 Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Hocam chatgpt yi bu şekilde kendi döküanlarımızla nasıl eğitip kullanabiliriz? Yada bu açıkkaynak modelleri nasıl aynı mantıkla kulanabiliriz? Bu videonuzda işin teorik mantığını anladım ama uygulamada kullandığınız yapılara yabancı kaldım.
Hocam bir şeyi hala anlayamıyorum. Mesela ilk olarak bir çarpım işlemi yapılır deniliyor. Tensör - vektörler yani. İlk veriyi nereden buluyor nasıl buluyorlar. Ki o veriyi bir ağırlıkla çarpsınlar ve o şekilde devam etsin. Lütfen bu konuda bir video hazırla mısınız? Veya buradan basit bir açıklaması varsa yazar mısınız?
Merhaba @empatikokumalar8202, Transformer altyapısında (gerçi tüm yapay sinir ağlarındaki ağırlık ve bias ler de de aynısı yapılır), Transformer modelinde her giriş için Query (Q), Key (K) ve Value (V) vektörleri hesaplanır. Bu vektörlerin başlangıç değerleri rastgele atanır. Eğitim sırasında geri yayılım (backpropagation) yöntemi ile bu değerler optimize edilir. Böylece model, ilgili bilgiyi ağırlıklarla çarparak hesaplamalarına başlar ve daha doğru sonuçlar üretir. İsterseniz öncelikle LSTM derslerini izleyip bu mantığı anlayabilirsiniz: ua-cam.com/play/PLQflnv_s49v9rxWesjI1GVs8qfxwwHDR4.html Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz🙏👍👋
@@MuratKarakayaAkademi sayın hocam; öncelikle bayramınızı kutlarım. Cevabınız için teşekkür ederim. Ben işlemci tasarımı ile ilgileniyorum. Dahası bir hesaplamayı en kısa ve en verimli bir şekilde nasıl yaparım? konusuyla ilgili düşünsel tasarımlarla uğraşıyorum. Ve gördüğüm kadarıyla YZ. modelinin temelinde bir yanlışlık var. Bu yanlışlık sonucu o kadar verimsiz bir yöntem ortaya çıkmış ki... Hani düşman olsa bu kadarını yapmaz denilecek cinsten bir yanlışlık. Mesela insan beyni hiç öyle değildir. Öyle kafasına göre bir takım sayılar verip, sonra onu doğrulama - yanlış sa düzeltmeye göre çalışmaz. Belki çok çok az kısmı. İlk tasarım yapılırken olabilir. Ama normal işleyişinde daima temel bir veri vardır. O veri üzerinde hareket edilir. YZ da her şey hayali sayılarla başlıyor. Sonuca gidiliyor. Halbuki harf - hece - kelime vb. ne göre yol alınsa iş o kadar kolay hale geliyor ki.. Onun için ilk temeli anlamaya çalışıyorum. Anladığım ise verimsiz bir zeka yapısı ortaya çıkmış durumda. Başka türlüsünü de düşünemiyorlar bile.
İyi bayramlar. 2017 yılına kadar NLP de sizin düşündüğünüz yöntemler denendi. En sonunda o yöntemlerin başarılı olamadığı anlaşıldığı için Transformer alt yapısına geçildi. 2021 Kasım ından beri 2 yılda NLP daha önceki 40 yılda ilerleyemediği yolu çok hızla geçti. O nedenle kullanılan yöntem çok da verimsiz değil. Mesela GPT 4 ün 2 ila 4 trilyon parametresi olduğu düşünülüyor ve bu yöntemle bu kadar "rastgele" sayı modelin zekice çalışabilmesi için optimize edilebiliyor. İyi çalışmalar
Öncelikle geri bildiriminiz için teşekkür ederim. Ne yazık ki, Raft ile ilgili bir video yapma planımız şu anda bulunmamaktadır. Ancak, diğer içeriklerimizi takip etmeye devam ederek faydalı bilgiler edinmeye devam edebilirsiniz. Herhangi bir başka sorunuz veya talebiniz olursa, lütfen bize bildirin. Lütfen öğrenmeye ve yorum yazmaya devam ediniz. 🙏👍👋
N8N basit bir otomasyon aracı. Bu videonun amacı ise kod yazmadan RAG sisteminin nasıl çalıştığını anlatmak. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Hızlı geliştirme için bence de çok faydalı. Ancak community versiyonu LangCHain deki tüm özellikleri kapsamıyor maalesef. O nedenle çok denemem başarılı olmadı. Hataları yazdığımda da pek ilgilenen olmadı. Daha çok cloud daki versiyona yönelmişler ücretli olduğundan. Bu nedenle ben de n8n için fazla içerik üretmeyi düşünmüyorum. Öğrenmeye ve yorum yazmaya devam lütfen 🙏👍👋
Merhaba @mehmetaliyesilbas3392, yorumunuz için teşekkür ederim! RAG konulu videomu yeni keşfettiğiniz için sevindim :) Daha fazla ilginç içerik için bizi takipte kalın! Yorumlarınızı ve desteklerinizi her zaman değerli buluyorum. Lütfen öğrenmeye ve yorum yazmaya devam ediniz 🙏👍👋
Merhaba. Eylem Planı mevcut: cbddo.gov.tr/uyzs . Bireyler en fazla eğitim konusunda destek verebiliyor. Benim gibi. Kurumlar eğer yüzlerce H100 alıp verilerle eğitebilirlerse faydalı olabilirler. Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏 👍👋
Hocam merhabalar, Ağzınıza ve emeğinize sağlık. Bir sorum olacak: ChatGPT'de oluşturduğumuz sanal asistanların kullanmış olduğu model nedir? Bu asistların temperature ve top P değerlerini promtplar ile ayarlamak mümkün müdür?
Ayrıca hocam, videolarının kapaklarına görsel koyabilir misiniz? UA-cam da çok fazla LLM lerle ilgili video var ama sizin gibi teknik konulara inen nadir insanlar var. İlk izlenim olarak videonuzu basit sandım, affola :) Videolarınızı izledikçe diğer videolarınızı merak ediyorum. Tekrardan elinize emeğinize sağlık..
Sevgili @harunbenli-yd6gq , Güzel yorumun ve soruların için çok teşekkür ederim. ChatGPT gibi sanal asistanların arkasındaki model, GPT-3.5 veya GPT-4 gibi büyük dil modelleridir. Temperature ve top P değerlerini promtplar aracılığıyla ayarlamak mümkündür ve bu, modelin cevaplarının çeşitliliğini ve özgünlüğünü etkileyebilir. OpenAI PlayGround hizmetinde deneyebilirsin. Videolarımın kapaklarında görseller pek kullanmıyorum. Özellikle basit ve sade tutmaya çalışıyorum :) Önemli olan içerik zengin olsun diye düşünüyorum. Ancak öneriniz için teşekkür ederim. İlgi çekmek için doğru bir öneri... İlk izlenimin değiştiği ve videolarımı beğendiğin için ayrıca mutluyum. Teknik konularda derinlemesine bilgi sunmaya devam edeceğim. Lütfen öğrenmeye ve yorum yazmaya devam ediniz🙏👍👋
@@MuratKarakayaAkademi Rica ederim Hocam :) openAI playground'unu denemek istiyorum. Daha öncesinde Azure ortamını denemiştim. Google Vertex ortamı nasıldır? Deneyiminiz oldu mu? Faturalandırma ve maliyet için soruyorum hocam. 20 doküman ve her biri 1 2 sayfalık olan bir fine tuning ile denemeler yapmak istiyorum maaliyeti çok tutmaz diye düşünüyorum. Ayrıca NVIDIA RTX Chat deneyiminiz oldu mu? Burada da aynı işlemi denemek istiyorum. Öncesinde denemiştim fakat bazen takılarak hep aynı cevabı veriyor. Ve çok fazla tuning yapılacak ön yüz parametre ayar kısmı yok. Lokal ortamda bu işleri nasıl yapabiliriz hocam?
Merhaba! Yorumun ve soruların için çok teşekkür ederim. Senin gibi ilgili ve meraklı izleyicilerimiz olduğu için çok mutluyum. OpenAI Playground'u denemek gerçekten harika bir fikir. Maalesef, Google Vertex AI ve NVIDIA RTX Chat'i daha önce kullanmadım. Ancak genel olarak, büyük dil modelleriyle çalışırken maliyetlerin genellikle işlem yoğunluğuna ve kullanım süresine bağlı olarak değiştiğini biliyorum. 20 doküman ve her biri 1-2 sayfalık bir fine-tuning işlemi genellikle çok maliyetli olmuyor, ancak kesin bir maliyet hesaplamak için ilgili platformların ücretlendirme yapısını kontrol etmek faydalı olacaktır. Lokal ortamda bu tür işleri yapmak istersen, CUDA destekli bir GPU ile TensorFlow veya PyTorch kullanarak kendi modellerinizi eğitebilir ve optimize edebilirsiniz. Ya da açık kaynak modelleri HuggingFace den indirebilirsin. Bu şekilde daha fazla kontrol sahibi olabilir ve ihtiyaçlarınıza göre özelleştirme yapabilirsiniz. Umarım bu bilgiler senin için faydalı olur. Soruların olursa her zaman buradayım! Lütfen öğrenmeye ve yorum yazmaya devam ediniz 🙏👍👋
Hocam çok teşekkür ederim. Bizde küçük çapta da olsa kendi dokümanlarımızı eğitmek istiyoruz. ama nereden nasıl başlayacağımızı da açıkçası tam olarak bilemiyoruz. Bu konuda desteğiniz olursa memnun oluruz. Saygılar.
En basit yol RAG sistemini kurmanız. Bunun için hazır kaynak kütüphanler kullanabilirsiniz: DOcsGPT, localGPT, vb.kütüphanelere GitHub dan ulaşabilirsiniz. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Hocam öncelikle elinize, dilinize ve emeğinize sağlık. Google gemma2 9b modeli'ni kullanarak RAG ile pdf üzerindeki sorularıma cevap alabiliyorum. Normalde rag içermeden sadece gemma2/9b ile sohbet edince 3.5dk sonra cevap dönüyor. Fakat RAG ile pdf içinden (20 sayfalık bir pdf) bir soruya 1.5 saat sonra cevap veriyor. Örnek olarak 200 sayfalık bir Pdf dosyası olsaydı ve bunu bir firma için canlı olarak kullanılacak bir sohbet botu yapmak istersem 1-2 adet 4090 yeterli olur mu yoksa A100 ya da H100'den aşağısı ile yapılamaz mı?
Nazik yorumunuz ve bilgi paylaşımı için teşekkür ederim 🙏 RAG ile pdf içinden (20 sayfalık bir pdf) bir soruya 1.5 saat sonra cevap vermesi çok garip. Öncelikle bu sürenin ne kadarı Retrieval tarafında ne kadarı response generate (LLM yani) tarafında ona bakın derim. Eğer çoğunluğu chunk ları gönderdiğiniz llm tarafında ise chunk ların miktarını ve büyüklüğünü azaltmayı deneyiniz. Sonuçtan beni haberdar ederseniz çözüm için önerilerde bulunabilirim. Kaç adet 4090 sorusunun kesi bir cevabı olması zor. ancak kabaca anlık kullanıcı sayısnız tek kişi olacaksa, LLM in kullanacağı VRAM in en az 2 katı bir VRAM i sağlayacak bir hesap yapmalısınız. Eğer anlık kullanıcı sayınız 3 4 den büyük olacaksa o zaman VLLM veya RAY server gibi bir server kurmalısınız bunun içinde muhtemelen en az 2 adet 4090 ve üzerine çıkmalısınız. Bunların hepsi minimum olan sayılar ve tahminlerdir. Eğer uygulama yaparsanız lütfen tecrübelerinizi benile de paylaşın. Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Hocam anlatımınız için çok teşekkür ederiz. Sonda söylediğiniz gibi türkçe dilini düzgünce kullanabildiğimiz LLM'ler çok kısıtlı ama yine de öneriniz var mı? Özellikle açık kaynak tarafında.
Teşekkür ederim! Açıkçası, Türkçe dilinde doğru şekilde çalışan büyük çapta bir dil modeli şu anda bulunmamaktadır. Ancak, belirli projeler ve gelişmeler sürekli olarak yapılıyor olabilir. Mesela savunma sanayi firmaları Baykar, Havelsan vb. geliştirdiklerini iddia ediyorlar ama açık kaynakta görmedik henüz. Bazı Bankalar da bu iddia da ama :) Türkiye dışındaki açık kaynak dil modellerinden ise doğrudan Türkçeyi desteklediğini iddia eden pek yok. Sadece çok dil destekli olduklarını söylüyorlar. Ama veri setlerinin dağılımını pek paylaşmadıklarından Türkçe konusu muğlak kalıyor. Lütfen öğrenmeye ve yorum yazmaya devam ediniz🙏👍👋
hocam öncelikle bu konuda Türkce bir icerik hazirladiginiz icin tesekkür ederim. Ben Bachelor Tezimi RAG üzerine yaziyorum o sebebden yayin ex ilgimi cekti. RAG in basarimini nasil ölcebilirim?
Öncelikle ben sizi neden bu kadar geç gördüm ki? Emekleriniz ve özveriniz için kendi adıma çok teşekkür ediyorum. Hocam, bir büyük dil modelini Türkçe eğitme işi nasıl yapılır "henüz" bilmiyorum. Videolarınızı seyrettikçe öğreneceğim muhtemelen. Ancak; Bunun bir çok kişinin birlikte yapabileceği bir iş olup olmadığını bilmiyorum. Artificial neural network bir tane olacağından tek bir yerde eğitilmeli gibi canlanıyor zihnimde, ama örneğin 1000 kişinin her birinin, işin binde birini yaparak bunları birleştirilmesinin bir yolu var mı? POE assistant bunun mümkün olduğunu söylüyor. Öyle ise, bu işi iyi bilen birinin öncülüğünde gönüllüler çok da fazla şey bilmesine gerek olmadan bilgisayarlarının gücünü paylaşması yöntemi ile bu iş başarılamaz mı? Umarım sorum veya beklentim çok saçma değildir.
@senoleker Teşekkür ederim! Sorunuz doğal ve mantıklı ancak Büyük dil modellerini eğitmek oldukça karmaşık ve kaynak yoğun bir süreçtir. Genellikle bu işler, güçlü donanımlara sahip veri merkezlerinde gerçekleştirilir. Dağıtık eğitim gibi yöntemlerle gönüllülerin katkıda bulunması teorik olarak mümkündür, ancak pratikte imkansıza yakındır. Bu tür projeler için öneriler yapılmış olsa da, henüz hayata geçirilmiş başarılı bir örnek bulunmamaktadır. Genellikle bu süreç, bireysel bilgisayarlar yerine paralel işlem yapabilen sunucularla daha verimli olur ki bu sunucularda bile aylarca sürebiliyor. Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz 🙏👍👋
@@MuratKarakayaAkademi o halde kurumlarımızın bu konudaki farkındalığını artırmak amacıyla bir şeyler yapamaz mıyız Hocam? Örneğin siz linkedin'de devlet kurumlarının bu işe neden eğilmesi gerektiğini anlatan çok kısa bir makale (ya da yazı diyelim) yayınlayabilirsiniz ve biz de bunu ilgili devlet kurumlarını taglayarak dikkat çekmeye çalışabiliriz. Örneğin Turksat'ta e-devlet'in sunucuları var ve bunlar trafiğin az olduğu zaman aralıklarında bu işe tahsis edilebilir. Yine savunma sanayiinde çok büyük bilgisayar kapasitesi olan kurumlar var. Örneğin simülasyon yapan çok büyük bilgisayarlar var birçok kurumda. Bunlar, simülasyon yapmadığı zamanlarda bu işte kullanılabilir. Gerekli makine parkını ve bu dediklerimin bu işe yarayıp yaramayacağını tam olarak bilmiyorum ama şunu görüyorum ki, acilen Türkçe'yi çok iyi işleyebilen açık kaynak bir modelin eğitilmesi gerektiği. YZ konusunda içerik sunan herkesi de ayrıca bu konuda motive etmek gerek ki onlar da buna katkıda bulunsun. Bu kişisel değil, milletimize ilişkin bir sorun. Sagılarımı sunarım hocam.
Öneriniz için teşekkürler ancak kanalı ve beni yeni takip ettiğinizden kaçırmış olabilirsiniz: Her ay yaptığımız Soru - Cevap canlı yayınlarında, LinkedIN deki bir çok duyuruda, davetli konuşmacı olduğum bir çok koferans ve toplantıda bunları dile getiriyorum. Bu toplantıları da sizlerle ayrıca paylaşıyorum. Mesela: ua-cam.com/users/livez2d-BxKUfWE?feature=share ama çok büyük etki yaratamıyorum. Szilerin desteği ile kanalımız büyürse belki daha büyük kitleyi etkileyebiliriz. Öğrenmeye, yorum yazmaya ve paylaşmaya devam lütfen 🙏👍👋
Olabilir. Ama bu çok direk çevirme gibi oluyor. Bence biraz daha içeriğe yönelik bir isim bulmalıyız. Öneriniz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
Bilişim sözlüğüne ( eski.tbd.org.tr/index.php?sayfa=sozluk&mi1&tipi=entr&harf=I ) göre information retrieval --> bilgi erişimi, bilgi geri kazanımı olarak çevrilmiş. Bilgi Erişim Destekli Metin Üretme olabilir gibi, değil mi?
Türkce de RAG yapmak istersek nelere dikkat etmemiz gerekir? LLM in türkcede egitilmis olmasi gerekirmi ? Embedding icin nasil bi model kullanmaliyim tesekkürler
Hepsi önemi sorular ve tek doğru cevabı yok aslında. Kısa cevap; şu an GPT api nı kullanmaktan başka çare maalesef yok. Émbedding için biraz daha rahat davranabiliriz BertTurk kullanılabilir mesela. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Yorumunuz için teşekkür ederim. Bildiğim kadarıyla ücretsiz olan versiyonda yok. Ücretli olanda muhtemelen vardır. Öğrenmeye ve yorum yazmaya devam lütfen 🙏👍👋
Merhaba hocam ben Mehmet Ali SALEP. Sakarya Uygulamalı Bilimler Üniversitesi Bilgisayar Mühendisliği son sınıf öğrencisiyim. "Büyük Dil Modellerini kullanarak Belgelerinizle Sohbet Edin: Retrieval Augmented Generation (RAG)" adlı videonuzu izledim. Bitirme projesi olarak okulumun web sitesine chatbot yapacağım hocam. Videoda kullanılan n8n yazılımını bir servera kurup bunu canlıya alabilir miyim? Videonun bir yerinde docker kurmanız lazım diyorsunuz ondan soruyorum. Birde bir sorum daha var hocam. Projemde, Retrieval-Augmented Generation (RAG) yöntemini uygulamak amacıyla hangi modelin kullanılmasının daha mantıklı olacağına dair bir değerlendirme yapmam gerekiyor. Projeyi yaparken iki ana seçenek üzerinde duruyorum: OpenAI'nın GPT-4 API'sını kullanmak LLaMA gibi modelleri indirip, okulun sunucularında yerel olarak çalıştırmak Projemi okulun sunucularında gerçekleştireceğim ve bu sunucuların GPU'larının ne kadar güçlü olduğunu henüz bilmiyorum. Bu nedenle, sistemin yükünü bindirmekten ziyade, OpenAI’nin sunucularında RAG işlemlerini yapmak daha mantıklı olabilir. Ancak, aynı zamanda LLaMA veya benzeri bir modeli indirerek yerel bir çözüm geliştirmek de maliyet ve kullanılabilirlik açısından önemli bir alternatif gibi görünüyor. Bu bağlamda, projenin maliyeti ve uygulanabilirliği bakımından hangi seçeneği tercih etmem gerektiği konusunda görüşlerinizi alabilir miyim? Yardımcı olursanız çok memnun olurum. Şimdiden teşekkür ederim.
N8n nin community versiyonu kullanılabilir. Gerçi çok yetenekli değil. Üniversite sitesine kullanılacak bir hizmet olabilmesi için çok ciddi alt yapı ve güvenlik ile mühendislik gerekir. Bir kaç kurulum ile çözülecek bir problem değil. MLOPS konusunda bilgi birikiminizin olmalı. Kolay gelsin
Рік тому+1
Ben de bir süredir RAG uygulamaları yazıyorum, kesin doğru cevabı garanti edemiyor olmak insanı şüphelendiriyor. Doğruluğu nasıl artırabiliriz değişik denemeler yapıyorum sürekli. Embedding yöntemi ve LLM türünü sabit belirleyerek verinin daha doğru bir yapıyla (ing. well-structured) verilmesinin doğru veri bölütünü (ing. chunk) getirmek noktasında verimi artırdığını söyleyebilirim. Pdf gibi unstructured yapıda dökümanlar bilgi çağırması zor dökümanlar iken .csv dökümanları ya da güzel yapılandırılmış .txt dosyalar verimi ve doğruluğu daha yüksek dosya türleri olarak duruyor. Murat hocam emeğinize sağlık, n8n i biliyordum ama bu amaçla kullanılabileceğini düşünmemiştim, iyi oldu.
@MehmetAkifAKKUS Hocam bilgi paylaşımı için teşekkür ederim. RAG için öneriler literatüre yeni yeni giriyor. Sanırım LLM'leri daha deterministic hale getiremezsek RAG lerde çok başarımı iyileştiremeyeceğiz gibi. n8n ile protoyip yapmak çok kolay. Onun için özellikle kavramları n8n ile anlatmayı denedim. Beğendiğinize sevindim. öğrenmeye ve yorum yazmaya devam lütfen 🙏👋
Size bir sorum olacakdi Mehmet Bey, Ben RAG i Almanca veriler üzerinde yapmak istiyorum. Bu durumda Embedding Model in ve LLM in Almanca da egitilmis olmasi gereklimi iyi bir basarim icin? Cevabiniz icin tesekkürler
Hocam öncelikle anlatım için çok teşekkürler. İki sorum olucaktı retrieval performansını re-ranking yönteminden başka bir yöntemle artırmamız mümkün müdür ? Mümkünse nasıl bir yol izlemeliyiz? Tekrardan çok teşekkürler.
Merhaba. Açıkçası re-ranking önerilerin başında geliyor. Başka bir öneri de önce kullanıcı promptunu LLM verip ondan bu pronpmta benzer 5-6 prompt önermesini istemek. Daha sonra bu promptları kullanarak reirieval ı başlatmak. Denemek lazım. Sonuçları yazarsanız sevinirim. Sorunuz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
@@MuratKarakayaAkademi Hocam Merhaba tekrardan, llama_index'in SentenceWindowNodeParser'ıyla beraber dokümandan oluşturduğumuz chunkın çevresinde belirlediğimiz window size ile nodelar oluşturup retrieve ettiğimiz chunk için child nodelar sayesinde retrieve ettiğimiz context'i genişletebiliyoruz. Bu performans artışında etkili oldu. Reranker modelleriyle hala daha fazla artış sağlanabilir ama production seviyesinde reranking çok maliyetli oluyor.
@yigitagalar7531 paylaştığınız tecrübe ve bilgi için teşekkür ederim. Maalesef teori ile pratik aynı olmuyor. RAG için bile çok güçlü alt yapı gerekiyor. eşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
Sistemi Türkçe eğitim veri seti ile eğitip para ile satarlar. Borsa da anlık veriyi izlemek için ücret ödenen bir yerde gelişim pek de kimsenin umurunda değil gibi görünüyor. Emeğinize sağlık, üniversite de bu şekilde etkin ve basit bir anlatım tarzına rastlamadım. İyi çalışmalar.
Teşekkür ederim @fevziceylan7160! Geri bildiriminiz çok değerli. Amacım herkesin erişebileceği kaynaklar sunmak ve yapay zeka konusunu anlaşılır kılmak. İyi çalışmalar! Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz🙏👍👋
Hocam son dönemlerde popülerleşen RAG hakkında birçok video izledim, tartışmasız en iyi anlatan sizdiniz. Önce teorik, sonra pratik anlatımınız anlaşılmayı aşırı kolaylaştırıyor.
Güzel yorumunuz için teşekkür ederim🙏 öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Faydalı bir anlatım olmuş, teorik + pratik yaklaşımlarla daha güzel bir gelişim sağlanmış oluyor. Emeğinize sağlık.
Yorumunuz için teşekkürler. Öğrenmeye, yorum yazmaya ve paylaşmaya devam lütfen 🙏👍👋
Hocam gayet açıklayıcı ve anlaşılır bir anlatım olmuş. Elinize emeğinize sağlık. Serinin devamını merakla bekliyorum.
Güzel yorumunuz için teşekkürler 🙏 Serinin devamını planlıyorum. Takipte kalın :) öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Altın değerinde bir video hocam emeğiniz için çok teşekkürler .
Güzel yorumunuz için teşekkür ederim. Lütfen öğrenmeye ve yorum yazmaya devam ediniz 🙏👍👋
Hocam emekleriniz için çok teşekkürler. Anlatımınız da çok güzeldi. Allah yolunuzu açık etsin...
Yorumunuz için çok teşekkür ederim! Güzel dilekleriniz ve desteğiniz benim için çok değerli. 😊🙏
Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara yorum yazarak kanalımıza destek olunuz 🙏👍👋
Hocam emeğinize sağlık çok açıklayıcı ve güzel anlatmışsınız. Diğer videolarınızı da izleyeceğim. Aynı zamanda videonun sonunda değindiğiniz konular için ayrıca teşekkürler
Yorumunuz için teşekkür ederim. öğrenmeye ve yorum yazmaya devam lütfen 👋
Baştan sona keyifle izledim, ağzınıza sağlık Hocam.
Teşekkürler, kanala destek olmanızı bekliyorum.
Emeğinize sağlık hocam, harika bir içerikdi.
Cansu hocam, nazik yorumunuz için teşekkür ederim 🙏
Thank you Professor. I hope you make make English videos or series
Yes, I will try my best. Thank you 🙏 keep learning and commenting👍👋
Gerçekten çok faydalı harika bilgiler, teşekkür ederiz
Güzel yorumunuz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
Teşekkürler.
Yorumunuz için teşekkür ederim 🙏 Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Çok çok teşekkür ederim. elinize sağlık
Yorumunuz için teşekkür ederim. Öğrenmeye, paylaşmaya ve yorum yazmaya devam lütfen 👍🙏👋
teşekkürler
Yorumunuz için teşekkür ederim 🙏 Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Hocam çok teşekkür ederim, emeğinize sağlık. ♥
Yorumunuz için teşekkür ederim🙏 Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz👍👋
Hocam chatgpt yi bu şekilde kendi döküanlarımızla nasıl eğitip kullanabiliriz? Yada bu açıkkaynak modelleri nasıl aynı mantıkla kulanabiliriz? Bu videonuzda işin teorik mantığını anladım ama uygulamada kullandığınız yapılara yabancı kaldım.
Şu içeriği seyreder misiniz: ua-cam.com/users/liveo13m6nKesBA?feature=share
Teşekkür ederim hocam. Çok faydalı oldu.
Nazik yorumunuz için teşekkür ederim öğrenmeye ve yorum yazmaya devam lütfen 🙏👋
Hocam bir şeyi hala anlayamıyorum. Mesela ilk olarak bir çarpım işlemi yapılır deniliyor. Tensör - vektörler yani. İlk veriyi nereden buluyor nasıl buluyorlar. Ki o veriyi bir ağırlıkla çarpsınlar ve o şekilde devam etsin. Lütfen bu konuda bir video hazırla mısınız? Veya buradan basit bir açıklaması varsa yazar mısınız?
Merhaba @empatikokumalar8202, Transformer altyapısında (gerçi tüm yapay sinir ağlarındaki ağırlık ve bias ler de de aynısı yapılır), Transformer modelinde her giriş için Query (Q), Key (K) ve Value (V) vektörleri hesaplanır. Bu vektörlerin başlangıç değerleri rastgele atanır. Eğitim sırasında geri yayılım (backpropagation) yöntemi ile bu değerler optimize edilir. Böylece model, ilgili bilgiyi ağırlıklarla çarparak hesaplamalarına başlar ve daha doğru sonuçlar üretir. İsterseniz öncelikle LSTM derslerini izleyip bu mantığı anlayabilirsiniz: ua-cam.com/play/PLQflnv_s49v9rxWesjI1GVs8qfxwwHDR4.html Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz🙏👍👋
@@MuratKarakayaAkademi sayın hocam; öncelikle bayramınızı kutlarım. Cevabınız için teşekkür ederim. Ben işlemci tasarımı ile ilgileniyorum. Dahası bir hesaplamayı en kısa ve en verimli bir şekilde nasıl yaparım? konusuyla ilgili düşünsel tasarımlarla uğraşıyorum. Ve gördüğüm kadarıyla YZ. modelinin temelinde bir yanlışlık var. Bu yanlışlık sonucu o kadar verimsiz bir yöntem ortaya çıkmış ki... Hani düşman olsa bu kadarını yapmaz denilecek cinsten bir yanlışlık. Mesela insan beyni hiç öyle değildir. Öyle kafasına göre bir takım sayılar verip, sonra onu doğrulama - yanlış sa düzeltmeye göre çalışmaz. Belki çok çok az kısmı. İlk tasarım yapılırken olabilir. Ama normal işleyişinde daima temel bir veri vardır. O veri üzerinde hareket edilir. YZ da her şey hayali sayılarla başlıyor. Sonuca gidiliyor. Halbuki harf - hece - kelime vb. ne göre yol alınsa iş o kadar kolay hale geliyor ki.. Onun için ilk temeli anlamaya çalışıyorum. Anladığım ise verimsiz bir zeka yapısı ortaya çıkmış durumda. Başka türlüsünü de düşünemiyorlar bile.
İyi bayramlar. 2017 yılına kadar NLP de sizin düşündüğünüz yöntemler denendi. En sonunda o yöntemlerin başarılı olamadığı anlaşıldığı için Transformer alt yapısına geçildi. 2021 Kasım ından beri 2 yılda NLP daha önceki 40 yılda ilerleyemediği yolu çok hızla geçti. O nedenle kullanılan yöntem çok da verimsiz değil. Mesela GPT 4 ün 2 ila 4 trilyon parametresi olduğu düşünülüyor ve bu yöntemle bu kadar "rastgele" sayı modelin zekice çalışabilmesi için optimize edilebiliyor. İyi çalışmalar
hocam emeğiniz için teşekkür ederim. Çok faydası oldu. Acaba Raft ile ilgili de video yapabilir misiniz?
Öncelikle geri bildiriminiz için teşekkür ederim. Ne yazık ki, Raft ile ilgili bir video yapma planımız şu anda bulunmamaktadır. Ancak, diğer içeriklerimizi takip etmeye devam ederek faydalı bilgiler edinmeye devam edebilirsiniz. Herhangi bir başka sorunuz veya talebiniz olursa, lütfen bize bildirin.
Lütfen öğrenmeye ve yorum yazmaya devam ediniz. 🙏👍👋
hocam emeğinize sağlık, teşekkür ederim.
Güzel yorumunuz için teşekkürler 🙏 öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Hocam teşekkürler. N8n kısmından bişey anlamadım.
N8N basit bir otomasyon aracı. Bu videonun amacı ise kod yazmadan RAG sisteminin nasıl çalıştığını anlatmak. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Selamlar. N8N çok faydalı bir ürün. Langchain ile n8n kullanımına dair içerik yapar mısınız? Teşekkürler
Hızlı geliştirme için bence de çok faydalı. Ancak community versiyonu LangCHain deki tüm özellikleri kapsamıyor maalesef. O nedenle çok denemem başarılı olmadı. Hataları yazdığımda da pek ilgilenen olmadı. Daha çok cloud daki versiyona yönelmişler ücretli olduğundan. Bu nedenle ben de n8n için fazla içerik üretmeyi düşünmüyorum. Öğrenmeye ve yorum yazmaya devam lütfen 🙏👍👋
Çok iyi videolar hocam. Ellerinize sağlık. Nedense RAG ile ilgili aylar önce eklediğiniz videoyu yeni görüyorum.
Merhaba @mehmetaliyesilbas3392, yorumunuz için teşekkür ederim! RAG konulu videomu yeni keşfettiğiniz için sevindim :) Daha fazla ilginç içerik için bizi takipte kalın! Yorumlarınızı ve desteklerinizi her zaman değerli buluyorum. Lütfen öğrenmeye ve yorum yazmaya devam ediniz 🙏👍👋
Hocam harikasınız. Türkçe LLM için bir eylem planı hazırlayabilir miyiz? Bu konuda nasıl fayda yaratabiliriz? Bu konuda Görüşmek isterim.
Merhaba. Eylem Planı mevcut: cbddo.gov.tr/uyzs . Bireyler en fazla eğitim konusunda destek verebiliyor. Benim gibi. Kurumlar eğer yüzlerce H100 alıp verilerle eğitebilirlerse faydalı olabilirler.
Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏 👍👋
Hocam merhabalar, Ağzınıza ve emeğinize sağlık. Bir sorum olacak: ChatGPT'de oluşturduğumuz sanal asistanların kullanmış olduğu model nedir? Bu asistların temperature ve top P değerlerini promtplar ile ayarlamak mümkün müdür?
Ayrıca hocam, videolarının kapaklarına görsel koyabilir misiniz? UA-cam da çok fazla LLM lerle ilgili video var ama sizin gibi teknik konulara inen nadir insanlar var. İlk izlenim olarak videonuzu basit sandım, affola :) Videolarınızı izledikçe diğer videolarınızı merak ediyorum. Tekrardan elinize emeğinize sağlık..
Sevgili @harunbenli-yd6gq , Güzel yorumun ve soruların için çok teşekkür ederim. ChatGPT gibi sanal asistanların arkasındaki model, GPT-3.5 veya GPT-4 gibi büyük dil modelleridir. Temperature ve top P değerlerini promtplar aracılığıyla ayarlamak mümkündür ve bu, modelin cevaplarının çeşitliliğini ve özgünlüğünü etkileyebilir. OpenAI PlayGround hizmetinde deneyebilirsin.
Videolarımın kapaklarında görseller pek kullanmıyorum. Özellikle basit ve sade tutmaya çalışıyorum :) Önemli olan içerik zengin olsun diye düşünüyorum. Ancak öneriniz için teşekkür ederim. İlgi çekmek için doğru bir öneri... İlk izlenimin değiştiği ve videolarımı beğendiğin için ayrıca mutluyum. Teknik konularda derinlemesine bilgi sunmaya devam edeceğim. Lütfen öğrenmeye ve yorum yazmaya devam ediniz🙏👍👋
@@MuratKarakayaAkademi Rica ederim Hocam :) openAI playground'unu denemek istiyorum. Daha öncesinde Azure ortamını denemiştim. Google Vertex ortamı nasıldır? Deneyiminiz oldu mu? Faturalandırma ve maliyet için soruyorum hocam. 20 doküman ve her biri 1 2 sayfalık olan bir fine tuning ile denemeler yapmak istiyorum maaliyeti çok tutmaz diye düşünüyorum.
Ayrıca NVIDIA RTX Chat deneyiminiz oldu mu? Burada da aynı işlemi denemek istiyorum. Öncesinde denemiştim fakat bazen takılarak hep aynı cevabı veriyor. Ve çok fazla tuning yapılacak ön yüz parametre ayar kısmı yok. Lokal ortamda bu işleri nasıl yapabiliriz hocam?
Merhaba! Yorumun ve soruların için çok teşekkür ederim. Senin gibi ilgili ve meraklı izleyicilerimiz olduğu için çok mutluyum.
OpenAI Playground'u denemek gerçekten harika bir fikir. Maalesef, Google Vertex AI ve NVIDIA RTX Chat'i daha önce kullanmadım. Ancak genel olarak, büyük dil modelleriyle çalışırken maliyetlerin genellikle işlem yoğunluğuna ve kullanım süresine bağlı olarak değiştiğini biliyorum. 20 doküman ve her biri 1-2 sayfalık bir fine-tuning işlemi genellikle çok maliyetli olmuyor, ancak kesin bir maliyet hesaplamak için ilgili platformların ücretlendirme yapısını kontrol etmek faydalı olacaktır.
Lokal ortamda bu tür işleri yapmak istersen, CUDA destekli bir GPU ile TensorFlow veya PyTorch kullanarak kendi modellerinizi eğitebilir ve optimize edebilirsiniz. Ya da açık kaynak modelleri HuggingFace den indirebilirsin. Bu şekilde daha fazla kontrol sahibi olabilir ve ihtiyaçlarınıza göre özelleştirme yapabilirsiniz.
Umarım bu bilgiler senin için faydalı olur. Soruların olursa her zaman buradayım!
Lütfen öğrenmeye ve yorum yazmaya devam ediniz 🙏👍👋
emeğinize sağlık hocam çok açıklayıcı bir video olmuş.
n8n üzerinde çalıştırdık bu RAG yaklaşımını fakat bunu projelerimize nasıl entegre ederiz?
Teşekkürler. Eğer projenizde kullanmak istiyorsanız Langchain veya LlamaIndex kütüphanesi ile Rag sistemi oluşturun bence
Hocam çok teşekkür ederim. Bizde küçük çapta da olsa kendi dokümanlarımızı eğitmek istiyoruz. ama nereden nasıl başlayacağımızı da açıkçası tam olarak bilemiyoruz. Bu konuda desteğiniz olursa memnun oluruz. Saygılar.
En basit yol RAG sistemini kurmanız. Bunun için hazır kaynak kütüphanler kullanabilirsiniz: DOcsGPT, localGPT, vb.kütüphanelere GitHub dan ulaşabilirsiniz. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Hocam öncelikle elinize, dilinize ve emeğinize sağlık. Google gemma2 9b modeli'ni kullanarak RAG ile pdf üzerindeki sorularıma cevap alabiliyorum. Normalde rag içermeden sadece gemma2/9b ile sohbet edince 3.5dk sonra cevap dönüyor. Fakat RAG ile pdf içinden (20 sayfalık bir pdf) bir soruya 1.5 saat sonra cevap veriyor. Örnek olarak 200 sayfalık bir Pdf dosyası olsaydı ve bunu bir firma için canlı olarak kullanılacak bir sohbet botu yapmak istersem 1-2 adet 4090 yeterli olur mu yoksa A100 ya da H100'den aşağısı ile yapılamaz mı?
Nazik yorumunuz ve bilgi paylaşımı için teşekkür ederim 🙏 RAG ile pdf içinden (20 sayfalık bir pdf) bir soruya 1.5 saat sonra cevap vermesi çok garip. Öncelikle bu sürenin ne kadarı Retrieval tarafında ne kadarı response generate (LLM yani) tarafında ona bakın derim. Eğer çoğunluğu chunk ları gönderdiğiniz llm tarafında ise chunk ların miktarını ve büyüklüğünü azaltmayı deneyiniz. Sonuçtan beni haberdar ederseniz çözüm için önerilerde bulunabilirim.
Kaç adet 4090 sorusunun kesi bir cevabı olması zor. ancak kabaca anlık kullanıcı sayısnız tek kişi olacaksa, LLM in kullanacağı VRAM in en az 2 katı bir VRAM i sağlayacak bir hesap yapmalısınız. Eğer anlık kullanıcı sayınız 3 4 den büyük olacaksa o zaman VLLM veya RAY server gibi bir server kurmalısınız bunun içinde muhtemelen en az 2 adet 4090 ve üzerine çıkmalısınız. Bunların hepsi minimum olan sayılar ve tahminlerdir. Eğer uygulama yaparsanız lütfen tecrübelerinizi benile de paylaşın.
Lütfen yapay zeka meraklısı arkadaşlarınızı kanalımıza davet ederek ve videolara beğenerek, yorum yazarak kanalımıza destek olmaya devam ediniz 🙏
Hocam anlatımınız için çok teşekkür ederiz. Sonda söylediğiniz gibi türkçe dilini düzgünce kullanabildiğimiz LLM'ler çok kısıtlı ama yine de öneriniz var mı? Özellikle açık kaynak tarafında.
Teşekkür ederim! Açıkçası, Türkçe dilinde doğru şekilde çalışan büyük çapta bir dil modeli şu anda bulunmamaktadır. Ancak, belirli projeler ve gelişmeler sürekli olarak yapılıyor olabilir. Mesela savunma sanayi firmaları Baykar, Havelsan vb. geliştirdiklerini iddia ediyorlar ama açık kaynakta görmedik henüz. Bazı Bankalar da bu iddia da ama :) Türkiye dışındaki açık kaynak dil modellerinden ise doğrudan Türkçeyi desteklediğini iddia eden pek yok. Sadece çok dil destekli olduklarını söylüyorlar. Ama veri setlerinin dağılımını pek paylaşmadıklarından Türkçe konusu muğlak kalıyor. Lütfen öğrenmeye ve yorum yazmaya devam ediniz🙏👍👋
Teşekkürler hocam
yorumunuz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
hocam öncelikle bu konuda Türkce bir icerik hazirladiginiz icin tesekkür ederim. Ben Bachelor Tezimi RAG üzerine yaziyorum o sebebden yayin ex ilgimi cekti. RAG in basarimini nasil ölcebilirim?
Merhaba. QA sistemi olduğundan RAG'in başarımını da QA başarım ölçütlerini kullanabilirsiniz. öğrenmeye ve yorum yazmaya devam lütfen👍👋
Öncelikle ben sizi neden bu kadar geç gördüm ki? Emekleriniz ve özveriniz için kendi adıma çok teşekkür ediyorum.
Hocam, bir büyük dil modelini Türkçe eğitme işi nasıl yapılır "henüz" bilmiyorum. Videolarınızı seyrettikçe öğreneceğim muhtemelen.
Ancak;
Bunun bir çok kişinin birlikte yapabileceği bir iş olup olmadığını bilmiyorum. Artificial neural network bir tane olacağından tek bir yerde eğitilmeli gibi canlanıyor zihnimde, ama örneğin 1000 kişinin her birinin, işin binde birini yaparak bunları birleştirilmesinin bir yolu var mı? POE assistant bunun mümkün olduğunu söylüyor. Öyle ise, bu işi iyi bilen birinin öncülüğünde gönüllüler çok da fazla şey bilmesine gerek olmadan bilgisayarlarının gücünü paylaşması yöntemi ile bu iş başarılamaz mı? Umarım sorum veya beklentim çok saçma değildir.
@senoleker Teşekkür ederim! Sorunuz doğal ve mantıklı ancak Büyük dil modellerini eğitmek oldukça karmaşık ve kaynak yoğun bir süreçtir. Genellikle bu işler, güçlü donanımlara sahip veri merkezlerinde gerçekleştirilir. Dağıtık eğitim gibi yöntemlerle gönüllülerin katkıda bulunması teorik olarak mümkündür, ancak pratikte imkansıza yakındır. Bu tür projeler için öneriler yapılmış olsa da, henüz hayata geçirilmiş başarılı bir örnek bulunmamaktadır. Genellikle bu süreç, bireysel bilgisayarlar yerine paralel işlem yapabilen sunucularla daha verimli olur ki bu sunucularda bile aylarca sürebiliyor. Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz 🙏👍👋
@@MuratKarakayaAkademi o halde kurumlarımızın bu konudaki farkındalığını artırmak amacıyla bir şeyler yapamaz mıyız Hocam? Örneğin siz linkedin'de devlet kurumlarının bu işe neden eğilmesi gerektiğini anlatan çok kısa bir makale (ya da yazı diyelim) yayınlayabilirsiniz ve biz de bunu ilgili devlet kurumlarını taglayarak dikkat çekmeye çalışabiliriz. Örneğin Turksat'ta e-devlet'in sunucuları var ve bunlar trafiğin az olduğu zaman aralıklarında bu işe tahsis edilebilir. Yine savunma sanayiinde çok büyük bilgisayar kapasitesi olan kurumlar var. Örneğin simülasyon yapan çok büyük bilgisayarlar var birçok kurumda. Bunlar, simülasyon yapmadığı zamanlarda bu işte kullanılabilir. Gerekli makine parkını ve bu dediklerimin bu işe yarayıp yaramayacağını tam olarak bilmiyorum ama şunu görüyorum ki, acilen Türkçe'yi çok iyi işleyebilen açık kaynak bir modelin eğitilmesi gerektiği.
YZ konusunda içerik sunan herkesi de ayrıca bu konuda motive etmek gerek ki onlar da buna katkıda bulunsun. Bu kişisel değil, milletimize ilişkin bir sorun.
Sagılarımı sunarım hocam.
Öneriniz için teşekkürler ancak kanalı ve beni yeni takip ettiğinizden kaçırmış olabilirsiniz: Her ay yaptığımız Soru - Cevap canlı yayınlarında, LinkedIN deki bir çok duyuruda, davetli konuşmacı olduğum bir çok koferans ve toplantıda bunları dile getiriyorum. Bu toplantıları da sizlerle ayrıca paylaşıyorum. Mesela: ua-cam.com/users/livez2d-BxKUfWE?feature=share ama çok büyük etki yaratamıyorum. Szilerin desteği ile kanalımız büyürse belki daha büyük kitleyi etkileyebiliriz. Öğrenmeye, yorum yazmaya ve paylaşmaya devam lütfen 🙏👍👋
Geri Çağrılma Destekli, Üretim teknolojisi olabilirmi hocam
Olabilir. Ama bu çok direk çevirme gibi oluyor. Bence biraz daha içeriğe yönelik bir isim bulmalıyız. Öneriniz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
@@MuratKarakayaAkademi kaynak nokta güdümlü çoklu üretim projeksiyonu olabilirmi hocam ??
Bilişim sözlüğüne ( eski.tbd.org.tr/index.php?sayfa=sozluk&mi1&tipi=entr&harf=I ) göre information retrieval --> bilgi erişimi, bilgi geri kazanımı olarak çevrilmiş. Bilgi Erişim Destekli Metin Üretme olabilir gibi, değil mi?
Türkce de RAG yapmak istersek nelere dikkat etmemiz gerekir? LLM in türkcede egitilmis olmasi gerekirmi ? Embedding icin nasil bi model kullanmaliyim tesekkürler
Hepsi önemi sorular ve tek doğru cevabı yok aslında. Kısa cevap; şu an GPT api nı kullanmaktan başka çare maalesef yok. Émbedding için biraz daha rahat davranabiliriz BertTurk kullanılabilir mesela. Öğrenmeye ve yorum yazmaya devam lütfen 👍👋
Hocam oncelikle teşekkürler turkce kaynak icin. Bunun api kullanimı var mi yani kodlarla bunu gerceklestirebilir miyim?
Yorumunuz için teşekkür ederim. Bildiğim kadarıyla ücretsiz olan versiyonda yok. Ücretli olanda muhtemelen vardır. Öğrenmeye ve yorum yazmaya devam lütfen 🙏👍👋
Merhaba hocam ben Mehmet Ali SALEP. Sakarya Uygulamalı Bilimler Üniversitesi Bilgisayar Mühendisliği son sınıf öğrencisiyim. "Büyük Dil Modellerini kullanarak Belgelerinizle Sohbet Edin: Retrieval Augmented Generation (RAG)" adlı videonuzu izledim. Bitirme projesi olarak okulumun web sitesine chatbot yapacağım hocam. Videoda kullanılan n8n yazılımını bir servera kurup bunu canlıya alabilir miyim? Videonun bir yerinde docker kurmanız lazım diyorsunuz ondan soruyorum. Birde bir sorum daha var hocam.
Projemde, Retrieval-Augmented Generation (RAG) yöntemini uygulamak amacıyla hangi modelin kullanılmasının daha mantıklı olacağına dair bir değerlendirme yapmam gerekiyor.
Projeyi yaparken iki ana seçenek üzerinde duruyorum:
OpenAI'nın GPT-4 API'sını kullanmak
LLaMA gibi modelleri indirip, okulun sunucularında yerel olarak çalıştırmak
Projemi okulun sunucularında gerçekleştireceğim ve bu sunucuların GPU'larının ne kadar güçlü olduğunu henüz bilmiyorum. Bu nedenle, sistemin yükünü bindirmekten ziyade, OpenAI’nin sunucularında RAG işlemlerini yapmak daha mantıklı olabilir.
Ancak, aynı zamanda LLaMA veya benzeri bir modeli indirerek yerel bir çözüm geliştirmek de maliyet ve kullanılabilirlik açısından önemli bir alternatif gibi görünüyor. Bu bağlamda, projenin maliyeti ve uygulanabilirliği bakımından hangi seçeneği tercih etmem gerektiği konusunda görüşlerinizi alabilir miyim?
Yardımcı olursanız çok memnun olurum.
Şimdiden teşekkür ederim.
N8n nin community versiyonu kullanılabilir. Gerçi çok yetenekli değil. Üniversite sitesine kullanılacak bir hizmet olabilmesi için çok ciddi alt yapı ve güvenlik ile mühendislik gerekir. Bir kaç kurulum ile çözülecek bir problem değil. MLOPS konusunda bilgi birikiminizin olmalı. Kolay gelsin
Ben de bir süredir RAG uygulamaları yazıyorum, kesin doğru cevabı garanti edemiyor olmak insanı şüphelendiriyor.
Doğruluğu nasıl artırabiliriz değişik denemeler yapıyorum sürekli. Embedding yöntemi ve LLM türünü sabit belirleyerek verinin daha doğru bir yapıyla (ing. well-structured) verilmesinin doğru veri bölütünü (ing. chunk) getirmek noktasında verimi artırdığını söyleyebilirim.
Pdf gibi unstructured yapıda dökümanlar bilgi çağırması zor dökümanlar iken .csv dökümanları ya da güzel yapılandırılmış .txt dosyalar verimi ve doğruluğu daha yüksek dosya türleri olarak duruyor.
Murat hocam emeğinize sağlık, n8n i biliyordum ama bu amaçla kullanılabileceğini düşünmemiştim, iyi oldu.
@MehmetAkifAKKUS Hocam bilgi paylaşımı için teşekkür ederim. RAG için öneriler literatüre yeni yeni giriyor. Sanırım LLM'leri daha deterministic hale getiremezsek RAG lerde çok başarımı iyileştiremeyeceğiz gibi. n8n ile protoyip yapmak çok kolay. Onun için özellikle kavramları n8n ile anlatmayı denedim. Beğendiğinize sevindim. öğrenmeye ve yorum yazmaya devam lütfen 🙏👋
Size bir sorum olacakdi Mehmet Bey, Ben RAG i Almanca veriler üzerinde yapmak istiyorum. Bu durumda Embedding Model in ve LLM in Almanca da egitilmis olmasi gereklimi iyi bir basarim icin? Cevabiniz icin tesekkürler
Kısa cevap evet gerekiyor
Hocam öncelikle anlatım için çok teşekkürler. İki sorum olucaktı retrieval performansını re-ranking yönteminden başka bir yöntemle artırmamız mümkün müdür ? Mümkünse nasıl bir yol izlemeliyiz? Tekrardan çok teşekkürler.
Merhaba. Açıkçası re-ranking önerilerin başında geliyor. Başka bir öneri de önce kullanıcı promptunu LLM verip ondan bu pronpmta benzer 5-6 prompt önermesini istemek. Daha sonra bu promptları kullanarak reirieval ı başlatmak. Denemek lazım. Sonuçları yazarsanız sevinirim. Sorunuz için teşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
@@MuratKarakayaAkademi Hocam Merhaba tekrardan, llama_index'in SentenceWindowNodeParser'ıyla beraber dokümandan oluşturduğumuz chunkın çevresinde belirlediğimiz window size ile nodelar oluşturup retrieve ettiğimiz chunk için child nodelar sayesinde retrieve ettiğimiz context'i genişletebiliyoruz. Bu performans artışında etkili oldu. Reranker modelleriyle hala daha fazla artış sağlanabilir ama production seviyesinde reranking çok maliyetli oluyor.
@yigitagalar7531 paylaştığınız tecrübe ve bilgi için teşekkür ederim. Maalesef teori ile pratik aynı olmuyor. RAG için bile çok güçlü alt yapı gerekiyor. eşekkür ederim 🙏 öğrenmeye ve yorum yazmaya devam lütfen👍👋
Sistemi Türkçe eğitim veri seti ile eğitip para ile satarlar. Borsa da anlık veriyi izlemek için ücret ödenen bir yerde gelişim pek de kimsenin umurunda değil gibi görünüyor. Emeğinize sağlık, üniversite de bu şekilde etkin ve basit bir anlatım tarzına rastlamadım. İyi çalışmalar.
Teşekkür ederim @fevziceylan7160! Geri bildiriminiz çok değerli. Amacım herkesin erişebileceği kaynaklar sunmak ve yapay zeka konusunu anlaşılır kılmak. İyi çalışmalar!
Lütfen öğrenmeye, paylaşmaya ve yorum yazmaya devam ediniz🙏👍👋
🎉🎉
🙏👍👋
Geri Alımla Artırılmış Üretim
Olabilir👍
Destek ! bot gibi oldum :)
:)) Teşekkürler, eksik olmayın!