Kaan Bıçakcı
Kaan Bıçakcı
  • 37
  • 20 837
Veri Bilimi Alanı Hakkında Soru Cevap - w/Gürdal Yaman
Veri alanı hakkında bir soru cevap yapalım dedik. Umarız yararlı olur :)
İletişim: Kaan.Bicakci@wtwco.com
Gürdal LinkedIn: www.linkedin.com/in/gurdal-yaman/
LinkedIn: www.linkedin.com/in/kaanbicakci/
GitHub: github.com/Frightera
00:00 - 00:52 Kendinden bahseder misin
00:52 - 02:20 Mülakat süreçlerinden bahsedebilir misin
02:20 - 03:00 İletişim ne kadar önemli
03:00 - 08:19 Şuan yeni başlamış olsaydın? Kurslar hk. (teorik, pratik, vaatler)
08:19 - 10:05 Projelerin eksikleri
10:05 - 11:29 Keşifçi olmak
11:29 - 13:34 Jupyter'e bağımlı olmak
13:34 - 14:24 Hebele hübele verisetleri
14:24 - 16:30 Her şeyi bilmek? Çok çalışmak?
16:30 - 19:49 Şuanki rekabet ortamı hk. Nasıl sıyrılabiliriz?
19:49 - 23:05 CV Hataları, gereksiz detaylar
23:05 - 24:57 Modellerin para kazandırması, Türkiye'deki durum
24:57 - 26:00 Hepimiz bu süreçlerden geçtik
26:00 - 28:10 Nerede olmamız gerekiyor
28:10 - 30:04 2 yılda uzman olmak, ne olup olmadığını bilmek (anlamak)
30:04 Kapanış
Переглядів: 519

Відео

Gerçek Proje Yapıları | Dependency Management, Unit Test, Linting | Giriş - Part 1
Переглядів 38321 день тому
Gerçek proje yapıları nasıl oluyor diye video serisine başladım. Devamını isterseniz yorumlarda belirtebilirsiniz. Ufak bir giriş yapmış olduk :) Tamamen doğaçlama bir video oldu. Blog yazmaya başladım: www.kaanbicakci.com/my-blog İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Yapay Zeka(!) | Bilgi Kirliliği ve AGI Magazinciliği - [Detaylı Blog Post Açıklamada]
Переглядів 453Місяць тому
Detaylı anlattığım blog post: www.kaanbicakci.com/tr/post/derin-öğrenme-ve-agi-genelleme-sorunu-giriş Özellikle ChatGPT gibi modellerin popüler olmasından sonra yapay zeka üzerine çok fazla bilgi kirliliği oluştu. 10 dakikada bunlara değinmeye çalıştım. Biraz parodi biraz bilgi verdiğim bir video oldu. DK Efekti: tr.wikipedia.org/wiki/Dunning-Kruger_etkisi İletişim: Kaan.Bicakci@wtwco.com Linke...
Veri Analisti Olarak İşe Başlamak - Aylin Özgür
Переглядів 1,2 тис.3 місяці тому
Bugünkü videomuzda Aylin Özgür bize iş bulma sürecindeki izlediği aşamaları ve hikayesini anlatıyor. Kendisiyle iletişim kurmak isterseniz: LinkedIn: www.linkedin.com/in/aylinozgur/
Gerçek Hayat ML Sistem Dizaynı (Giriş) - Tanıyor Olabileceğin Kişiler - Graph Neural Network
Переглядів 4893 місяці тому
Gerçek hayatta olabilecek sistem dizaynlarına giriş yapıyoruz :) Diagram linki: drive.google.com/file/d/1SNmr0UuGM-qNxVsy1mF4N0CBpc9Dv94c/view?usp=drive_link 00:00 - 02:16 Giriş 02:16 - 11:55 Problem Tanımı vb. 11:55 - 14:37 High level tasarım 14:37 - 19:10 Basit Model Tasarımı 19:10 - 22:40 Graph Oluşturma 22:40 - 26:45 Graph Özellikleri 26:45 - 27:10 Mola 27:10 - 38:10 Graph Neural Network Gi...
Veri Bilimi Alanında İş Bulmak | Mayıs 2024
Переглядів 1,2 тис.3 місяці тому
Mayıs 2024'te iş bulabilen kişilerin ortak özelliklerinden bahsettim, sohbet muhabbet oldu biraz daha :) İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
LeetCode 827 - Making a Large Island - Python Çözüm | DFS
Переглядів 1185 місяців тому
Benzer bir leetcode sorusundan devam ediyoruz, bu videoda depth first search ile matrix üzerinde gezerek soruyu çözüyoruz. Görmek istediğiniz leetcode çözümü varsa yorumlara yazabilirsiniz! :) İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
LeetCode 426 - Python Çözüm | Binary Search Tree
Переглядів 1125 місяців тому
Anlatması biraz karışık oldu, soru aslında Inorder Traversal'ı soruyor. İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
LeetCode 1091 - Python Çözüm | BFS
Переглядів 3125 місяців тому
LeetCode 1091.soruyu anlayıp, çözüyoruz. Videoda demedim fakat bu yönteme BFS yani Breadth-first search deniyor. Bu tür işlemlerde (yani unweighted graphlarda) BFS kullanarak en kısa yolu bulabiliriz. İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Devin AI - LLM - AGI Hakkında | Yazılım Mühendisliği Bitmiş(!)
Переглядів 7835 місяців тому
Magazini bırakıp konuşmaya devam ediyoruz :) İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
LLM'ler Hakkında Az Bilinen 1-2 Konu | Yeni Başlayan Arkadaşların Hatası
Переглядів 6646 місяців тому
Bu podcastte işin magazin kısmından çıkıp LLM'lerin yanlış anlaşılabilecek kısımlarına bakıyoruz :) İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Data Science & ML'de Öğrenim Yöntemlerim ve Kurslarda Anlatılmayan 1-2 Konu [2024]
Переглядів 4686 місяців тому
Bu podcastte ilk başladığımda nasıl çalıştığımdan ve 2024 yılında ekstra ne yapılabilir bahsettim :) İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Basitçe Grid Search - Random Search - Optuna Nedir? [Hiperparametre Optimizasyonu]
Переглядів 4867 місяців тому
Bu videoda biraz daha arkaplanda bırakılan Optuna frameworkunun çalışma prensibini basitçe anlattım. Daha detaylı videolar isterseniz yorum kısmında belirtebilirsiniz. Machine Learning Modelinin İyi Olması Ne Demek: ua-cam.com/video/Kyi_l9h4Mug/v-deo.html İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Machine Learning & Data Science Sadece Model Yazmaktan İbaret Değil
Переглядів 3947 місяців тому
15:41 Fiili değil, öznesi olacaktı :) Bu podcastte yeni başlayan arkadaşların hiç değinmediği konulardan bahsettim. Machine Learning Modelinin İyi Olması Ne Demek: ua-cam.com/video/Kyi_l9h4Mug/v-deo.html İletişim: Kaan.Bicakci@wtwco.com LinkedIn: www.linkedin.com/in/kaanbicakci/ GitHub: github.com/Frightera
Veri Bilimi (Data Science) Bootcampleri Hakkında - Bölüm 2
Переглядів 2328 місяців тому
Veri Bilimi (Data Science) Bootcampleri Hakkında - Bölüm 2
Veri Bilimi (Data Science) Bootcamplerini Önerir Misin - Bölüm 1
Переглядів 4978 місяців тому
Veri Bilimi (Data Science) Bootcamplerini Önerir Misin - Bölüm 1
Bias - Variance (Tradeoff) Terimlerinin Mantığı Nedir? [PDF Açıklamada]
Переглядів 5278 місяців тому
Bias - Variance (Tradeoff) Terimlerinin Mantığı Nedir? [PDF Açıklamada]
Cross Validation Mantığı Nedir? [PDF Açıklamada]
Переглядів 4599 місяців тому
Cross Validation Mantığı Nedir? [PDF Açıklamada]
What is Partial Dependence Plot?
Переглядів 2799 місяців тому
What is Partial Dependence Plot?
What Does It Mean for a Machine Learning Model to Be Good?
Переглядів 8999 місяців тому
What Does It Mean for a Machine Learning Model to Be Good?
Why you shouldn't use pd.get_dummies in Machine Learning Pipelines
Переглядів 42511 місяців тому
Why you shouldn't use pd.get_dummies in Machine Learning Pipelines
Label Encoder'ı Sadece Labellarda Kullanmalıyız
Переглядів 26011 місяців тому
Label Encoder'ı Sadece Labellarda Kullanmalıyız
Bazı Doğru Bilinen Yanlışlar - Backprop, Hidden Layer ve Softmax
Переглядів 221Рік тому
Bazı Doğru Bilinen Yanlışlar - Backprop, Hidden Layer ve Softmax
Pytorch ve Deep Learning Model Eğitimine Giriş w/MYK
Переглядів 307Рік тому
Pytorch ve Deep Learning Model Eğitimine Giriş w/MYK
Lineer Regresyonda Scaling Gerekli Mi? Veriyi Ne Zaman Scale Etmeliyiz?
Переглядів 263Рік тому
Lineer Regresyonda Scaling Gerekli Mi? Veriyi Ne Zaman Scale Etmeliyiz?
Sıkça Yapılan Hata: Data Leakage | Yanlış Fonksiyonların Kullanımı
Переглядів 554Рік тому
Sıkça Yapılan Hata: Data Leakage | Yanlış Fonksiyonların Kullanımı
NLP (LLM) ve Sektöre Dair Soru Cevap | Gerçek Hayat Projeleri
Переглядів 416Рік тому
NLP (LLM) ve Sektöre Dair Soru Cevap | Gerçek Hayat Projeleri
TensorFlow - Keras'a Pull Request ile Yeni Loss Eklemek
Переглядів 80Рік тому
TensorFlow - Keras'a Pull Request ile Yeni Loss Eklemek
TensorFlow - Keras TextVectorization ve Embedding Layerları
Переглядів 67Рік тому
TensorFlow - Keras TextVectorization ve Embedding Layerları
TF-Keras Sıfırdan Loss Yazma - Focal Loss ve Class Weight İlişkisi
Переглядів 93Рік тому
TF-Keras Sıfırdan Loss Yazma - Focal Loss ve Class Weight İlişkisi

КОМЕНТАРІ

  • @Xsouls1991
    @Xsouls1991 18 годин тому

    Hocam gazi istatiatik bölümüne başlayacağım ama biraz korkmaya başladım veri bilimine ve yapay zeka gibi alanlara yönelmek istiyorum (80 k ile yazdım bölümü) sizce bu alanda başarılı olabilir miyim bu bölüm ve üniyle ve ben mezun olduğumda yaklaşık 2028-29 gibi yıllarda bu alanda iş bulmak kolaylaşır mı

    • @kaanbicakci
      @kaanbicakci 17 годин тому

      İş marketinin o zamanki durumunu şimdiden kestirmek zor malesef. Bölüm olarak uygun görünüyor, kodlama tarafınızı da iyi tutarsanız neden olmasın, bir de güncel kalmak gerekli. Okulda gösterilen şeyler 10 yıllık slaytlar olabilir, güncel kalmazsınız iş bulmanız zorlaşır. Kaç bin içinde olduğunuz çok önemli değil, güzel bir portfolyo oluşturmaya şimdiden gayret ederseniz ilerde rahat edersiniz. Kolay gelsin 🙃

  • @ferdikabul6179
    @ferdikabul6179 5 днів тому

    Güzel bir video olmuş. Emeğinize sağlık deep learnig videolarınızı bekliyoruz 👍🙏

  • @ceydabrakadabra
    @ceydabrakadabra 10 днів тому

    Emeğinize sağlık, videolarınız cesaretlendirici oluyor.

  • @onurkoc6869
    @onurkoc6869 13 днів тому

    Gürdal süper biri de sen biraz şeysin kaan :) :D

    • @kaanbicakci
      @kaanbicakci 13 днів тому

      Mantı yiyordum bu sefer knk

    • @kaanbicakci
      @kaanbicakci 13 днів тому

      EnGeLi KaLdıRıR MıSıN BiŞe DiCEm

  • @chessfighter-r5g
    @chessfighter-r5g 15 днів тому

    hocam llm yarışmaları veya fine tuning neden bu kadar popüler zaten gayet güzel sonuçlar vermiyor mu

    • @kaanbicakci
      @kaanbicakci 13 днів тому

      Domain spesifik işler için fine tune etmek daha iyi sonuçlar verebiliyor.

  • @jameshatfield6448
    @jameshatfield6448 16 днів тому

    Tesekkurler gayet iyi program olmus.

  • @ahmetmertyigitbasi6653
    @ahmetmertyigitbasi6653 16 днів тому

    Abi nasıl proje yapalım? Anlatır mısın?

    • @kaanbicakci
      @kaanbicakci 15 днів тому

      Part-1 olarak yayinda bir video var. Onun devami gelecek. Oraya bakarak projelerinizi sekillendirebilirsiniz.

  • @Yusuf-Cizlasmakinyo
    @Yusuf-Cizlasmakinyo 16 днів тому

    Ağzınıza sağlık, soluksuz izledim.

  • @animatorjoseph28
    @animatorjoseph28 16 днів тому

    Hocam deep learning videoları gelsin

  • @fedai1882
    @fedai1882 17 днів тому

    hocam tanidik olmadan staj bulma ihtimalin yuzde 5 falan. benim cv bence (0 tl ile kimsenin isini rahatsiz etmeden) staj yapacak seviyedeydi fakat 6 ay araliksiz kimse donmedi. sonrasinda tanidigin tanidigina cv'imi verdim buyuk bir sirketin patronu direkt beni aradi IK'ya bile gerek kalmadan onayladi. yani cv'in dogru kisilerin eline gecmeli diye dusunuyorum

    • @kaanbicakci
      @kaanbicakci 17 днів тому

      Deneyimini paylaştığın için teşekkür ederim

  • @berkayozturkx
    @berkayozturkx 18 днів тому

    Bu değerli bilgiler için sana gerçekten çok teşekkür ederim, Kaan. Sayende bana şimdiye kadar öğretilen adımların yanlış olduğunu ve bu yanlış adımların üstesinden nasıl gelinebileceğini öğrendim. Umarım bu tarz videoların sayısı artar da sayende hatalarımızın daha çok farkına varırız. :)

    • @kaanbicakci
      @kaanbicakci 18 днів тому

      @@berkayozturkx Yararlı olmasına sevindim. Mesela bir diğer bilgi cross validation ile ilgili olabilir. Cross validation, overfittingi azaltmaz. İyi çalışmalar 🙃

    • @berkayozturkx
      @berkayozturkx 18 днів тому

      @@kaanbicakci Teşekkür ederim. İyi günler diliyorum.

  • @kaanbicakci
    @kaanbicakci 19 днів тому

    Sesim akvaryumdan konuşuyor gibi çıkmış. Yakın zamanda bunun yenisini çekeceğim, artık daha fazla bilgiye hakimim :)

  • @men--8425
    @men--8425 19 днів тому

    İzlediğim çoğu kişi train-test split yapmadan scale ediyor ya da impute yapıyor, böyle bir hata nasıl göz ardı ediliyor anlamış değilim. Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar. Valla şu bilgiler o kadar değerli ki, kod yazmaya biraz daha alışayım bu notebook'u çok detaylı inceleyeceğim teşekkürler.

    • @kaanbicakci
      @kaanbicakci 19 днів тому

      "Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar" Ben bu şekilde düşünmüyorum; bununla ilgili birkaç kişiyle iletişime geçmiştim. Bazı kişiler, ders aldıkları kişilerden, bu işlemlerin train-test split'ten sonra yapılması durumunda sorun olabileceğini duymuşlar. Çok büyük ihtimalle gerçek bir ortamda model geliştirip deployment vb. ile uğraşmamış kişiler bu dersleri verenler :(

    • @men--8425
      @men--8425 19 днів тому

      @@kaanbicakci umarım bu eğitimleri alanlar iş hayatına girdiklerinde büyük sorunlar çıkarmadan data leakage'e son verirler, ben şanslıyım ki bu videoyu izledim :D Son dediğinize katılıyorum, btkdan ufak bir yer izleyim dedim. Prof Dr bir hocamız veri setini aldı direkt fit_transform yaptı sonra verileri ayırdı. RNN'e çalışacaktım kapattım. Gidip kaggleden veri seti alıp kendim yazmaya çalışacağım :)

    • @kaanbicakci
      @kaanbicakci 19 днів тому

      @@men--8425 İyi çalışmalar dilerim 🙃

  • @yusufczlasmak1441
    @yusufczlasmak1441 20 днів тому

    eline sağlık, devamını dört gözle bekliyoruz kaan hocam

  • @user-dp7lr5qh6o
    @user-dp7lr5qh6o 20 днів тому

    hocam en ihtiyacimiz olan seyler. devamı gelirse çok sevinirim

  • @fratozcan4689
    @fratozcan4689 21 день тому

    efsane bilgiler paylaşmışsın dostum tebrik ederim

  • @alpayabbaszade1905
    @alpayabbaszade1905 23 дні тому

    Biraz kilolu çıkmışım kanka

  • @mustafatiti8844
    @mustafatiti8844 23 дні тому

    en büyük mü bilmiyorum ama çok büyük

  • @zephyrus1333
    @zephyrus1333 24 дні тому

    video icin tesekkurler.

  • @emreida
    @emreida Місяць тому

    Elinize sağlık çok temiz anlatım

    • @kaanbicakci
      @kaanbicakci Місяць тому

      @@emreida Yararlı olmasina sevindim 🙃

  • @the-ghost-in-the-machine1108
    @the-ghost-in-the-machine1108 Місяць тому

    güzel anlatım agzına saglık Kaan. şu -log likelihood kısmında joint prob -> product of univariate conditional probs-> sum'a geçişte log'ların alınmasında çarpmanın maliyetinden ziyade küçük prob.'ların çarpımı arithmetic underflow'a sebep oluyor, bilgisayarlar çok düşük precisionları represent edemiyor vs sorunu vardı, onu eklemek isterim ben de

    • @kaanbicakci
      @kaanbicakci Місяць тому

      Teşekkürler bilgi için 🙂

  • @erkansar
    @erkansar Місяць тому

    İşin içinden birinin bu magazin fırtınasına karşı gerçekleri söyleme zamanı gelmişti. Teşekkürler....

  • @user-yw2qe7hh2y
    @user-yw2qe7hh2y Місяць тому

    tamamen daha iyi dediğimiz model çıktı, antrophic Claude 3.5 Sonnet. Eleştirel bir bakış sunup gene yarım yamalak bilgiler ile konuşan birisi. Deep Learning ile agi birbirine ters???

    • @kaanbicakci
      @kaanbicakci Місяць тому

      GPT-3 ve GPT-4 arasındaki farkları düşünürsek, Claude 3.5 Sonnet ile GPT-4o arasındaki farkın o kadar büyük olmadığını görürüz. Benchmarklarda bazı başlıklarda %3 ile %5 arasında iyi olması tamamen daha iyi olduğu anlamına gelmiyor, o şekilde değerlendirirsek GPT 4o'nun da iyi olduğu konular bulabiliriz. Deep learning'in çok sorunu var, en büyüğünü ben söyledim zaten. DL dediğimiz bir fonksiyonu optimize eden araçtır, genellemenin konseptine terstir. Yani train edildiği uzayın dışına çıkamaz. AGI, DL ile çözülecekse fikirlerinizi duymak isterim

    • @oguzhanercan4701
      @oguzhanercan4701 Місяць тому

      @@kaanbicakciDerin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır.

    • @kaanbicakci
      @kaanbicakci Місяць тому

      @oguzhanercan4701 Selam yorumunuz nedense çıkmamış, ben yapıştırıyorum: -- "@kaanbicakci Derin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır." --- Cevap: Şu konuda ortada buluşabiliriz, uzayda ilgili fonksiyona yaklaşırken modelin parametrelerini optimize ederiz. AGI dediğim zaman az örnekle on-the-fly genelleme yapabilen zeki (biraz sonra açıklıyorum) hipotetik modelleri kastediyorum. Şuanki kullanılan DL yöntemlerinin ileride AGI içinde rol oynayacağını düşünmüyorum, dönüp dolaşıp konu fonksiyon optimizasyonuna geliyor. Spesifik alanlardaki gelişmeler mevcut modellere gelişme sağlıyor olabilir, benim fikrim bunların bir rol oynamayacağı yönünde. Diffusion vb. modelleri de zeki olmayan modeller kategorisine koyuyorum. AGI dediğimde DL'in yapamayacağı işleri güvenli bir şekilde yapabilecek modelleri kastediyorum, FSD, cerrahilik gibi. Şuanki modellerin yaptığı interpolasyon'un sahte bir generalization örneği olduğunu düşünüyorum. Gerçek anlamda genellemenin ise tamamen farklı bir şey olduğunu düşünüyorum, out-of-distribution'ı kendi içinde halletmiş oluyor. Gerçek anlamda genellemeyi henüz kimse tam olarak bilmiyor ve tahminimce DL bu iş için yanlış bir model. Aslında güzel bir yere değinmişsiniz, fiziksel dünyayı anlamdıramayacağız diye, buna katılıyorum. Aynı anda Neuroscience gibi çoklu disiplinler de çalışmaya çalışıyorum, bulgularım bana şunu söylüyor ki AI Community'si diğer dalları görmezden gelerek bir şeyler deniyor. Belki de en büyük eksik bu :hmm: Yapay "öğrenme" derken bile orada tam olarak bir "öğrenme" olduğunu sanmıyorum. "Burada da işin içerisine diferansiyel denklemler girmekte" dediğiniz kısımla ilgili Linkedin veya mail üzerinden makale paylaşabilirseniz sevinirim, yanlış anlamadıysam insan zekasıyla ilgili bir benzetme var, public bir makale varsa okumak isterim. Vaktiniz olursa 1998 yılında yayınlanmış şu makaleyi okumanızı tavsiye ederim: www.sciencedirect.com/science/article/pii/S0010028598906946 AGI olursa çoklu girdi olacağına ben de katılıyorum, çevreyle etkileşim, zamansal olayların işlenmesi, sadece işe yarar bilginin hatırlanması... gibi çok konular var. Her kim AGI'yi bulursa çok büyük güç sahibi olacağı kesin :D

  • @behramb.1644
    @behramb.1644 Місяць тому

    daha fazla detay mükemmel olurdu. eline saglik

  • @onurkoc6869
    @onurkoc6869 Місяць тому

    Alpay iyi de sen biraz şeysin.

    • @kaanbicakci
      @kaanbicakci Місяць тому

      Niye öyle dedin ki ben evde çay içiyordum

    • @onurkoc6869
      @onurkoc6869 Місяць тому

      sen biraz markasın 😉

    • @kaanbicakci
      @kaanbicakci Місяць тому

      @@onurkoc6869 🐰

    • @onurkoc6869
      @onurkoc6869 Місяць тому

      @@kaanbicakci 🤔

  • @ce7in
    @ce7in Місяць тому

    Benzer bir mantığı beynimizdeki elektriksel ve kimyasal sinyaller için de kurabiliriz. Bir nörondan diğerine aktarım sağlayan nörotransmitterler bilinçli olabilir mi? Aksonlardan ya da miyelin kılıftan geçen elektrik sinyalleri bilinçli olabilir mi? Tek tek parçaları inceleyerek bütünü anlamaya çalışmak belirli bir ölçeğin altında mantıklı değildir. Nörobilimi bırakıp kuantum fiziği alanında düşündüğünüzde de benzer bir çıkmazla karşı karşıya kalırsınız. Elektron gibi atomaltı parçacıklar için süperpozisyon söz konusu iken atomaltı parçacıklardan oluşan makro bir nesne için bu durum yerine tek bir pozisyon geçerli hale gelir. Ölçek büyüdüğünde olasılıklardan değil oluşlardan söz etmeye başlarız. Şeyler biraraya geldiklerinde kendilerinde olmayan özellikler kazanabilirler. "Parça bütündür, bütün de parçadır" yaklaşımı bu boyutlarda geçerli değildir. Onun dışında şuanki modellerin bir bilinç oluşturabilme olasılığının çok düşük olduğunu ben de kabul ediyorum. Ancak dediğim gibi bu konuda kesin yargılarda bulunmak çok da mantıklı değil.

    • @kaanbicakci
      @kaanbicakci Місяць тому

      Selam, değerli yorumunuz için teşekkür ederim :) Burada daha çok insanların yazdıklarını şeyleri göstermiştim fakat dediğiniz gibi bu konuda farklı düşünceler var. Bilinç kısmının felsefik kısmı da mevcut aslında ve bu kavram benim için gizemini koruyor. AGI ile aslında zekayı taklit etmek istiyoruz, bilinç kavramı nasıl olur kesin bir şey demek mümkün değil tabi ki, çooook uzun süreler üstüne konuşabiliriz 🙂

  • @talharuzgarakkus7768
    @talharuzgarakkus7768 2 місяці тому

    Eline sağlık abi bazı kendi bildigini zanneden cahilleri iyi gömmüşsun 😂

  • @altunabbaszade7127
    @altunabbaszade7127 2 місяці тому

    Alpay❤.

  • @mustafakurt918
    @mustafakurt918 2 місяці тому

    Gayet bilgilendirici , sektore yeni giren ve girmeye calisan arkadaslar icin cok faydali bir kanal Bende Londra dayim bir gun insallah Kaan kardesimle de tanisiriz. Saglicakla kalin...

  • @LauraHacyeva
    @LauraHacyeva 2 місяці тому

    🙏🏻🧿

  • @kaanbicakci
    @kaanbicakci 2 місяці тому

    Subredditler: www.reddit.com/r/cscareerquestions/ www.reddit.com/r/programming/ www.reddit.com/r/MachineLearning/ ML Kitap: probml.github.io/pml-book/book1.html Alpay'ın bahsettiği Udemy kursu: www.udemy.com/course/sustainable-and-scalable-machine-learning-project-development

  • @toygar8699
    @toygar8699 2 місяці тому

    daha iyi açıklanamazdı 👏

  • @toygar8699
    @toygar8699 2 місяці тому

    açıklayıcı bir video teşekkürlerr

  • @user-dp7lr5qh6o
    @user-dp7lr5qh6o 2 місяці тому

    tesekkür ederim hocam. degerli bir video

  • @zephyrus1333
    @zephyrus1333 2 місяці тому

    Selam, video için teşekkürler. Daha önce izlemiştim ama dönüp bir daha açıp izleyesim geldi. Müsait zamanlarında bunun gibi videolar atman baya yararlı oluyor(en azından kendi adıma) :D. Merak ediyorum. Şirketlerde genel olarak model oluştururken kütüphane kullanıyorlar mı ? Örneğin xgboost'un kütüphanesi yerine 0 dan Node'nu oluşturup gammasını hesaplayıp hessianını, gradientini hesaplayıp mı bir model ortaya çıkarıyorsunuz. Ve ya en basitinden herkes tarafından bilinen optuna'yı modelleriniz üzerinde kullanıyormusunuz

    • @kaanbicakci
      @kaanbicakci 2 місяці тому

      Selam, yararlı olmasına sevindim. Bu tür videoları çekmeyi ben de sevsem de izlenme açısından maalesef geri dönüşü olmuyor. Ondan şuanlık bu tür şeyleri askıya aldım, ileride tekrar değerlendirebilirim. Şirkette Optuna kullandığım oluyor, işimizi kolaylaştıran şeyleri çoğu zaman (lisansları uygunsa) kullanabiliriz bunda bir sorun yok. XGBoost yerine daha özel bir şeye ihtiyacımız olursa da sıfırdan yazabiliriz, ayrıca hessian'ı bilen kişi sayısı çok olmadığından bunu dediğin zaman insanların kafası karışabilir :D

    • @zephyrus1333
      @zephyrus1333 2 місяці тому

      ​@@kaanbicakci Teşekkür ederim. Bu alanda kendimi geliştiren birisiyim. Artık böyle 0'dan logistic regression, xgboost böyle bir kaç modeli build etmeye çalışıyorum. Yalan yok zorluyor. Hani bir Data Scientist'in veya ml engineer'in bunları yapabilmesi şart mı değil mi kestiremedim. Çünkü bir kütüphaneden model import etmek bu alanda yeni başlayan herkesin yapabileceği şeyler. Bu konuda biraz kafam karışık yalan yok :D Hani kütüphaneler dışında bu modelleri inşa edebilmek yeteneği ve yetkinliği şart mı ?

    • @kaanbicakci
      @kaanbicakci 2 місяці тому

      Bu yanıtı gözden kaçırmışım, biraz geç bir yanıt olacak kusura bakma. Dediğin yetkinlik çok şart değil, genelde şirketlerin kendi mimarileri (model değil genel yapı olarak, kod repoları vb.) bulunur. Bunlar içinde belki farklı sıfırdan yazılmış modeller olabilir ama onlar bile genelde bir süre içinde yazılır. Yani 1 saat içinde Logistic Regression'ı sıfırdan yazma becerisi çok önemli değil, önemli olan bilgilerini kullanarak onlara para kazandırabileceğini göstermek. Sıfırdan yazma üstüne pratik yaparsan da dediğim gibi şirketlere özgü modellerle karşılaştığında çok zorlanmazsın çünkü pratiğin olur. Yani belki XGBoost'u sıfırdan yazmayı aramazlar fakat sallıyorum XGBoost'un tekil ağaçlarını kullanıp bazı bilgiler çıkarmanı isteyebilirler ki model yorumlama üzerine bir şeyler olsun gibi örnekler verilebilir. Çoğu zaman tekerleği yeniden icat etmeye gerek yok, hazırı varsa import edip kullanıyoruz. Umarım açıklayıcı olmuştur :)

    • @zephyrus1333
      @zephyrus1333 2 місяці тому

      @@kaanbicakci Tesekkurler

  • @aerdemkurt
    @aerdemkurt 2 місяці тому

    teşekkürler

  • @chessfighter-r5g
    @chessfighter-r5g 3 місяці тому

    selamlar daha çok ensemble sayesinde learning güçlü olduğum kısımlar(chatgpt prof lvl diyor) ve data analyst python kütüphaneleri . derin öğrenme ve mlops kısmım zayıf doğal olarak ne önerirsin ilk iş için özellikle işte aktif olarak ensemble yeteneği gerekse iyi olur

    • @kaanbicakci
      @kaanbicakci 2 місяці тому

      Selam, bu durumda MLOps üstünüze düşmenizi öneririm.

  • @user-dp7lr5qh6o
    @user-dp7lr5qh6o 3 місяці тому

    tesekkür ederim

  • @sevdanurcopur2397
    @sevdanurcopur2397 3 місяці тому

    Sektöre yeni girenler için oldukça değerli bir video olmuş. Paylaşımınız için çok teşekkürler 🙂

  • @pnarirmak4669
    @pnarirmak4669 3 місяці тому

    Yolunuz açık olsun.

  • @aylinozgur158
    @aylinozgur158 3 місяці тому

    Keyifli sohbet için teşekkür ediyorum, ihtiyacı olanlara fayda sağlaması dileğiyle ✨

  • @YusifHasanli-rz3lg
    @YusifHasanli-rz3lg 3 місяці тому

    Merhaba Kaan, son sınıf İnformation Technology öğrencisiyim. 5 aydır bir şirketde Data Science stajı yapıyorum. Aklımda yurt dışı var remote olarak da. Bazen herkes yanlış alanda olduğumu söylüyor. Benim gözlemim kendi ülkemde insanlar sırf para için bu alana geliyorlar ve hakikiatan professionallar az. Senin fikrini öğrenmek isterim. Teşekkürler önceden

    • @kaanbicakci
      @kaanbicakci 3 місяці тому

      Selam, yurtdışı remote tecrübe olmadan zor olabilir. 1 yıl kadar staj yaptığın şirkette devam edebilirsen belki deneyim kazanma anlamında yararlı olabilir. En azından kağıt üstünde gösterecek bir şeylerin olur.

  • @akagei128
    @akagei128 3 місяці тому

    Ağzınıza sağlık hocam. Bir sorum olacaktı. Missing Data handling ederken mean,mode gibi basit teknikler kullanarak ya da kullanmayarak impute ederken ne gibi metriklere bakıyoruz. Hangi tekniği neye göre uyguluyoruz acaba.

    • @kaanbicakci
      @kaanbicakci 3 місяці тому

      Selam, çok absürt derecede kayıp veri yoksa (%70+) temelde iki şeye bakıyoruz diyebiliriz. 1) Verinin dağılımı 2) Domain bilgisi Bazı verisetleri için mantıklı olan imputation metodunu belirlemek için domaini bilmek gerekir. Verinin dağılımı da rol oynar, sağa çarpık bir sütunda ortalama yerine medyan ile doldurmak daha iyi bir seçim olabilir mesela.

    • @akagei128
      @akagei128 3 місяці тому

      @@kaanbicakci Teşekkür ederim.

  • @the-ghost-in-the-machine1108
    @the-ghost-in-the-machine1108 3 місяці тому

    Eline sağlık, ml dışında tertemiz "sistem dizayn ve problem nasıl etraflıca düşünülür ve kagıda dökülür" anlatımı olmuş.

    • @kaanbicakci
      @kaanbicakci 3 місяці тому

      yararlı olmasına sevindim :)

  • @ufukacar1117
    @ufukacar1117 3 місяці тому

    Çok yararlı ve güzel bir video olmuş.Elinize sağlık 🙏🏼. Videoyu detaylı izledikten sonra gerekli sorularımı sormak isterim :)

    • @kaanbicakci
      @kaanbicakci 3 місяці тому

      Tabi ki, tartışabiliriz her zaman :)

  • @emindurmus993
    @emindurmus993 3 місяці тому

    34.25 bahsettiğiniz konu aggregation composition vs . işlemleri değil mi ?

    • @emindurmus993
      @emindurmus993 3 місяці тому

      tamam ilerleyen kısımlarda bahsediyorsunuz zaten .