ML: จริงๆแล้วสร้าง Model ได้ยังไง

Поділитися
Вставка
  • Опубліковано 24 гру 2024

КОМЕНТАРІ • 15

  • @armkhachen8616
    @armkhachen8616 2 роки тому

    ขอบคุณมากครับ

  • @DrKerMinistry
    @DrKerMinistry 5 років тому

    เยี่ยมมากครับ
    ขอบคุณมากครับ

  • @taorenx
    @taorenx 2 роки тому

    สุดยอดครับ ผมไล่มาตั้งแต่ Reinforcement learning
    Q table
    Q learnling
    Nural network
    Q network
    Sofemax
    Optimize
    มา งง ตรง Gradient Descent ตรงสมการ Cost/w
    เข้าใจขึ้นมากครับ

  • @sirinarthansuwan8929
    @sirinarthansuwan8929 4 роки тому

    อธิบายได้เข้าใจง่ายขึ้นเลยค่ะ

  • @sarantarnoi3732
    @sarantarnoi3732 3 роки тому

    ขอบคุณครับ เข้าใจเลยครับ

  • @Immortaxio135
    @Immortaxio135 4 роки тому

    เข้าใจมากขึ้นเยอะ ขอบคุณมากๆครับ

  • @SaTaPaT-J
    @SaTaPaT-J 4 роки тому

    ขอบคุณคับ เข้าใจมากขึ้น

  • @PMTManja-jl6oh
    @PMTManja-jl6oh 4 місяці тому

    Java สามารถเขียน ML ได้ไหมครับ แล้วจะเริ่มอย่างไรครับ

  • @kajonpongpoopamonkaipob6153

    ถ้าเขียนโค๊ดด้วยจะมีมากๆเลยครับ

  • @teerapatprommarak2070
    @teerapatprommarak2070 5 років тому

    กระจ่างเลยครับ ขอบคุณมากๆครับผมม :)

  • @truthordare5706
    @truthordare5706 4 роки тому +1

    อยากให้มีคอร์สออนไลน์สอนแบบตั้งแต่ basic จังเลยครับ

  • @gunzacx
    @gunzacx Рік тому

    สมมติถ้า error รวม รอบที่ 1 ได้ 10.5 แล้ว error รวม รอบที่ 2 ได้ 13
    ซึ่ง error รวม รอบที่ 2 เพิ่มขึ้น ผมอยากทราบว่า กรณีแบบนี้เกิดขึ้นได้มั๊ยครับ แล้วแก้ปัญหายังไงครับ

  • @blurvision3138
    @blurvision3138 5 років тому

    กรณี Vertext function เป็นถ้วย สองก้นล่ะครับ แต่มีก้นที่ต่ำสุดอันเดียว การทำงานของ Gradient Descent ยังเหมือนเดิมไหมครับ

    • @KobkritViriyayudhakorn
      @KobkritViriyayudhakorn 5 років тому +5

      Loss function ใน ML ร้อยละ 99% จะเป็น Vertex Function ซึ่งมีก้นเดียวอยู่แล้วครับ ถ้าเป็น Function ที่มี Vertex 2 ก้นหรือมากกว่ามีโอกาสตก Local Minima (ยังไม่ใช้ก้นเหวลึกสุด) วิธีแก้ใช้วิธี Random Parameters ใหม่แล้ว Train เอาหลายๆรอบก็ได้ครับ แล้วดูว่าอันไหนลด Cost ได้ต่ำที่สุด