Loss function ใน ML ร้อยละ 99% จะเป็น Vertex Function ซึ่งมีก้นเดียวอยู่แล้วครับ ถ้าเป็น Function ที่มี Vertex 2 ก้นหรือมากกว่ามีโอกาสตก Local Minima (ยังไม่ใช้ก้นเหวลึกสุด) วิธีแก้ใช้วิธี Random Parameters ใหม่แล้ว Train เอาหลายๆรอบก็ได้ครับ แล้วดูว่าอันไหนลด Cost ได้ต่ำที่สุด
ขอบคุณมากครับ
เยี่ยมมากครับ
ขอบคุณมากครับ
สุดยอดครับ ผมไล่มาตั้งแต่ Reinforcement learning
Q table
Q learnling
Nural network
Q network
Sofemax
Optimize
มา งง ตรง Gradient Descent ตรงสมการ Cost/w
เข้าใจขึ้นมากครับ
อธิบายได้เข้าใจง่ายขึ้นเลยค่ะ
ขอบคุณครับ เข้าใจเลยครับ
เข้าใจมากขึ้นเยอะ ขอบคุณมากๆครับ
ขอบคุณคับ เข้าใจมากขึ้น
Java สามารถเขียน ML ได้ไหมครับ แล้วจะเริ่มอย่างไรครับ
ถ้าเขียนโค๊ดด้วยจะมีมากๆเลยครับ
กระจ่างเลยครับ ขอบคุณมากๆครับผมม :)
ขอบคุณมากครับ :)
อยากให้มีคอร์สออนไลน์สอนแบบตั้งแต่ basic จังเลยครับ
สมมติถ้า error รวม รอบที่ 1 ได้ 10.5 แล้ว error รวม รอบที่ 2 ได้ 13
ซึ่ง error รวม รอบที่ 2 เพิ่มขึ้น ผมอยากทราบว่า กรณีแบบนี้เกิดขึ้นได้มั๊ยครับ แล้วแก้ปัญหายังไงครับ
กรณี Vertext function เป็นถ้วย สองก้นล่ะครับ แต่มีก้นที่ต่ำสุดอันเดียว การทำงานของ Gradient Descent ยังเหมือนเดิมไหมครับ
Loss function ใน ML ร้อยละ 99% จะเป็น Vertex Function ซึ่งมีก้นเดียวอยู่แล้วครับ ถ้าเป็น Function ที่มี Vertex 2 ก้นหรือมากกว่ามีโอกาสตก Local Minima (ยังไม่ใช้ก้นเหวลึกสุด) วิธีแก้ใช้วิธี Random Parameters ใหม่แล้ว Train เอาหลายๆรอบก็ได้ครับ แล้วดูว่าอันไหนลด Cost ได้ต่ำที่สุด