Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
ขอบคุณอาจารย์มากๆครับ อธิบายได้เห็นภาพชัดเจนมากครับ
มีประโยชน์มากค่ะ ขอบคุณอาจารย์มากๆ ค่ะ
รบกวนสอบถามหน่อยค่ะ ถ้าจะขอไฟล์ powerpoint สามารถดาวน์โหลดได้ที่ไหนคะ พอดีว่าหนูกำลังศึกษาเรื่องนี้สำหรับโปรเจคจบอยู่ค่ะ ถ้ายังไงรบกวนด้วยนะค่ะ
ไม่มีให้โหลดครับ
ขอบคุณมากครับ +1 สับตะไคร้ สมาคมนี้มีรับสมาชิกไหมครับ?
ขอบคุณอาจารย์มากๆครับ มีประโยชน์มากๆ
การเรียนรู้เชิงลึกเข้าไป กับ การที่ผมมีชั้น hidden layer ของ NN ที่มากขึ้น 2 3 ชั้นก้อเป็น deep learning แล้วเหรอคับ deep learning มันน่าจะมีคุณลักษณะอย่างอื่นที่ไม่ใช่จำนวนชั้นที่ซ่อนอยู่นะคับ
มีหลายท่านช่วยตอบครับท่านแรก อาจารย์ธนารักษ์ตอบดังนี้1. การทำให้เกิดชั้นมากขึ้นแล้วยังคำนวณได้ มาจากการที่เครื่องคอมพิวเตอร์ มีประสิทธิภาพมากขึ้น2. เมื่อมีชั้นมากขึ้น เราจะออกแบบแต่ละชั้นอย่างไรก็ทำได้ ในสมัยก่อน เราไม่สามารถทำชั้นได้มาก จึงไม่สามารถออกแบบได้3. การเชื่อมโยงของ Neural Network มีความซับซ้อนมากขึ้น ดังนั้น จะว่า มีชั้นมากขึ้นเท่านั้นเอง ก็ไม่ถูกที่เดียว เพราะเรา ต้องทำวิจัยว่า ชั้นที่ต่อกันแบบได้ จึงจะได้ผลที่ดี จึงเกิด architecture มากมายย่างใน URL นี้- recurrent neural networks (RNNs), - long short-term memory (LSTM)- gated recurrent unit (GRU), - convolutional neural networks (CNNs), - deep belief networks (DBN), and - deep stacking networks (DSNs)developer.ibm.com/technologies/artificial-intelligence/articles/cc-machine-learning-deep-learning-architectures/และ - AlexNet, - VGG Net, - GoogleNet, - ResNet, - ResNeXt, - RCNN, - YOLO,- SqueezeNet, - SegNet, - GAN เป็นต้นwww.analyticsvidhya.com/blog/2017/08/10-advanced-deep-learning-architectures-data-scientists/
ดร. สรรพฤทธิ์ มฤคทัต ตอบดังนี้ครับนิยามไม่เคยเคลียร์น่ะครับของที่ชัวร์คือถ้ามีแค่ input+1 hidden+output นี่ปกติเราเรียก shallow networkและเรื่องหา feature ผมเฉยๆ นะ เพราะยังไง internal representation มันก็มองเป็น feature ได้เสมอถ้าเราเน้น “feature” มากไปบางคนก็จะบอกว่า cnn 3 ชั้นก็เป็น deep ในขณะที่ fully connected layers 100 ชั้นไม่ใช่ deepทั้งนี้ paper ที่เริ่มคำว่า “deep” เองก็ใช้ rbm ที่เทียบได้กับ fully connected layer มากกว่า cnn
@@AIAT2015 ขอบคุณ อ. ทั้งสองท่านมากที่เพิ่มความกระจ่างคับ ...deep learning ยังคงเป็นนิยามนี้ไม่เคยเคลียร์สำหรับ NN ขอบคุนมากๆคับ
ขอบคุณครับ เป็นประโยชน์มากครับ
ขอขอบคุณ อาจารย์ทั้งสองท่าน และทีมงาน ที่ให้ความรู้ครับ (^_^)
ขอบคุณอาจารย์มากๆครับ อธิบายได้เห็นภาพชัดเจนมากครับ
มีประโยชน์มากค่ะ ขอบคุณอาจารย์มากๆ ค่ะ
รบกวนสอบถามหน่อยค่ะ ถ้าจะขอไฟล์ powerpoint สามารถดาวน์โหลดได้ที่ไหนคะ พอดีว่าหนูกำลังศึกษาเรื่องนี้สำหรับโปรเจคจบอยู่ค่ะ ถ้ายังไงรบกวนด้วยนะค่ะ
ไม่มีให้โหลดครับ
ขอบคุณมากครับ +1 สับตะไคร้ สมาคมนี้มีรับสมาชิกไหมครับ?
ขอบคุณอาจารย์มากๆครับ มีประโยชน์มากๆ
การเรียนรู้เชิงลึกเข้าไป กับ การที่ผมมีชั้น hidden layer ของ NN ที่มากขึ้น 2 3 ชั้นก้อเป็น deep learning แล้วเหรอคับ deep learning มันน่าจะมีคุณลักษณะอย่างอื่นที่ไม่ใช่จำนวนชั้นที่ซ่อนอยู่นะคับ
มีหลายท่านช่วยตอบครับ
ท่านแรก อาจารย์ธนารักษ์ตอบดังนี้
1. การทำให้เกิดชั้นมากขึ้นแล้วยังคำนวณได้
มาจากการที่เครื่องคอมพิวเตอร์ มีประสิทธิภาพมากขึ้น
2. เมื่อมีชั้นมากขึ้น เราจะออกแบบแต่ละชั้นอย่างไรก็ทำได้
ในสมัยก่อน เราไม่สามารถทำชั้นได้มาก จึงไม่สามารถออกแบบได้
3. การเชื่อมโยงของ Neural Network มีความซับซ้อนมากขึ้น
ดังนั้น จะว่า มีชั้นมากขึ้นเท่านั้นเอง ก็ไม่ถูกที่เดียว
เพราะเรา ต้องทำวิจัยว่า ชั้นที่ต่อกันแบบได้ จึงจะได้ผลที่ดี
จึงเกิด architecture มากมายย่างใน URL นี้
- recurrent neural networks (RNNs),
- long short-term memory (LSTM)
- gated recurrent unit (GRU),
- convolutional neural networks (CNNs),
- deep belief networks (DBN), and
- deep stacking networks (DSNs)
developer.ibm.com/technologies/artificial-intelligence/articles/cc-machine-learning-deep-learning-architectures/
และ
- AlexNet,
- VGG Net,
- GoogleNet,
- ResNet,
- ResNeXt,
- RCNN,
- YOLO,
- SqueezeNet,
- SegNet,
- GAN
เป็นต้น
www.analyticsvidhya.com/blog/2017/08/10-advanced-deep-learning-architectures-data-scientists/
ดร. สรรพฤทธิ์ มฤคทัต ตอบดังนี้ครับ
นิยามไม่เคยเคลียร์น่ะครับ
ของที่ชัวร์คือถ้ามีแค่ input+1 hidden+output นี่ปกติเราเรียก shallow network
และ
เรื่องหา feature ผมเฉยๆ นะ เพราะยังไง internal representation มันก็มองเป็น feature ได้เสมอ
ถ้าเราเน้น “feature” มากไปบางคนก็จะบอกว่า cnn 3 ชั้นก็เป็น deep ในขณะที่ fully connected layers 100 ชั้นไม่ใช่ deep
ทั้งนี้ paper ที่เริ่มคำว่า “deep” เองก็ใช้ rbm ที่เทียบได้กับ fully connected layer มากกว่า cnn
@@AIAT2015 ขอบคุณ อ. ทั้งสองท่านมากที่เพิ่มความกระจ่างคับ ...deep learning ยังคงเป็นนิยามนี้ไม่เคยเคลียร์สำหรับ NN ขอบคุนมากๆคับ
ขอบคุณครับ เป็นประโยชน์มากครับ
ขอขอบคุณ อาจารย์ทั้งสองท่าน และทีมงาน ที่ให้ความรู้ครับ (^_^)