- 6
- 34 480
Machine Learning College
Czechia
Приєднався 4 січ 2020
Pronikněte do tajů strojového učení! Nabízíme ucelený studijní program k získání praktických znalostí a zkušeností pro návrh a vývoj vlastních machine learning řešení pro začátečníky a středně pokročilé. Kromě středoškolské matematiky a znalosti programování v Pythonu nepotřebujete žádné předchozí zkušenosti.
www.mlcollege.com
www.mlcollege.com
6 Neuronové sítě a deep learning
Ve videu poznáte základy umělých neuronových sítí a dozvíte se, co je to deep learning.
Переглядів: 6 838
Відео
5 Evaluační metriky
Переглядів 1,5 тис.4 роки тому
Ve videu se dozvíte, jak měřit kvalitu regresních a klasifikačních modelů strojového učení.
4 Problém přetrénování
Переглядів 2,1 тис.4 роки тому
Ve videu se dozvíte, k čemu je dobrá validační a testovací množina a co je to problém přetrénování modelu strojového učení.
3 Logistická regrese
Переглядів 4,1 тис.4 роки тому
Dozvíte se, jak funguje logistická regrese, proč se jí říká regrese, když jde o klasifikační metodu, a mnoho dalšího.
2 Regresní analýza
Переглядів 13 тис.4 роки тому
Dozvíte se, co je regresní analýza a jak se počítá lineární regrese.
1 Co je strojové učení?
Переглядів 7 тис.4 роки тому
Dozvíte se, co je strojové učení, jaký je obecný princip klasifikace a jaký je rozdíl mezi strojovým učením a umělou inteligencí.
Hezky vysvětlená metoda nejmenších čtverců
Prosím, kam se poděl 3.díl?
Nikam nezmizel :) ua-cam.com/video/wWTzohbKQ24/v-deo.html
Krásně vysvětleno, děkuji!
Moc díky za video. Excelentně vysvětleno. Moc mi to pomohlo ve studiu tohoto náročného oboru. Ještě jednou díky!
Placený kurz je stále k dispozici prosím?
co znamená to d v 13:28 min
To je označení derivace. Viz cs.wikipedia.org/wiki/Z%C3%A1pis_derivace
predpokladam spravne ze vlastnosti jednotlivych prvkov sa vyhodnocuju numericky takze si najprv treba zadefinovat pravidlo ktore urci mieru splnenia atributu?
Ne všechny metody strojového učení vyžadují číselné atributy. Některé dokáží pracovat i s kategorickými atributy (např. barvy, dny v týdnu apod.). Existují ale způsoby jak kategorické proměnné snadno převést na číselné hodnoty (třeba one-hot-encoding).
@ ale aj farby, ci dni v tyzdni su v konecnom dosledku v pc len cislo takze v programe treba definovat trebarz kolko ma byt red zlozka a kolko green, alebo da sa to aj inak?
@@prekotilSa Da se to udelat i jinak. Prave pres ten one-hot-encoding. Misto jednoho atributu, ktery muze nabyvat n hodnot se vytvori n atributu, kde kazdy muze nabyvat hodnot 0 nebo 1.
@ vdaka za info ale stale mi z toho vyplyva ze je to praca s cislami
@@prekotilSa Ano, nakonec je to vzdy prace s cisly :)
Moc děkuji za vysvětlení ( - ;
Zložitá problematika ,jednoducho vysvetlená, Komenský môže byť na vás hrdý
Jen malá chybka: kolem času 11:00, kde přepisujete f(s) do závorky v té sumě, by mělo být minus u parametru b. Ale to nic nemění na tom, že to video bylo jako pohlazení po duši po letech opět vidět kousek matematiky ;-) Perfektně vysvětleno! Děkuji! Jdu koukat na Vaše další videjka ;-)
Dobrý den, budete s těmito webináři pokračovat? Jsou zajímavé.
srozumitelně vysvětleno. Děkuji
Super videa ! Spravte ešte Gradient descent a loss function!
MALA OTAZKA ak vypočítam backpropagation a vypočítam ako prvé zmenu váhy poslednej vrstvy tak ci tu predposlednú ratám z novou hodnotou váh alebo z tou starou pôvodní hodnotou ?
budete počítat s tou novou hodnotou
Krásně vysvětleno. Ve škole, při probírání dané problematiky, na nás vyrukovali s testy na rakovinu... hned na první dobrou. :)
Perfektní
:O Konečně jsme se dočkali :D
Kolem času 18 mi chybí nějaké nakopnutí, jak snadno spočítat tu parciální derivaci. Asi bych to nakonec vymyslel, ale těšil jsem se na to ve výkladu.
Proč ve čtvrté minutě počítáme tu derivaci? Abychom ji pak položili rovnou nule, čímž vyjde lokálně optimální váha w11? Pokud je to tak, musíme pak vůbec počítat ty předchozí nenulové členy de/dy, df/dx a používat je jako mezivýsledky?
Ten gradient počítáme proto, abychom věděli, jakým směrem se vydat v algoritmu Steepest Gradient Descent (vysvětlený zde: ua-cam.com/video/6oK_4YORiZI/v-deo.html). Nepokládáme ho nule. Kdybychom chtěli hledat lokální extrémy řešením soustavy rovnic, kde je každá parciální derivace položena nule, dostali bychom u dnes běžných sítí soustavu o desítkách milionů až miliard rovnic. V reálu se používají chytřejší algortimy než prostý SGD. Jejich snahou je co nejvíce omezit uvíznutí v nějakém "hloupém" lokálním extrému, ale pořád jsou to jen heuristiky, které do globálního optima většinou nevedou.
Jo jasně. Dík.
Už se těším na neuronky.
Oprava: Ve videu několikrát říkám, že zkratka MAE znamená Mean Average Error. Správně je to samozřejmě Mean Absolute Error.
Kdy bude další díl?
Snad už příští týden:)
@@MachineLearningCollege Super!
Díky, hezký úvod. Mohl byste přidat ještě vymezení data miningu, resp. vztah data mining a machine learning, v čem by osobně vidíte rozdíl?
Za mě mezi nimi velký rozdíl není. Pojem data mining vznikl o něco dříve než machine learning a používala ho trochu jiná komunita vědců. V zásadě se ale u obou používaly stejné techniky. Možná trochu pocitově, data mining je více o hledání častých vzorů v datech, zatímco machine learning více o predikcích.
@@MachineLearningCollege Díky, vidím to s těmi termíny podobně.
Oprava chyb: a) všechny sumy mají být od 1; b) v definici chybové funkce má být rozepsaná funkce f(s) v závorce. Pokud najdete další chyby, napište je prosím sem do komentářů.
Super!