Die Art von Daten zu lernen, die ich im Talk skizziert habe (mit den Drehknöpfen) trifft tatsächlich auch auf ChatGPT, GPT-4 und Co zu. Ich konnte ChatGPT leider im Talk nicht erwähnen, da es genau eine Woche nach dem Talk gelaunched wurde 😅 Die Kernidee der neuen Large-Language-Models ist lustigerweise aber die gleiche wie beim einfachen Bild-Klassifizierer: viele Daten, viele Parameter (Drehknöpfe) und dann einfach Gradient Descent mit Back Propagation. Was hättest du im Talk noch gern gehört? 😀
Unglaublich auf den Punkt gebracht! Danke Marcel!
Für jeden verständlich erklärt. Wahnsinnig guter Talk!
Inhaltlich und vor allem technisch ein wahnsinnig guter Talk. Respekt! 🚀😍
Genialer Vortrag!
Guter, aber alter und mittlerweile überholter Vortrag.
Die Art von Daten zu lernen, die ich im Talk skizziert habe (mit den Drehknöpfen) trifft tatsächlich auch auf ChatGPT, GPT-4 und Co zu. Ich konnte ChatGPT leider im Talk nicht erwähnen, da es genau eine Woche nach dem Talk gelaunched wurde 😅 Die Kernidee der neuen Large-Language-Models ist lustigerweise aber die gleiche wie beim einfachen Bild-Klassifizierer: viele Daten, viele Parameter (Drehknöpfe) und dann einfach Gradient Descent mit Back Propagation. Was hättest du im Talk noch gern gehört? 😀