Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
我沒個博士畢業 我都不敢說我會玩MINECRAFT
謝謝你的分享,我們將把這部影片納入明年度亞洲胎教課綱
不客氣,記得放我第一作者
我本來以為我能聽懂但我大概看了4-5分鐘之後腦袋就已經沒有回應了這個已經遠遠超過我能理解的範圍了@u@太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
他在試圖教會我們
我們在試圖理解他教的
@@賴小豐 我直接跪下 因為我知道如果我試著理解 我腦袋會燒掉
我們試圖用按讚的數量告訴他其實我們無法理解
我聞到了論文報告的味道論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
速度會太慢
Minecraft的紅石能實現基礎電路,就跟現實一樣。有電路,做出一台電腦也不奇怪。有電腦,做一個AI也不奇怪。有AI,再弄個聊天機器人也不過份吧。(畢竟連現實中都需要大量顯卡冒煙,Minecraft就讓它停留在理論可行就好)
人類進化又忘了帶上我了
別人的紅石能力:蓋出人工智慧我的紅石能力:用連閃器丟雪球
而且連閃器有時還會做錯
貼心提醒:這是Minecraft,一款讓人放鬆休閒娛樂的遊戲
13:45 補充pre-training才是預訓練。fine-tuneing是微調模型,符合影片中的描述。簡單來說:預訓練,類似於一把武器的基底。而微調,類似用基底再塑形,可以強化特定屬性,或是把某些不想要的去掉。以遊戲和裝備來舉例的話,現在要做一把劍,你有兩種方法:1.普通training當你玩遊戲想"農"某一件裝備時,你可以蒐集對應素材,製作、升級、強化你的專武。像是集齊:刀刃、把柄、護手等。2.pre-training + fine-tuneing預訓練:主打就是"撿垃圾",廣撈素材;來者不拒,矇著眼全部一鍋燉煮,得到一坨四不像的超強力"基石",通常無法直接使用。目的是通過不斷堆材料,使它內部具有各種物質,讓它有潛力。像是加入:鐵塊、把柄、魔法石、絲線、皮革等,想得到的都加進去。微調:基於超強力"基石"再做鍛造,把它打造成劍的模樣。看你想特化那些用法,就在這個階段調整,像是我們需要劍,就凹成劍的形狀。(例:接龍GPT→對話ChatGPT)最終,你就能打造出一把屬性複雜的劍。你可能會想:元素之間不會衝突嗎?會,所以在微調步驟會加入一些手法,去除掉不想要的屬性。:二次鍛造會不會傷害基石?會,由於你的基本屬性堆的很高,小心處理依然保持高品質。直接打造專武,亦或使用基石再微調,兩者各有優缺,難說哪個就是正解。現在主流選擇後者,畢竟用程式能大量下載一堆資料,比起有目標的蒐集來的省事。事後只要少少的材料,微調就能打造好用的AI模型。以上,是預訓練和微調大致在做的事情,有需多比喻和簡化,有興趣請多多再學習更正確的知識。
觸 感謝補充
這兩個人在說什麼
@@ming8888如果想瞭解,可以在yt上找到 李弘毅教授的 生成式人工智慧導論,裡面有提到相關的概念
@@ming8888 抱歉,我再編輯一下。我把大致含意打上去了,如果有興趣可以參考看看,希望有打的夠簡單。
@@Kwenen人類進化又忘了我了😢
我個人認為 義大利麵就應該拌 42 號混泥土因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩你往裡砸的時候 一瞬間他就會產生大量的高能蛋白俗稱 UFO 會嚴重影響經濟的發展以至於對整個太平洋和充電器的核污染
確實
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦但不好意思我有些地方想要批評1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步3. 2:35 L函數的定義有誤,出現兩次w^24. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa 反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].WW_new = W_pre - ηdL/dW([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
@@co0okie我已經不懂這個世界了
我在一個睡不著的凌晨看到了一個人在教人如何把髮際線後移的方法,我感覺我也感興趣了
我們工程師,在夢想成為髮際線後退的人時,髮際線就已經後退了...
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
是野生Alan!
阿冷!我超喜歡你蓋的F1賽車!
好強 尤其是要在MC裡面實現 而且很多想法都是正確的 尤其是邏輯計算上不存在"減" 只有True or False 就是那個用補數代替減的想法 對於非這項領域專業的人來說真的很聰明
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
Transformer 模型😂
看來因為燒到工程師群體YT演算法開始工作了
難怪數據上面女生只有1%(可惡
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!! 另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
很高興我看完了雖然看不懂但我可以確定這部影片的點閱率 應該會很可觀
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
兄弟,你讓我在統測前把數位邏輯又重新複習一次了,ty😭
優質內容值得推薦,祝你得到超越AI預測的流量❤
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能期待未來能做出其他的激勵函數、最佳化器、損失函數
確實,如果實現矩陣運算器,會方便很多,但…也是個大工程呀…而且通常會比專用機來的慢。像是權重與資料的搬運、任務太大也要切塊、算完還要重組。
8:36 - 8:46大概是我唯一能懂的東西
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
as a student majoring in computer science, it is somewhat oddly satisfying visualizing the entire learning process of the MLP. The knowledge just clicks and makes sense so well
完成度很高的一個數電作品 十分令人驚豔
佬
幹哥你太屌了(這是來自歐文的發言)必須紅
感謝主播的解說 我先去砍樹了❤❤
4:25 你說得對,但是這就是卡桑帝,HP 4700,護甲 329,魔抗 201的英雄。有不可阻擋,有護盾,還能過牆。有控制,甚至冷卻時間只有1秒,只要15點藍。轉換姿態時甚至可以刷新W的cd,還有真實傷害。然後,護甲和魔抗提升後還能獲得技能加速,縮短Q的cd,還縮短釋放時間,然後還有攻擊力。W就啊啊啊啊啊啊
雖然看不懂,聽不懂還案讚了 厲害
老哥的學習歷程:在麥塊做出人工智能我的學習歷程:不知名的講座心得學習單💀
可以看上一集,我的學習歷程是生魚片分類器xD
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣我的遊戲確定跟你是一樣的嗎www
我做好了學習的心理準備,但看到 2:25 的時候我發現我距離理解這影片的起點還差了整整一個國民義務教育再加上學齡前課程
又抓到一個幼稚園微積分被當的了
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
很好,完全看不懂我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
又來了 人類進化都不揪
當我的腦子總算長出來那一點點時,bad apple把我又幹萎縮了
已熱推,小孩很愛看
POV: 作者雲淡風輕的講解幼稚園原理,但你卻一個字都聽不懂時
說不定有機會拿到金氏世界紀錄真的超猛的訂閱了!
會紅先卡位🎉🎉
已觀看,大腦很喜歡😁
太強啦老哥 我以為我追蹤的是鍵盤頻道不愧是我大水屬性台大資工大佬aka全村的希望來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
@@morning_keyboard海大的?
笑死 來看看高中同學流量會跑多高
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptronXD
家長:你現在學這些數學長大後能幹嘛?!小孩:長大玩麥塊紅石機關😂
我給這部影片點讚不是因為我聽得懂,而是因為那個,由超多閃來閃去的方塊所組成的超大方塊超酷
-我也有大概80%是覺得這個東西是不是可以做成超大還會閃來閃去的方塊才做的-
這個影片值得
有改成32chunk喔(發出電腦咆哮的聲音
已收藏,如果哪天不想當套模仔時會回來看
現在的人類終於進化成這樣了
好猛,雖然知道理論上可行,但真的在Minecraft 手搓出了個 -BADAPPLE- 人工智慧訓練機。這是有多腦抽才敢幹這種喪心病狂的事情的😅
只有 13bits 整數,還做了一大堆加法乘法,肯定有哪裡會溢位吧 😆
一開始有想過這個問題,但看到頻道的流量突然就釋懷了
確實,而且又有正負號,所以最大只有2^12-1 =4095 而已
為什麼很多AI都是Python當基底?Java為基底的AI:
哇 看三分鐘頭就開始痛
-還好之前有看過反向傳播的教學影片,不然一定聽不懂-簡單來說微分就是找斜率,數值扣掉斜率就會往最低點移動所以誤差值往低點移動就是找到最佳解的過程
這有料😮
請問你有沒有想過增加英文的CC字幕呢,畢竟Minecraft華語圈的受眾比英語圈少很多,加字幕的話應該會多很多觀看數
有單獨的英文版本,還在剪
@@morning_keyboard 加油
資工系聽得懂,但Minecraft 設計的部分無法💀太強了
點進這部影片前: 一定看得懂啦哈哈 看了5分鐘後: (嘗試理解中.......)10分鐘後: 哈哈哈哈哈哈 (已超出大腦理解範圍
17:13我東進.jpg
東方還沒過氣
無數個頭腦風暴瘋狂學習的成果😂,真猛理論就算了,直~接實踐,是鬼吧😂
做得很精細,繼續加油!!!
我會玩麥塊(指知道怎麼在遊戲中生存)我會玩麥塊(指能夠打敗終界龍通關)我會玩麥塊(指能夠用紅石設計出一些機關)我會玩麥塊(指會寫指令來增加遊戲性)我會玩麥塊(指用紅石蓋出電子元件)我會玩麥塊(指在麥塊中做出一款麥塊)
一個玩賣快,各自表述
0.0 太強,都不知道該說些什麼
只能說先收藏起來之後慢慢搞懂了(先訂閱這影片太猛了,而且我看你頻道也是跟電腦有關的,對我很適用)
先按讚訂閱等之後大三專題的時候再看一次
我走錯頻道了🤣太猛了,兩期影片的專案規模比我的碩論還大😭話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢
好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。
@@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅(聽起來是閾值為0的ReLU囉)
@@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。另外,幾點要注意1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!
@@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了
@@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片
顯在只需要在MC發明奈米紅石就能縮小體積了 在簡化億點點就能更順了
先佔位 這會紅
老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)
朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ
那個加法機超頻的音樂好讚wwwwwww不好意思 因為我其他部分實在是看不懂所以(ry
有要找個人用cc字幕再翻成英文嗎?這樣更容易被演算法推薦
雖然什麼都看不懂 但酷就完事了
這東西,電子/資訊科資優班一定會,但不包刮在minecraft做出來😂
希望下次你可以用中文講解這部影片
我盡力
一般來說反向傳播都交給library處理了,在麥塊裡自己做,只能跪著看,冏
這電腦要燒到什麼情況ww只不過我倒是沒研究怎麼在mc中利用二進制搞出電腦,改天有空找找文獻
minecraft 加大神的創作讓我更能體會微觀 CPU 架構的恐怖了
甚至可能佔不到幾億分之一
猛誒 這可以當期末報告了
還好我是學電子的,不然可能一臉矇(雖然後面確實挺矇的
先點讚 假裝自己看得懂
Undertale讚讚讚同學很有品味
超級優秀 一定是大拇指的拉還蠻想跟你交流一下的ww
都歡迎喔~
這東西我跪著看完
作為一個連刷物資機器都不會蓋的高中生,我突然感覺我是個minecraft新手
說得很詳細我沒有一個聽得懂的😂
這也太鬼了吧😮❤
老兄的mincraft地圖可以做成博士論文
這影片的東方濃度好高啊
哪裡都有人才,看得我接連起雞皮疙瘩😂
以前都是被rick rolled,现在还会被bad appled
這當作畢業專題應該很炸
6:40感恩爆了
話不多,熱推獻上ᶘ ᵒᴥᵒᶅ
謝謝 準備去修幼稚園人工智慧概論了
不客氣 樓下有人在寫微積分胎教教材了,你去跟他編一套搖籃到入土
純血台大電機ics簽到,看得懂他在做啥,但我用麥塊做不出來
教教我😭
我本來以為在看麥塊蓋紅石但我現在覺得我在玩鬥陣特工的閃光
默默的看完了🗿 這資工能力 + 剪輯能力真的太扯了 佩服的五體投地🔥💪
謝謝 看了這部影片後我的論文有眉目了
不客氣,記得放我個5作就行
教授:你論文應該多跟他學習
我沒個博士畢業 我都不敢說我會玩MINECRAFT
謝謝你的分享,我們將把這部影片納入明年度亞洲胎教課綱
不客氣,記得放我第一作者
我本來以為我能聽懂
但我大概看了4-5分鐘之後腦袋就已經沒有回應了
這個已經遠遠超過我能理解的範圍了@u@
太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
他在試圖教會我們
我們在試圖理解他教的
@@賴小豐 我直接跪下 因為我知道如果我試著理解 我腦袋會燒掉
我們試圖用按讚的數量告訴他其實我們無法理解
我聞到了論文報告的味道
論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
速度會太慢
Minecraft的紅石能實現基礎電路,就跟現實一樣。
有電路,做出一台電腦也不奇怪。
有電腦,做一個AI也不奇怪。
有AI,再弄個聊天機器人也不過份吧。
(畢竟連現實中都需要大量顯卡冒煙,Minecraft就讓它停留在理論可行就好)
人類進化又忘了帶上我了
別人的紅石能力:蓋出人工智慧
我的紅石能力:用連閃器丟雪球
而且連閃器有時還會做錯
貼心提醒:這是Minecraft,一款讓人放鬆休閒娛樂的遊戲
13:45 補充
pre-training才是預訓練。
fine-tuneing是微調模型,符合影片中的描述。
簡單來說:
預訓練,類似於一把武器的基底。
而微調,類似用基底再塑形,可以強化特定屬性,或是把某些不想要的去掉。
以遊戲和裝備來舉例的話,現在要做一把劍,你有兩種方法:
1.普通training
當你玩遊戲想"農"某一件裝備時,你可以蒐集對應素材,製作、升級、強化你的專武。
像是集齊:刀刃、把柄、護手等。
2.pre-training + fine-tuneing
預訓練:主打就是"撿垃圾",廣撈素材;來者不拒,矇著眼全部一鍋燉煮,得到一坨四不像的超強力"基石",通常無法直接使用。
目的是通過不斷堆材料,使它內部具有各種物質,讓它有潛力。
像是加入:鐵塊、把柄、魔法石、絲線、皮革等,想得到的都加進去。
微調:基於超強力"基石"再做鍛造,把它打造成劍的模樣。看你想特化那些用法,就在這個階段調整,像是我們需要劍,就凹成劍的形狀。(例:接龍GPT→對話ChatGPT)
最終,你就能打造出一把屬性複雜的劍。
你可能會想:元素之間不會衝突嗎?
會,所以在微調步驟會加入一些手法,去除掉不想要的屬性。
:二次鍛造會不會傷害基石?
會,由於你的基本屬性堆的很高,小心處理依然保持高品質。
直接打造專武,亦或使用基石再微調,兩者各有優缺,難說哪個就是正解。
現在主流選擇後者,畢竟用程式能大量下載一堆資料,比起有目標的蒐集來的省事。事後只要少少的材料,微調就能打造好用的AI模型。
以上,是預訓練和微調大致在做的事情,有需多比喻和簡化,有興趣請多多再學習更正確的知識。
觸 感謝補充
這兩個人在說什麼
@@ming8888如果想瞭解,可以在yt上找到 李弘毅教授的 生成式人工智慧導論,裡面有提到相關的概念
@@ming8888 抱歉,我再編輯一下。
我把大致含意打上去了,如果有興趣可以參考看看,希望有打的夠簡單。
@@Kwenen人類進化又忘了我了😢
我個人認為 義大利麵就應該拌 42 號混泥土
因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩
你往裡砸的時候 一瞬間他就會產生大量的高能蛋白
俗稱 UFO 會嚴重影響經濟的發展
以至於對整個太平洋和充電器的核污染
確實
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦
但不好意思我有些地方想要批評
1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧
2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步
3. 2:35 L函數的定義有誤,出現兩次w^2
4. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因
5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受
但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸
2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。
3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。
4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?
5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。
感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真
4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa
反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki
寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].W
W_new = W_pre - ηdL/dW
([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)
回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
@@co0okie我已經不懂這個世界了
我在一個睡不著的凌晨看到了一個人在教人如何把髮際線後移的方法,我感覺我也感興趣了
我們工程師,在夢想成為髮際線後退的人時,髮際線就已經後退了...
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,
反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,
隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。
雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,
這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
是野生Alan!
阿冷!我超喜歡你蓋的F1賽車!
好強 尤其是要在MC裡面實現
而且很多想法都是正確的 尤其是邏輯計算上不存在"減" 只有True or False
就是那個用補數代替減的想法 對於非這項領域專業的人來說真的很聰明
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
Transformer 模型😂
看來因為燒到工程師群體YT演算法開始工作了
難怪數據上面女生只有1%(可惡
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!!
另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?
總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0
本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!
感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
很高興我看完了
雖然看不懂
但我可以確定
這部影片的點閱率 應該會很可觀
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
兄弟,你讓我在統測前把數位邏輯又重新複習一次了,ty😭
優質內容值得推薦,祝你得到超越AI預測的流量❤
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN
建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能
期待未來能做出其他的激勵函數、最佳化器、損失函數
確實,如果實現矩陣運算器,會方便很多,
但…也是個大工程呀…
而且通常會比專用機來的慢。
像是權重與資料的搬運、任務太大也要切塊、算完還要重組。
8:36 - 8:46大概是我唯一能懂的東西
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。
你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
as a student majoring in computer science, it is somewhat oddly satisfying visualizing the entire learning process of the MLP. The knowledge just clicks and makes sense so well
完成度很高的一個數電作品 十分令人驚豔
佬
幹哥你太屌了(這是來自歐文的發言)必須紅
感謝主播的解說 我先去砍樹了❤❤
4:25 你說得對,但是這就是卡桑帝,HP 4700,護甲 329,魔抗 201的英雄。有不可阻擋,有護盾,還能過牆。有控制,甚至冷卻時間只有1秒,只要15點藍。轉換姿態時甚至可以刷新W的cd,還有真實傷害。然後,護甲和魔抗提升後還能獲得技能加速,縮短Q的cd,還縮短釋放時間,然後還有攻擊力。W就啊啊啊啊啊啊
雖然看不懂,聽不懂還案讚了 厲害
老哥的學習歷程:在麥塊做出人工智能
我的學習歷程:不知名的講座心得學習單💀
可以看上一集,我的學習歷程是生魚片分類器xD
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣
我的遊戲確定跟你是一樣的嗎www
我做好了學習的心理準備,但看到 2:25 的時候我發現我距離理解這影片的起點還差了整整一個國民義務教育再加上學齡前課程
又抓到一個幼稚園微積分被當的了
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
很好,完全看不懂
我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
又來了 人類進化都不揪
當我的腦子總算長出來那一點點時,bad apple把我又幹萎縮了
已熱推,小孩很愛看
POV: 作者雲淡風輕的講解幼稚園原理,但你卻一個字都聽不懂時
說不定有機會拿到
金氏世界紀錄
真的超猛的
訂閱了!
會紅先卡位🎉🎉
已觀看,大腦很喜歡😁
太強啦老哥 我以為我追蹤的是鍵盤頻道
不愧是我大水屬性台大資工大佬aka全村的希望
來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
@@morning_keyboard海大的?
笑死 來看看高中同學流量會跑多高
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptron
XD
家長:你現在學這些數學長大後能幹嘛?!
小孩:長大玩麥塊紅石機關😂
我給這部影片點讚不是因為我聽得懂,而是因為那個,由超多閃來閃去的方塊所組成的超大方塊超酷
-我也有大概80%是覺得這個東西是不是可以做成超大還會閃來閃去的方塊才做的-
這個影片值得
有改成32chunk喔(發出電腦咆哮的聲音
已收藏,如果哪天不想當套模仔時會回來看
現在的人類終於進化成這樣了
好猛,雖然知道理論上可行,但真的在Minecraft 手搓出了個 -BADAPPLE- 人工智慧訓練機。這是有多腦抽才敢幹這種喪心病狂的事情的😅
只有 13bits 整數,還做了一大堆加法乘法,肯定有哪裡會溢位吧 😆
一開始有想過這個問題,但看到頻道的流量突然就釋懷了
確實,而且又有正負號,所以最大只有2^12-1 =4095 而已
為什麼很多AI都是Python當基底?
Java為基底的AI:
哇 看三分鐘頭就開始痛
-還好之前有看過反向傳播的教學影片,不然一定聽不懂-
簡單來說微分就是找斜率,數值扣掉斜率就會往最低點移動
所以誤差值往低點移動就是找到最佳解的過程
這有料😮
請問你有沒有想過增加英文的CC字幕呢,畢竟Minecraft華語圈的受眾比英語圈少很多,加字幕的話應該會多很多觀看數
有單獨的英文版本,還在剪
@@morning_keyboard 加油
資工系聽得懂,但Minecraft 設計的部分無法💀
太強了
點進這部影片前: 一定看得懂啦哈哈
看了5分鐘後: (嘗試理解中.......)
10分鐘後: 哈哈哈哈哈哈 (已超出大腦理解範圍
17:13我東進.jpg
東方還沒過氣
無數個頭腦風暴瘋狂學習的成果😂,真猛理論就算了,直~接實踐,是鬼吧😂
做得很精細,繼續加油!!!
我會玩麥塊(指知道怎麼在遊戲中生存)
我會玩麥塊(指能夠打敗終界龍通關)
我會玩麥塊(指能夠用紅石設計出一些機關)
我會玩麥塊(指會寫指令來增加遊戲性)
我會玩麥塊(指用紅石蓋出電子元件)
我會玩麥塊(指在麥塊中做出一款麥塊)
一個玩賣快,各自表述
0.0 太強,都不知道該說些什麼
只能說先收藏起來之後慢慢搞懂了(先訂閱這影片太猛了,而且我看你頻道也是跟電腦有關的,對我很適用)
先按讚訂閱
等之後大三專題的時候再看一次
我走錯頻道了🤣
太猛了,兩期影片的專案規模比我的碩論還大😭
話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢
好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎
要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。
這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。
不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。
所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。
@@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅
(聽起來是閾值為0的ReLU囉)
@@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。
另外,幾點要注意
1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。
2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。
3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。
建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!
@@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了
@@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片
顯在只需要在MC發明奈米紅石就能縮小體積了 在簡化億點點就能更順了
先佔位 這會紅
老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)
朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ
那個加法機超頻的音樂好讚wwwwwww
不好意思 因為我其他部分實在是看不懂所以(ry
有要找個人用cc字幕再翻成英文嗎?
這樣更容易被演算法推薦
雖然什麼都看不懂 但酷就完事了
這東西,電子/資訊科資優班一定會,但不包刮在minecraft做出來😂
希望下次你可以用中文講解這部影片
我盡力
一般來說反向傳播都交給library處理了,在麥塊裡自己做,只能跪著看,冏
這電腦要燒到什麼情況ww
只不過我倒是沒研究怎麼在mc中利用二進制搞出電腦,改天有空找找文獻
minecraft 加大神的創作
讓我更能體會微觀 CPU 架構的恐怖了
甚至可能佔不到幾億分之一
猛誒 這可以當期末報告了
還好我是學電子的,不然可能一臉矇(雖然後面確實挺矇的
先點讚 假裝自己看得懂
Undertale讚讚讚同學很有品味
超級優秀 一定是大拇指的拉
還蠻想跟你交流一下的ww
都歡迎喔~
這東西我跪著看完
作為一個連刷物資機器都不會蓋的高中生,我突然感覺我是個minecraft新手
說得很詳細我沒有一個聽得懂的😂
這也太鬼了吧😮❤
老兄的mincraft地圖可以做成博士論文
這影片的東方濃度好高啊
哪裡都有人才,看得我接連起雞皮疙瘩😂
以前都是被rick rolled,现在还会被bad appled
這當作畢業專題應該很炸
6:40感恩爆了
話不多,熱推獻上ᶘ ᵒᴥᵒᶅ
謝謝 準備去修幼稚園人工智慧概論了
不客氣 樓下有人在寫微積分胎教教材了,你去跟他編一套搖籃到入土
純血台大電機ics簽到,看得懂他在做啥,但我用麥塊做不出來
教教我😭
我本來以為在看麥塊蓋紅石
但我現在覺得
我在玩鬥陣特工的閃光
默默的看完了🗿 這資工能力 + 剪輯能力
真的太扯了 佩服的五體投地🔥💪
謝謝 看了這部影片後我的論文有眉目了
不客氣,記得放我個5作就行
教授:你論文應該多跟他學習