Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
我本來以為我能聽懂但我大概看了4-5分鐘之後腦袋就已經沒有回應了這個已經遠遠超過我能理解的範圍了@u@太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
我聞感受到了論文報告的味道論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
他在試圖教會我們
我們在試圖理解他教的
雖然看不懂,聽不懂還案讚了 厲害
優質內容值得推薦,祝你得到超越AI預測的流量❤
13:45 補充pre-training才是預訓練。fine-tuneing是微調模型,符合影片中的描述。
觸 感謝補充
我個人認為 義大利麵就應該拌 42 號混泥土因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩你往裡砸的時候 一瞬間他就會產生大量的高能蛋白俗稱 UFO 會嚴重影響經濟的發展以至於對整個太平洋和充電器的核污染
確實
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptronXD
做得很精細,繼續加油!!!
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦但不好意思我有些地方想要批評1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步3. 2:35 L函數的定義有誤,出現兩次w^24. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa 反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].WW_new = W_pre - ηdL/dW([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能期待未來能做出其他的激勵函數、最佳化器、損失函數
6:40感恩爆了
我沒個博士畢業 我都不敢說我會玩MINECRAFT
太強啦老哥 我以為我追蹤的是鍵盤頻道不愧是我大水屬性台大資工大佬aka全村的希望來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
沒問題 給你讚
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!! 另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
哇 看三分鐘頭就開始痛
老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)
朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ
佬!後生可畏!
Pre-training 是預訓練吧,你說的那個是微調,但你還是很強!
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
完成度很高的一個數電作品 十分令人驚豔
佬
幹哥你太屌了(這是來自歐文的發言)必須紅
講得很淺顯易懂,多講一點😍
佬大概是唯一一個覺得前顯易懂的
雖然什麼都看不懂 但酷就完事了
佬佬佬...跪跪跪....🛐🛐🛐
台大日文不要嘲諷…
@@morning_keyboard如果能完全原創這個機器再怎麼說也比台大日文優秀吧
0.0 太強,都不知道該說些什麼
會火喔
是誰在這裡立了一個Flag
太扯了吧好猛
人類進化又忘了帶上我了
這片一定火
話不多,熱推獻上ᶘ ᵒᴥᵒᶅ
3:00 我以為來學Minecraft建築 結果是來上微積分
先佔位 這會紅
我完全看不懂,但我大受震撼
我本來以為在看麥塊蓋紅石但我現在覺得我在玩鬥陣特工的閃光
點進這部影片前: 一定看得懂啦哈哈 看了5分鐘後: (嘗試理解中.......)10分鐘後: 哈哈哈哈哈哈 (已超出大腦理解範圍
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣我的遊戲確定跟你是一樣的嗎www
卡一個卷積神經網路做MNIST手寫辨識
卡個位置這片會紅理論能聽懂但塞進Minecraft直接阿巴阿巴聽感很像當初菜渣講拉普拉斯一樣,時間過得真快(怕
這頻道需要更多訂閱
能不能預測貴頻道需要多久時間抵達10萬訂閱
這電腦要燒到什麼情況ww只不過我倒是沒研究怎麼在mc中利用二進制搞出電腦,改天有空找找文獻
我走錯頻道了🤣太猛了,兩期影片的專案規模比我的碩論還大😭話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢
好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。
@@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅(聽起來是閾值為0的ReLU囉)
@@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。另外,幾點要注意1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!
@@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了
@@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片
我的知識還停留在我前幾天做的4bit自動切換鐵路 這是個啥(大腦.exe 無回應
我就看個遊戲影片而已,這是甚麼?Σ(っ °Д °;)っ 這還是我認識的紅石嗎?剛開始看腦袋就燒起來了,完全沒聽懂,只能說這是大佬,大佬啊啊啊o(*///▽///*)q-提到宿舍,看來還只是大學生是嗎?這世界甚麼人都有太可怕了-
很好,完全看不懂我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
這個比蓋建築的恐怖好多
這還是我認識的Minecraft嗎
請問紅石需要經過加速處理嗎?
amazing!
求求你預測一下明年lol冠軍!
PSG
電腦裡面的模擬文明jpg
13:00 販
7:59 所以是指沒有動腦所以很清醒(?
原來台灣也有人在研究這阿
那个2tic加数器你是从哪里找到的哇,我好像3tic的都没找到视频orz……膜拜大佬,搞不懂怎么做到2tic的想观摩一下www
我是真的不知道怎麼做到的,可以去matbatwings的影片裡找到他,研究完記得跟我分享(bushi
@@morning_keyboardmatt的我应该算是都看过了,但是matt他详细介绍过的就只有个5tic加数器,提到过的最高是3tic,你这里我还是第一次听到的2tic加数器orz……好像各种其他视频里面有些4tic,3tic我只看到一个,思路倒是liao jie l❤但做不成alu……
先卡一個紅石CNN做影像辨識
建議配置:NVIDIA H100
這是什麼大神....
沒有人:阿Minecraft不就是給小朋友玩的簡單遊戲嗎?
如果設計gpu這樣訓練還是會被自己的cpu侷限住嗎
我也不太清楚Minecraft紅石的原理,但目前看來應該是(主要是我cpu常常滿載,但gpu在旁邊納涼)
🎉
哥你是鬼八 用創世神做這個
這台機器算的是整數還是小數啊?我記得人工智慧的運算都要用到小數吧?
整數喔,因為我還有很多紅石裝置跟技術還沒學,而且我的計概快被當掉了,所以這台機器用了很多取巧的方法來實現
這是不是可以得諾貝爾物理學獎
應該有些難度
we have MLP in minecraft before gta6
😭😭😭
你大學專題可以拿這個去交了
不是 太屌了吧 哥 受我一拜
哥 別嘲諷了qq
pro
留個言免得被別人發現我都看不懂
看來下一片應該是新顯卡開箱w(大誤
沒...沒有錢😭
so sad
好想知道大佬現在幾歲了
永遠都是18歲
奇怪我玩的遊戲跟這個完全不同還是其實我玩到迷XX界??
不是哥們…你跑錯台了嗎?
我只是想玩mc...扯了太扯了
你的結果不準我預測這部影片2天內破萬觀看🔥🔥🔥
等等等等??????????????????不對 你的電腦撐著住嗎?
扯
趕快拍手,避免被發現我聽不懂
👏👏
這到底是什麼鬼XD
頭好痛,長腦子了
Omg
影片里的东西我一点也不懂 我只知道兄弟的电脑来头不小
兄弟的電腦5600X 但優化開了不止一點
感覺跑一個問題半小時
大概一兩分鐘就行了,這個機器沒有用PC跟register來設計,是全部sequencial設計的(一方面是我那時候還沒學到clock,所以這台機器特別難維護),二來是這台機器有很大成分是虛胖,並不是所有的區塊都有在運作(流量少嘛,對不起),所以跑的非常快
你是不是沒有做過愛
太過分了兄弟
我記得B站上也有紅石辨識手寫數字神經網路不過是先在遊戲外面訓練完再轉換成紅石電路
我本來以為我能聽懂
但我大概看了4-5分鐘之後腦袋就已經沒有回應了
這個已經遠遠超過我能理解的範圍了@u@
太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
我聞感受到了論文報告的味道
論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,
反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,
隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。
雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,
這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
他在試圖教會我們
我們在試圖理解他教的
雖然看不懂,聽不懂還案讚了 厲害
優質內容值得推薦,祝你得到超越AI預測的流量❤
13:45 補充
pre-training才是預訓練。
fine-tuneing是微調模型,符合影片中的描述。
觸 感謝補充
我個人認為 義大利麵就應該拌 42 號混泥土
因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩
你往裡砸的時候 一瞬間他就會產生大量的高能蛋白
俗稱 UFO 會嚴重影響經濟的發展
以至於對整個太平洋和充電器的核污染
確實
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。
你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptron
XD
做得很精細,繼續加油!!!
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦
但不好意思我有些地方想要批評
1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧
2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步
3. 2:35 L函數的定義有誤,出現兩次w^2
4. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因
5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受
但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸
2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。
3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。
4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?
5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。
感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真
4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa
反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki
寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].W
W_new = W_pre - ηdL/dW
([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)
回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN
建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能
期待未來能做出其他的激勵函數、最佳化器、損失函數
6:40感恩爆了
我沒個博士畢業 我都不敢說我會玩MINECRAFT
太強啦老哥 我以為我追蹤的是鍵盤頻道
不愧是我大水屬性台大資工大佬aka全村的希望
來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
沒問題 給你讚
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!!
另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?
總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0
本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!
感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
哇 看三分鐘頭就開始痛
老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)
朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ
佬!後生可畏!
Pre-training 是預訓練吧,你說的那個是微調,但你還是很強!
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
完成度很高的一個數電作品 十分令人驚豔
佬
幹哥你太屌了(這是來自歐文的發言)必須紅
講得很淺顯易懂,多講一點😍
佬大概是唯一一個覺得前顯易懂的
雖然什麼都看不懂 但酷就完事了
佬佬佬...跪跪跪....🛐🛐🛐
台大日文不要嘲諷…
@@morning_keyboard如果能完全原創這個機器再怎麼說也比台大日文優秀吧
0.0 太強,都不知道該說些什麼
會火喔
是誰在這裡立了一個Flag
太扯了吧好猛
人類進化又忘了帶上我了
這片一定火
話不多,熱推獻上ᶘ ᵒᴥᵒᶅ
3:00 我以為來學Minecraft建築 結果是來上微積分
先佔位 這會紅
我完全看不懂,但我大受震撼
我本來以為在看麥塊蓋紅石
但我現在覺得
我在玩鬥陣特工的閃光
點進這部影片前: 一定看得懂啦哈哈
看了5分鐘後: (嘗試理解中.......)
10分鐘後: 哈哈哈哈哈哈 (已超出大腦理解範圍
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣
我的遊戲確定跟你是一樣的嗎www
卡一個卷積神經網路做MNIST手寫辨識
卡個位置這片會紅
理論能聽懂但塞進Minecraft直接阿巴阿巴
聽感很像當初菜渣講拉普拉斯一樣,時間過得真快(怕
這頻道需要更多訂閱
能不能預測貴頻道需要多久時間抵達10萬訂閱
這電腦要燒到什麼情況ww
只不過我倒是沒研究怎麼在mc中利用二進制搞出電腦,改天有空找找文獻
我走錯頻道了🤣
太猛了,兩期影片的專案規模比我的碩論還大😭
話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢
好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎
要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。
這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。
不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。
所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。
@@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅
(聽起來是閾值為0的ReLU囉)
@@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。
另外,幾點要注意
1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。
2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。
3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。
建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!
@@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了
@@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片
我的知識還停留在我前幾天做的4bit自動切換鐵路 這是個啥(大腦.exe 無回應
我就看個遊戲影片而已,這是甚麼?Σ(っ °Д °;)っ 這還是我認識的紅石嗎?剛開始看腦袋就燒起來了,完全沒聽懂,只能說這是大佬,大佬啊啊啊o(*///▽///*)q
-提到宿舍,看來還只是大學生是嗎?這世界甚麼人都有太可怕了-
很好,完全看不懂
我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
這個比蓋建築的恐怖好多
這還是我認識的Minecraft嗎
請問紅石需要經過加速處理嗎?
amazing!
求求你預測一下明年lol冠軍!
PSG
電腦裡面的模擬文明jpg
13:00 販
7:59 所以是指沒有動腦所以很清醒(?
原來台灣也有人在研究這阿
那个2tic加数器你是从哪里找到的哇,我好像3tic的都没找到视频orz……膜拜大佬,搞不懂怎么做到2tic的想观摩一下www
我是真的不知道怎麼做到的,可以去matbatwings的影片裡找到他,研究完記得跟我分享(bushi
@@morning_keyboardmatt的我应该算是都看过了,但是matt他详细介绍过的就只有个5tic加数器,提到过的最高是3tic,你这里我还是第一次听到的2tic加数器orz……好像各种其他视频里面有些4tic,3tic我只看到一个,思路倒是liao jie l❤但做不成alu……
先卡一個紅石CNN做影像辨識
建議配置:NVIDIA H100
這是什麼大神....
沒有人:阿Minecraft不就是給小朋友玩的簡單遊戲嗎?
如果設計gpu這樣訓練還是會被自己的cpu侷限住嗎
我也不太清楚Minecraft紅石的原理,但目前看來應該是(主要是我cpu常常滿載,但gpu在旁邊納涼)
🎉
哥你是鬼八 用創世神做這個
這台機器算的是整數還是小數啊?我記得人工智慧的運算都要用到小數吧?
整數喔,因為我還有很多紅石裝置跟技術還沒學,而且我的計概快被當掉了,所以這台機器用了很多取巧的方法來實現
這是不是可以得諾貝爾物理學獎
應該有些難度
we have MLP in minecraft before gta6
😭😭😭
你大學專題可以拿這個去交了
不是 太屌了吧 哥 受我一拜
哥 別嘲諷了qq
pro
留個言
免得被別人發現我都看不懂
看來下一片應該是新顯卡開箱w(大誤
沒...沒有錢😭
so sad
好想知道大佬現在幾歲了
永遠都是18歲
奇怪我玩的遊戲跟這個完全不同
還是其實我玩到迷XX界??
不是哥們…你跑錯台了嗎?
我只是想玩mc...
扯了太扯了
你的結果不準
我預測這部影片2天內破萬觀看🔥🔥🔥
等等等等??????????????????
不對 你的電腦撐著住嗎?
扯
趕快拍手,避免被發現我聽不懂
👏👏
這到底是什麼鬼XD
頭好痛,長腦子了
Omg
影片里的东西我一点也不懂 我只知道兄弟的电脑来头不小
兄弟的電腦5600X 但優化開了不止一點
感覺跑一個問題半小時
大概一兩分鐘就行了,這個機器沒有用PC跟register來設計,是全部sequencial設計的(一方面是我那時候還沒學到clock,所以這台機器特別難維護),二來是這台機器有很大成分是虛胖,並不是所有的區塊都有在運作(流量少嘛,對不起),所以跑的非常快
你是不是沒有做過愛
太過分了兄弟
我記得B站上也有紅石辨識手寫數字神經網路
不過是先在遊戲外面訓練完再轉換成紅石電路