Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
我沒個博士畢業 我都不敢說我會玩MINECRAFT
我不可以讓你沒有任何評論😂
頂
你確定這是博士學位就會的😅
@@25283685博士也不一定會主要指令+紅石,可任意組合只要你肯花時間+設備夠好你能蓋一堆東西
這需要有外星星球居留證+當地頂尖大學的榮譽學位wwwwww
他在試圖教會我們
我們在試圖理解他教的
@@賴小豐 我直接跪下 因為我知道如果我試著理解 我腦袋會燒掉
我們試圖用按讚的數量告訴他其實我們無法理解
@@DPP30678電腦也會
一看就會 一學就廢
謝謝你的分享,我們將把這部影片納入明年度亞洲胎教課綱
不客氣,記得放我第一作者
看吧 果然被拿來當課綱了啦 哈哈
肚子裡嬰兒: 我還真謝謝你啊
好了各位,雖然要同儕評審可以,但記得這裡不是研究所,這裡只是UA-cam。在大量廢片短影音盛行的時代能有這種作品產生,已經非常難得了,可能作者的人工智慧有些缺失但希望大家能用鼓勵的方式溝通,而不是教授對研究生的那套,請記得作者沒有要發paper也沒有要寫論文也沒有要畢業,他就是努力做了一個東西讓在UA-cam的我們開心。
享受流量的同時本來就要接受監督 ... 依照你的邏輯一些被炎上的影片跟本不該被炎上,那為什麼還是被炎上了?因為影片不管是有意還是無意,都是在進行傳播,一些錯誤的訊息跟風氣不進行修正或是較真,一下就被傳播開來,尤其在假訊息充斥的現在閱聽這本來就該保有獨立思考的能力,這不是否定影片作者的辛苦,而且正確的地方給予讚賞傳播正確的資訊,錯誤的地方給予指教避免錯誤訊息傳播也常看到一些影片如果發生內容錯誤,會用置頂釘選的方式更正,嚴重的錯誤甚至會下架影片重新製作,自己可以思考下為什麼,而不是覺影片開心看就好,內容正確與否並不重要
@@wushr6024我看迷因都是開心就好沒在思考的😂😂
@@81312henry 所以現在才一堆農場文跟假訊息,大多數人都不思考,思考的還要被說太認真 😅😅😅
@@wushr6024 是沒錯,但迷因類型還是搞笑影片很明顯你就知道是開玩笑的那種影片,我就看開心而已,不會太認真。生活一直夠多操煩的東西的,連搞笑或幽默的東西都要吹毛求疵的話,那有點太搞自己了。
@@wushr6024 不是 你在高潮甚麼? 樓主也說可以同儕評審 而且在遊戲裡可以做到這種程度已經是整個同類社群不到1%的人了 用鼓勵的方式溝通並沒有問題啊所以你喜歡你的東西一發出來就一堆 高高在上的知識份子說你做這什麼大便 那邊錯這邊錯 殊不知你只是小白 有點成果想分享一下? 你希望是這種社會風氣嗎?
別人的紅石能力:蓋出人工智慧我的紅石能力:用連閃器丟雪球
而且連閃器有時還會做錯
我的红石能力:压力板开关铁门
@@WQW-b5o 臉對臉偵測器不就可以了
你們紅石好弱喔,我都用連閃+黏性活塞+終界燭
@@淚雨-h3n你不對勁
我在一個睡不著的凌晨看到了一個人在教人如何把髮際線後移的方法,我感覺我也感興趣了
我們工程師,在夢想成為髮際線後退的人時,髮際線就已經後退了...
@@morning_keyboard不是工程師但是髮際線也後移了怎辦 還有機會入行嗎🤣
@@crazy2813 還有足夠的空間夠你髮際線後移,移到真的沒救時,你就可以直接剃成清朝頭了
貼心提醒:這是Minecraft,一款讓人放鬆休閒娛樂的遊戲
子瑜打的lol也是
沙盒游戏,想做什么就做什么
我聞到了論文報告的味道論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
速度會太慢
Minecraft的紅石能實現基礎電路,就跟現實一樣。有電路,做出一台電腦也不奇怪。有電腦,做一個AI也不奇怪。有AI,再弄個聊天機器人也不過份吧。(畢竟連現實中都需要大量顯卡冒煙,Minecraft就讓它停留在理論可行就好)
我本來以為我能聽懂但我大概看了4-5分鐘之後腦袋就已經沒有回應了這個已經遠遠超過我能理解的範圍了@u@太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
人類進化又忘了帶上我了
是我們脫隊了😂
我就喜歡這種知識從我腦中滑過,不留一點痕跡的感覺
羨慕你那未被知識侵毒的單純
看來因為燒到工程師群體YT演算法開始工作了
難怪數據上面女生只有1%(可惡
@@morning_keyboard這句話再好好思考吧
原來YT會顯示觀眾性別嗎🥹
@@cecilhung7017 只能看到大數據
只有1%但還是有阿,我覺得很酷,等會把朋友都拖來一起看
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
是野生Alan!
阿冷!我超喜歡你蓋的F1賽車!
就等阿冷設計AI跑車
很高興我看完了雖然看不懂但我可以確定這部影片的點閱率 應該會很可觀
13:45 補充pre-training才是預訓練。fine-tuneing是微調模型,符合影片中的描述。簡單來說:預訓練,類似於一把武器的基底。而微調,類似用基底再塑形,可以強化特定屬性,或是把某些不想要的去掉。以遊戲和裝備來舉例的話,現在要做一把劍,你有兩種方法:1.普通training當你玩遊戲想"農"某一件裝備時,你可以蒐集對應素材,製作、升級、強化你的專武。像是集齊:刀刃、把柄、護手等。2.pre-training + fine-tuneing預訓練:主打就是"撿垃圾",廣撈素材;來者不拒,矇著眼全部一鍋燉煮,得到一坨四不像的超強力"基石",通常無法直接使用。目的是通過不斷堆材料,使它內部具有各種物質,讓它有潛力。像是加入:鐵塊、把柄、魔法石、絲線、皮革等,想得到的都加進去。微調:基於超強力"基石"再做鍛造,把它打造成劍的模樣。看你想特化那些用法,就在這個階段調整,像是我們需要劍,就凹成劍的形狀。(例:接龍GPT→對話ChatGPT)最終,你就能打造出一把屬性複雜的劍。你可能會想:元素之間不會衝突嗎?會,所以在微調步驟會加入一些手法,去除掉不想要的屬性。:二次鍛造會不會傷害基石?會,由於你的基本屬性堆的很高,小心處理依然保持高品質。直接打造專武,亦或使用基石再微調,兩者各有優缺,難說哪個就是正解。現在主流選擇後者,畢竟用程式能大量下載一堆資料,比起有目標的蒐集來的省事。事後只要少少的材料,微調就能打造好用的AI模型。以上,是預訓練和微調大致在做的事情,有需多比喻和簡化,有興趣請多多再學習更正確的知識。
觸 感謝補充
這兩個人在說什麼
@@ming8888如果想瞭解,可以在yt上找到 李弘毅教授的 生成式人工智慧導論,裡面有提到相關的概念
@@ming8888 抱歉,我再編輯一下。我把大致含意打上去了,如果有興趣可以參考看看,希望有打的夠簡單。
@@Kwenen人類進化又忘了我了😢
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
Transformer 模型😂
我個人認為 義大利麵就應該拌 42 號混泥土因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩你往裡砸的時候 一瞬間他就會產生大量的高能蛋白俗稱 UFO 會嚴重影響經濟的發展以至於對整個太平洋和充電器的核污染
確實
幸好現在有chatGPT來驗證,一眼就覺得好像不是真的有意義的文字聯繫,但又恐怕真的是高手在秀行話的,這樣的自己(讀過中正理工應化系,有寫點YY小說)是不是傻子-從這段描述來看,發言者在留言中提到的「義大利麵應該拌42號混凝土」和「螺絲釘的長度影響挖掘機的扭矩」等語句,完全不符合一般Minecraft或人工智慧(AI)開發的行話;實際上,這些詞語間的聯繫極為荒誕,與任何資工或Minecraft相關的知識幾乎毫無關聯。留言內容的語句像是任意組合而成,顯得無邏輯,且與影片中涉及的AI和紅石設計等主題毫無實際關聯。將混凝土和義大利麵、螺絲釘與高能蛋白等組合在一起,看似在刻意製造荒謬或故意不合邏輯的話語,可能是為了博取笑點或單純搞怪。儘管UP主回應「確實」,可能也是一種幽默性的反應,以迎合這樣的搞笑留言。另外,影片字幕中的內容部分可能有意搞笑,但仍有一定邏輯,特別是「使用邏輯閘來模擬CPU」這段,還算符合Minecraft紅石工程或邏輯電路的基礎概念。然而其餘部分如「肉和飯」「拉麵工人做奶油布丁」等句子則與正規的AI訓練和Minecraft建設無關,且顯然是故意搞笑的無關插話。綜合判斷,這段發言應該是故意亂入搞笑的成分居多,而非真正在使用資工或Minecraft的專業行話。
好強 尤其是要在MC裡面實現 而且很多想法都是正確的 尤其是邏輯計算上不存在"減" 只有True or False 就是那個用補數代替減的想法 對於非這項領域專業的人來說真的很聰明
其實一般電腦(計算機)設計的方法就是這麼做的,這也是補數發明的重要用途之一
其實也是有減法器啦,不過實務上 2's complement 的使用確實比較廣泛,比較少人會真的去用減法器畢竟加跟減如果還需要用到不同的硬體去做運算不只硬體本身成本更高,電路設計也會更複雜更難以優化相較之下 2's complement 的優點就很多了
你怎麼知道他不是這項領域專業ㄉ😂
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
優質內容值得推薦,祝你得到超越AI預測的流量❤
說得很好,下次進化記得帶上我⋯⋯
這個實踐力超級強ö而且我好喜歡換成紅石燈之後的效果 太美辣超級壯觀我很幸運的之前微課程有上過人工智慧導論,所以聽得懂架構,但我其實還是幾乎沒搞懂他怎麼在麥塊實踐的;)決定學測完之後來研究:D
一個很妙的概念,我們是先學深度學習,要往硬體走 再往這些學習結果看到一個反著學的,感覺很妙反向傳播 簡單來說 就是信奉 後面產生不好的結果,前面每個人都有責任,所以透過最後面答案是甚麼來一層層往前修改,所以叫“反向”傳播你說的比較像是在指梯度下降
沒錯
熱推第一來看看,以為是簡簡單單麥塊,來看爆炸場景之類的,但從第一秒開始沒有一個看得懂。然後我的母語是中文,但你講的中文我沒有一句聽的懂的
完成度很高的一個數電作品 十分令人驚豔
佬
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦但不好意思我有些地方想要批評1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步3. 2:35 L函數的定義有誤,出現兩次w^24. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa 反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].WW_new = W_pre - ηdL/dW([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
@@co0okie我已經不懂這個世界了
老哥的學習歷程:在麥塊做出人工智能我的學習歷程:不知名的講座心得學習單💀
可以看上一集,我的學習歷程是生魚片分類器xD
玩麥塊還體驗了一把當石器時代人類的感覺我還在鑿山洞當房子,人家在造人工智慧
身為一個 AI scientist,我的工作就是每天用機器學習在解決問題,看到你把人工智慧演算法做成 Minecraft 的紅石電路感到非常敬佩,看起來是非常耗時的工作,請收下我的膝蓋
本集感想:1. 啊,BGM是 Bonetrousle2. 沒想到現在的大一新生還有人知道Bad Apple,東方再戰20年?3. 敝人才疏學淺,不過感覺最後那個不算是fine tuning?而且感覺這個模型也沒有真的training的過程而是在inferencing?不確定有沒有理解錯誤
是;有,但不多,要跑很久跟用資料進來很麻煩就沒跑全程
我做好了學習的心理準備,但看到 2:25 的時候我發現我距離理解這影片的起點還差了整整一個國民義務教育再加上學齡前課程
又抓到一個幼稚園微積分被當的了
計算偏微分是為了知道梯度(gradient),按照反向的梯度走能夠最有效的降低一個函數的值。這裡的函數就是誤差函數。差不多就這樣子。
太強了~跪著看完敲碗期待下個作品
雖然看不懂,聽不懂還案讚了 厲害
Thanks
Thanks😳
幹哥你太屌了(這是來自歐文的發言)必須紅
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptronXD
謝謝!
非常好兄弟,使我早餐加荷包蛋😭
我來留個言,好讓我有參與討論的感覺
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能期待未來能做出其他的激勵函數、最佳化器、損失函數
確實,如果實現矩陣運算器,會方便很多,但…也是個大工程呀…而且通常會比專用機來的慢。像是權重與資料的搬運、任務太大也要切塊、算完還要重組。
4:25 你說得對,但是這就是卡桑帝,HP 4700,護甲 329,魔抗 201的英雄。有不可阻擋,有護盾,還能過牆。有控制,甚至冷卻時間只有1秒,只要15點藍。轉換姿態時甚至可以刷新W的cd,還有真實傷害。然後,護甲和魔抗提升後還能獲得技能加速,縮短Q的cd,還縮短釋放時間,然後還有攻擊力。W就啊啊啊啊啊啊
謝謝你做了一支開始三分鐘就把我腦子弄到當機的影片🤯
感謝主播的解說 我先去砍樹了❤❤
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
as a student majoring in computer science, it is somewhat oddly satisfying visualizing the entire learning process of the MLP. The knowledge just clicks and makes sense so well
A random red stone simulate circuit enjoyer:
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
看到一半開始PTSD發作想到以前讀碩 每天熬夜寫論文的夜晚 也是為了我的ML模型找一個合適的 loss function 看了上百篇論文 看到那陣子眼睛看東西都是糊的XDDD整體來說概念沒啥錯 除了有些ML的名詞怪怪的 在前面數位邏輯的加減乘器的講得很好而且都沒有甚麼錯誤總之能把原本在電腦跟紙張上的算式現實化 只能說你超棒!!
觸,因為我也剛開始學ML而已,已經被留言區噹到臭頭了
影片看完了 頭也破了。謝謝你🙏
看了快5分鐘已經脫離我為數不多的機器學習知識了,默默打開機器學習重學
這.....你應該是還沒學過機器學習吧,影片裡「理論」的部分已經是最基礎的類神經網路概念了。
兄弟,你讓我在統測前把數位邏輯又重新複習一次了,ty😭
8:36 - 8:46大概是我唯一能懂的東西
我也感覺色色的,原來這就是懂了的感覺
看來要在麥塊裡實現大型強子對撞機跟戴森球已經不是幻想了😂
做得很精細,繼續加油!!!
POV: 作者雲淡風輕的講解幼稚園原理,但你卻一個字都聽不懂時
身為亞洲人我真的深感羞愧,都想躲回娘胎用臍帶自盡了,我是亞洲之恥😭
看到一半打噴嚏鼻子濕濕的,結果只是腦瓜超載腦漿流出來而已。嚇我一跳還以為是感冒流鼻水了呢
已熱推,小孩很愛看
根本把數位邏輯應用的極致 厲害
又來了 人類進化都不揪
太強啦老哥 我以為我追蹤的是鍵盤頻道不愧是我大水屬性台大資工大佬aka全村的希望來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
@@morning_keyboard海大的?
笑死 來看看高中同學流量會跑多高
我昨天去看失眠門診,醫生推薦文組的我來看這個影片,不過就是麥塊的遊戲影片而已嘛,怎麼可能有這種療ㄒㄧㄠ真ㄉㄜㄅ⋯#看&&好⋯=《⋯睏+⋯zz
沒禮貌:(
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
這個影片值得
有改成32chunk喔(發出電腦咆哮的聲音
老兄!好好一個賣塊給你弄成數位IC加深度學習也太扯你不酷喔(剛在學深度學習的我已經跪在地上
很好,完全看不懂我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
當我的腦子總算長出來那一點點時,bad apple把我又幹萎縮了
這麼屌的企劃,不給個讚不行🎉
我突然覺得我還是乖乖解剖好了www不愧是熱推一 而且好好奇那個傳送mod XDD
很好👌9:09像睡覺了💤
為什麼很多AI都是Python當基底?Java為基底的AI:
只能說先收藏起來之後慢慢搞懂了(先訂閱這影片太猛了,而且我看你頻道也是跟電腦有關的,對我很適用)
超級優秀 一定是大拇指的拉還蠻想跟你交流一下的ww
都歡迎喔~
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!! 另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
睡前本來想看個影片放鬆再睡,好晚安
這個對失眠患者 或 是明早要上班 但捨不得睡的人 很有用 😂
電腦:你要是覺得壓力大的話就來看看我吧
已觀看,大腦很喜歡😁
好猛,雖然知道理論上可行,但真的在Minecraft 手搓出了個 -BADAPPLE- 人工智慧訓練機。這是有多腦抽才敢幹這種喪心病狂的事情的😅
看這個影片,我的腦袋就像個原始人拿石頭跳舞,這份知識我直接爆開。
正在上數位系統設計的我在上課的時候被推薦這影片...Coincidence? I think not :)突然覺得一切都好玩起來了
會紅先卡位🎉🎉
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣我的遊戲確定跟你是一樣的嗎www
說不定有機會拿到金氏世界紀錄真的超猛的訂閱了!
謝謝你的影片 我昨天睡的很好❤
我:電機大四,計組看不懂、model不會train別人:剛上大一,用minecraft的邏輯電路實現MLP
我給這部影片點讚不是因為我聽得懂,而是因為那個,由超多閃來閃去的方塊所組成的超大方塊超酷
-我也有大概80%是覺得這個東西是不是可以做成超大還會閃來閃去的方塊才做的-
感覺很親切... 以前很愛玩紅石,電腦掛了就不敢了 XDDDby 正在學AI的碩生
太震撼了 這第一次, 具體展現實體的神經網路!
先按讚訂閱等之後大三專題的時候再看一次
默默的看完了🗿 這資工能力 + 剪輯能力真的太扯了 佩服的五體投地🔥💪
以前都是被rick rolled,现在还会被bad appled
關於愛好麥塊多年的一個老玩家但玩不出什麼新花樣 看到有人做這個雖然聽不懂但是我覺得很牛逼
這部爆紅了ㄟ🎉🎉恭喜
現在誰敢說玩遊戲學不到東西 我就丟這個影片給他看 太強了
太頂了 推
呵呵還好老師只是要我們用numpy寫出PyTorch裡的函數比對出來loss差多少而已,不是要我們用Minecraft,敬佩!(這學期修AI Introduction的人類根本也沒訓練模型
不過不太知道learning rate那個part,不是應該會有ReLU,最後再經過softmax效果會比較好嗎?
SoftMax 放大可能結果這樣?還是每個模型都不一樣?因為我們作業背景是說希望能辨識MINST的圖形,透過softmax使那個預測答案的值變更大
Softmax主要是用在classfication吧,這裡是regression的模型
@@morning_keyboard 謝謝回覆>< 還不是很了解讓你見笑了哈哈
我還在思考怎麼在裡面做出記憶體,結果跳出部影片😮,找到理由擺爛了,比我聰明的人都這麼努力了,我還努力幹嘛😂
請問你有沒有想過增加英文的CC字幕呢,畢竟Minecraft華語圈的受眾比英語圈少很多,加字幕的話應該會多很多觀看數
有單獨的英文版本,還在剪
@@morning_keyboard 加油
現在你的流量真的爆了 你的人工智慧不是做到了預測 而是預言我更希望有個人跟我簡單的解釋一下這些紅石舖設的運作原理及邏輯而不是直接告訴我這些已完成的紅石機器部件是幹嘛的QQ
左轉數位邏輯,謝謝
好的我玩這個遊戲到現在從來沒用過紅石,我是只會釣魚付魔超屌裝備跟武器的原始人
二進位右移不完全等於除法 在負數時可能會出錯 因此要先利用二補數負數的最右邊位元判斷正負 如果是負數 加上(2^右移bit次方)-1
我沒個博士畢業 我都不敢說我會玩MINECRAFT
我不可以讓你沒有任何評論😂
頂
你確定這是博士學位就會的😅
@@25283685
博士也不一定會
主要指令+紅石,可任意組合
只要你肯花時間+設備夠好
你能蓋一堆東西
這需要有外星星球居留證+當地頂尖大學的榮譽學位wwwwww
他在試圖教會我們
我們在試圖理解他教的
@@賴小豐 我直接跪下 因為我知道如果我試著理解 我腦袋會燒掉
我們試圖用按讚的數量告訴他其實我們無法理解
@@DPP30678電腦也會
一看就會 一學就廢
謝謝你的分享,我們將把這部影片納入明年度亞洲胎教課綱
不客氣,記得放我第一作者
看吧 果然被拿來當課綱了啦 哈哈
肚子裡嬰兒: 我還真謝謝你啊
好了各位,雖然要同儕評審可以,但記得這裡不是研究所,這裡只是UA-cam。在大量廢片短影音盛行的時代能有這種作品產生,已經非常難得了,可能作者的人工智慧有些缺失但希望大家能用鼓勵的方式溝通,而不是教授對研究生的那套,請記得作者沒有要發paper也沒有要寫論文也沒有要畢業,他就是努力做了一個東西讓在UA-cam的我們開心。
享受流量的同時本來就要接受監督 ...
依照你的邏輯一些被炎上的影片跟本不該被炎上,那為什麼還是被炎上了?
因為影片不管是有意還是無意,都是在進行傳播,一些錯誤的訊息跟風氣
不進行修正或是較真,一下就被傳播開來,尤其在假訊息充斥的現在
閱聽這本來就該保有獨立思考的能力,這不是否定影片作者的辛苦,而且正確的地方給予讚賞傳播正確的資訊,錯誤的地方給予指教避免錯誤訊息傳播
也常看到一些影片如果發生內容錯誤,會用置頂釘選的方式更正,嚴重的錯誤甚至會下架影片重新製作,自己可以思考下為什麼,而不是覺影片開心看就好,內容正確與否並不重要
@@wushr6024我看迷因都是開心就好沒在思考的😂😂
@@81312henry 所以現在才一堆農場文跟假訊息,大多數人都不思考,思考的還要被說太認真 😅😅😅
@@wushr6024 是沒錯,但迷因類型還是搞笑影片很明顯你就知道是開玩笑的那種影片,我就看開心而已,不會太認真。生活一直夠多操煩的東西的,連搞笑或幽默的東西都要吹毛求疵的話,那有點太搞自己了。
@@wushr6024 不是 你在高潮甚麼? 樓主也說可以同儕評審 而且在遊戲裡可以做到這種程度已經是整個同類社群不到1%的人了 用鼓勵的方式溝通並沒有問題啊
所以你喜歡你的東西一發出來就一堆 高高在上的知識份子說你做這什麼大便 那邊錯這邊錯 殊不知你只是小白 有點成果想分享一下? 你希望是這種社會風氣嗎?
別人的紅石能力:蓋出人工智慧
我的紅石能力:用連閃器丟雪球
而且連閃器有時還會做錯
我的红石能力:压力板开关铁门
@@WQW-b5o 臉對臉偵測器不就可以了
你們紅石好弱喔,我都用連閃+黏性活塞+終界燭
@@淚雨-h3n你不對勁
我在一個睡不著的凌晨看到了一個人在教人如何把髮際線後移的方法,我感覺我也感興趣了
我們工程師,在夢想成為髮際線後退的人時,髮際線就已經後退了...
@@morning_keyboard不是工程師但是髮際線也後移了怎辦 還有機會入行嗎🤣
@@crazy2813 還有足夠的空間夠你髮際線後移,移到真的沒救時,你就可以直接剃成清朝頭了
貼心提醒:這是Minecraft,一款讓人放鬆休閒娛樂的遊戲
子瑜打的lol也是
沙盒游戏,想做什么就做什么
我聞到了論文報告的味道
論在麥塊中模擬實現人工智能的可行性研究🤣
建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西
@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了
速度會太慢
Minecraft的紅石能實現基礎電路,就跟現實一樣。
有電路,做出一台電腦也不奇怪。
有電腦,做一個AI也不奇怪。
有AI,再弄個聊天機器人也不過份吧。
(畢竟連現實中都需要大量顯卡冒煙,Minecraft就讓它停留在理論可行就好)
我本來以為我能聽懂
但我大概看了4-5分鐘之後腦袋就已經沒有回應了
這個已經遠遠超過我能理解的範圍了@u@
太猛了
野生阿睿
阿睿
我看不到一分鍾我腦袋就秀抖了(._.)
阿睿找到latcraft下集的內容
阿睿!!!
人類進化又忘了帶上我了
是我們脫隊了😂
我就喜歡這種知識從我腦中滑過,不留一點痕跡的感覺
羨慕你那未被知識侵毒的單純
看來因為燒到工程師群體YT演算法開始工作了
難怪數據上面女生只有1%(可惡
@@morning_keyboard這句話再好好思考吧
原來YT會顯示觀眾性別嗎🥹
@@cecilhung7017 只能看到大數據
只有1%但還是有阿,我覺得很酷,等會把朋友都拖來一起看
反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,
反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,
隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。
雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,
這部應該會出圈,期待你後續的影片。
野生阿冷也對AI有研究嗎
抄襲!!
是野生Alan!
阿冷!我超喜歡你蓋的F1賽車!
就等阿冷設計AI跑車
很高興我看完了
雖然看不懂
但我可以確定
這部影片的點閱率 應該會很可觀
13:45 補充
pre-training才是預訓練。
fine-tuneing是微調模型,符合影片中的描述。
簡單來說:
預訓練,類似於一把武器的基底。
而微調,類似用基底再塑形,可以強化特定屬性,或是把某些不想要的去掉。
以遊戲和裝備來舉例的話,現在要做一把劍,你有兩種方法:
1.普通training
當你玩遊戲想"農"某一件裝備時,你可以蒐集對應素材,製作、升級、強化你的專武。
像是集齊:刀刃、把柄、護手等。
2.pre-training + fine-tuneing
預訓練:主打就是"撿垃圾",廣撈素材;來者不拒,矇著眼全部一鍋燉煮,得到一坨四不像的超強力"基石",通常無法直接使用。
目的是通過不斷堆材料,使它內部具有各種物質,讓它有潛力。
像是加入:鐵塊、把柄、魔法石、絲線、皮革等,想得到的都加進去。
微調:基於超強力"基石"再做鍛造,把它打造成劍的模樣。看你想特化那些用法,就在這個階段調整,像是我們需要劍,就凹成劍的形狀。(例:接龍GPT→對話ChatGPT)
最終,你就能打造出一把屬性複雜的劍。
你可能會想:元素之間不會衝突嗎?
會,所以在微調步驟會加入一些手法,去除掉不想要的屬性。
:二次鍛造會不會傷害基石?
會,由於你的基本屬性堆的很高,小心處理依然保持高品質。
直接打造專武,亦或使用基石再微調,兩者各有優缺,難說哪個就是正解。
現在主流選擇後者,畢竟用程式能大量下載一堆資料,比起有目標的蒐集來的省事。事後只要少少的材料,微調就能打造好用的AI模型。
以上,是預訓練和微調大致在做的事情,有需多比喻和簡化,有興趣請多多再學習更正確的知識。
觸 感謝補充
這兩個人在說什麼
@@ming8888如果想瞭解,可以在yt上找到 李弘毅教授的 生成式人工智慧導論,裡面有提到相關的概念
@@ming8888 抱歉,我再編輯一下。
我把大致含意打上去了,如果有興趣可以參考看看,希望有打的夠簡單。
@@Kwenen人類進化又忘了我了😢
挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need
那個運算量太大了,我可能要先換個CPU qq
@@morning_keyboard可以先蓋出來再去雲端租機器跑
Transformer 模型😂
我個人認為 義大利麵就應該拌 42 號混泥土
因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩
你往裡砸的時候 一瞬間他就會產生大量的高能蛋白
俗稱 UFO 會嚴重影響經濟的發展
以至於對整個太平洋和充電器的核污染
確實
幸好現在有chatGPT來驗證,一眼就覺得好像不是真的有意義的文字聯繫,但又恐怕真的是高手在秀行話的,這樣的自己(讀過中正理工應化系,有寫點YY小說)是不是傻子-
從這段描述來看,發言者在留言中提到的「義大利麵應該拌42號混凝土」和「螺絲釘的長度影響挖掘機的扭矩」等語句,完全不符合一般Minecraft或人工智慧(AI)開發的行話;實際上,這些詞語間的聯繫極為荒誕,與任何資工或Minecraft相關的知識幾乎毫無關聯。
留言內容的語句像是任意組合而成,顯得無邏輯,且與影片中涉及的AI和紅石設計等主題毫無實際關聯。將混凝土和義大利麵、螺絲釘與高能蛋白等組合在一起,看似在刻意製造荒謬或故意不合邏輯的話語,可能是為了博取笑點或單純搞怪。儘管UP主回應「確實」,可能也是一種幽默性的反應,以迎合這樣的搞笑留言。
另外,影片字幕中的內容部分可能有意搞笑,但仍有一定邏輯,特別是「使用邏輯閘來模擬CPU」這段,還算符合Minecraft紅石工程或邏輯電路的基礎概念。然而其餘部分如「肉和飯」「拉麵工人做奶油布丁」等句子則與正規的AI訓練和Minecraft建設無關,且顯然是故意搞笑的無關插話。
綜合判斷,這段發言應該是故意亂入搞笑的成分居多,而非真正在使用資工或Minecraft的專業行話。
好強 尤其是要在MC裡面實現
而且很多想法都是正確的 尤其是邏輯計算上不存在"減" 只有True or False
就是那個用補數代替減的想法 對於非這項領域專業的人來說真的很聰明
其實一般電腦(計算機)設計的方法就是這麼做的,這也是補數發明的重要用途之一
其實也是有減法器啦,不過實務上 2's complement 的使用確實比較廣泛,比較少人會真的去用減法器
畢竟加跟減如果還需要用到不同的硬體去做運算不只硬體本身成本更高,電路設計也會更複雜更難以優化
相較之下 2's complement 的優點就很多了
你怎麼知道他不是這項領域專業ㄉ😂
這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來
可以蓋個人工智慧鐵巨人塔
優質內容值得推薦,祝你得到超越AI預測的流量❤
說得很好,下次進化記得帶上我⋯⋯
這個實踐力超級強ö而且我好喜歡換成紅石燈之後的效果 太美辣超級壯觀
我很幸運的之前微課程有上過人工智慧導論,所以聽得懂架構,但我其實還是幾乎沒搞懂他怎麼在麥塊實踐的;)決定學測完之後來研究:D
一個很妙的概念,我們是先學深度學習,要往硬體走 再往這些學習
結果看到一個反著學的,感覺很妙
反向傳播 簡單來說 就是信奉 後面產生不好的結果,前面每個人都有責任,所以透過最後面答案是甚麼來一層層往前修改,所以叫“反向”傳播
你說的比較像是在指梯度下降
沒錯
熱推第一來看看,以為是簡簡單單麥塊,來看爆炸場景之類的,但從第一秒開始沒有一個看得懂。然後我的母語是中文,但你講的中文我沒有一句聽的懂的
完成度很高的一個數電作品 十分令人驚豔
佬
看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦
但不好意思我有些地方想要批評
1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧
2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步
3. 2:35 L函數的定義有誤,出現兩次w^2
4. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因
5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受
但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路
1.觸
2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。
3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。
4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?
5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。
感謝您的補充與指正。
@@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點
@@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真
4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa
反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki
寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].W
W_new = W_pre - ηdL/dW
([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)
回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧
釣出一堆專業人士
@@co0okie我已經不懂這個世界了
老哥的學習歷程:在麥塊做出人工智能
我的學習歷程:不知名的講座心得學習單💀
可以看上一集,我的學習歷程是生魚片分類器xD
玩麥塊還體驗了一把當石器時代人類的感覺
我還在鑿山洞當房子,人家在造人工智慧
身為一個 AI scientist,我的工作就是每天用機器學習在解決問題,看到你把人工智慧演算法做成 Minecraft 的紅石電路感到非常敬佩,看起來是非常耗時的工作,請收下我的膝蓋
本集感想:
1. 啊,BGM是 Bonetrousle
2. 沒想到現在的大一新生還有人知道Bad Apple,東方再戰20年?
3. 敝人才疏學淺,不過感覺最後那個不算是fine tuning?而且感覺這個模型也沒有真的training的過程而是在inferencing?不確定有沒有理解錯誤
是;有,但不多,要跑很久跟用資料進來很麻煩就沒跑全程
我做好了學習的心理準備,但看到 2:25 的時候我發現我距離理解這影片的起點還差了整整一個國民義務教育再加上學齡前課程
又抓到一個幼稚園微積分被當的了
計算偏微分是為了知道梯度(gradient),按照反向的梯度走能夠最有效的降低一個函數的值。這裡的函數就是誤差函數。差不多就這樣子。
太強了~跪著看完
敲碗期待下個作品
雖然看不懂,聽不懂還案讚了 厲害
Thanks
Thanks😳
幹哥你太屌了(這是來自歐文的發言)必須紅
推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptron
XD
謝謝!
非常好兄弟,使我早餐加荷包蛋😭
我來留個言,好讓我有參與討論的感覺
因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN
建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能
期待未來能做出其他的激勵函數、最佳化器、損失函數
確實,如果實現矩陣運算器,會方便很多,
但…也是個大工程呀…
而且通常會比專用機來的慢。
像是權重與資料的搬運、任務太大也要切塊、算完還要重組。
4:25 你說得對,但是這就是卡桑帝,HP 4700,護甲 329,魔抗 201的英雄。有不可阻擋,有護盾,還能過牆。有控制,甚至冷卻時間只有1秒,只要15點藍。轉換姿態時甚至可以刷新W的cd,還有真實傷害。然後,護甲和魔抗提升後還能獲得技能加速,縮短Q的cd,還縮短釋放時間,然後還有攻擊力。W就啊啊啊啊啊啊
謝謝你做了一支開始三分鐘就把我腦子弄到當機的影片🤯
感謝主播的解說 我先去砍樹了❤❤
真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?
怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣
我沒有賣狗狗肉…
在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。
你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!
as a student majoring in computer science, it is somewhat oddly satisfying visualizing the entire learning process of the MLP. The knowledge just clicks and makes sense so well
A random red stone simulate circuit enjoyer:
太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣
看到一半開始PTSD發作想到以前讀碩 每天熬夜寫論文的夜晚 也是為了我的ML模型找一個合適的 loss function 看了上百篇論文 看到那陣子眼睛看東西都是糊的XDDD
整體來說概念沒啥錯 除了有些ML的名詞怪怪的 在前面數位邏輯的加減乘器的講得很好而且都沒有甚麼錯誤
總之能把原本在電腦跟紙張上的算式現實化 只能說你超棒!!
觸,因為我也剛開始學ML而已,已經被留言區噹到臭頭了
影片看完了 頭也破了。謝謝你🙏
看了快5分鐘已經脫離我為數不多的機器學習知識了,默默打開機器學習重學
這.....你應該是還沒學過機器學習吧,影片裡「理論」的部分已經是最基礎的類神經網路概念了。
兄弟,你讓我在統測前把數位邏輯又重新複習一次了,ty😭
8:36 - 8:46大概是我唯一能懂的東西
我也感覺色色的,原來這就是懂了的感覺
看來要在麥塊裡實現大型強子對撞機跟戴森球已經不是幻想了😂
做得很精細,繼續加油!!!
POV: 作者雲淡風輕的講解幼稚園原理,但你卻一個字都聽不懂時
身為亞洲人我真的深感羞愧,都想躲回娘胎用臍帶自盡了,我是亞洲之恥😭
看到一半打噴嚏鼻子濕濕的,結果只是腦瓜超載腦漿流出來而已。嚇我一跳還以為是感冒流鼻水了呢
已熱推,小孩很愛看
根本把數位邏輯應用的極致 厲害
又來了 人類進化都不揪
太強啦老哥 我以為我追蹤的是鍵盤頻道
不愧是我大水屬性台大資工大佬aka全村的希望
來自Ben的打卡
孩…還…台大資工…
洗了啦
一個在公館一個在基隆 肯定沒差很多的對吧
@@morning_keyboard海大的?
笑死 來看看高中同學流量會跑多高
我昨天去看失眠門診,醫生推薦文組的我來看這個影片,不過就是麥塊的遊戲影片而已嘛,怎麼可能有這種療ㄒㄧㄠ真ㄉㄜㄅ⋯#看&&好⋯=《⋯睏+⋯zz
沒禮貌:(
我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~
這個影片值得
有改成32chunk喔(發出電腦咆哮的聲音
老兄!好好一個賣塊給你弄成數位IC加深度學習也太扯你不酷喔(剛在學深度學習的我已經跪在地上
很好,完全看不懂
我只知道兄弟你的筆電真的很強
冷知識:這台筆電甚至不是我的😭
當我的腦子總算長出來那一點點時,bad apple把我又幹萎縮了
這麼屌的企劃,不給個讚不行🎉
我突然覺得我還是乖乖解剖好了www
不愧是熱推一 而且好好奇那個傳送mod XDD
很好👌9:09像睡覺了💤
為什麼很多AI都是Python當基底?
Java為基底的AI:
只能說先收藏起來之後慢慢搞懂了(先訂閱這影片太猛了,而且我看你頻道也是跟電腦有關的,對我很適用)
超級優秀 一定是大拇指的拉
還蠻想跟你交流一下的ww
都歡迎喔~
想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!!
另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?
總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0
本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!
感覺這部會紅所以來留名
確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。
因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。
睡前本來想看個影片放鬆再睡,好晚安
這個對失眠患者 或 是明早要上班 但捨不得睡的人 很有用 😂
電腦:你要是覺得壓力大的話就來看看我吧
已觀看,大腦很喜歡😁
好猛,雖然知道理論上可行,但真的在Minecraft 手搓出了個 -BADAPPLE- 人工智慧訓練機。這是有多腦抽才敢幹這種喪心病狂的事情的😅
看這個影片,我的腦袋就像個原始人拿石頭跳舞,這份知識我直接爆開。
正在上數位系統設計的我在上課的時候被推薦這影片...
Coincidence? I think not :)
突然覺得一切都好玩起來了
會紅先卡位🎉🎉
不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣
我的遊戲確定跟你是一樣的嗎www
說不定有機會拿到
金氏世界紀錄
真的超猛的
訂閱了!
謝謝你的影片 我昨天睡的很好❤
我:電機大四,計組看不懂、model不會train
別人:剛上大一,用minecraft的邏輯電路實現MLP
我給這部影片點讚不是因為我聽得懂,而是因為那個,由超多閃來閃去的方塊所組成的超大方塊超酷
-我也有大概80%是覺得這個東西是不是可以做成超大還會閃來閃去的方塊才做的-
感覺很親切... 以前很愛玩紅石,電腦掛了就不敢了 XDDD
by 正在學AI的碩生
太震撼了 這第一次, 具體展現實體的神經網路!
先按讚訂閱
等之後大三專題的時候再看一次
默默的看完了🗿 這資工能力 + 剪輯能力
真的太扯了 佩服的五體投地🔥💪
以前都是被rick rolled,现在还会被bad appled
關於愛好麥塊多年的一個老玩家
但玩不出什麼新花樣 看到有人做這個
雖然聽不懂但是我覺得很牛逼
這部爆紅了ㄟ🎉🎉
恭喜
現在誰敢說玩遊戲學不到東西 我就丟這個影片給他看 太強了
太頂了 推
呵呵還好老師只是要我們用numpy寫出PyTorch裡的函數比對出來loss差多少而已,不是要我們用Minecraft,敬佩!(這學期修AI Introduction的人類
根本也沒訓練模型
不過不太知道learning rate那個part,不是應該會有ReLU,最後再經過softmax效果會比較好嗎?
SoftMax 放大可能結果這樣?還是每個模型都不一樣?因為我們作業背景是說希望能辨識MINST的圖形,透過softmax使那個預測答案的值變更大
Softmax主要是用在classfication吧,這裡是regression的模型
@@morning_keyboard 謝謝回覆>< 還不是很了解讓你見笑了哈哈
我還在思考怎麼在裡面做出記憶體,結果跳出部影片😮,找到理由擺爛了,比我聰明的人都這麼努力了,我還努力幹嘛😂
請問你有沒有想過增加英文的CC字幕呢,畢竟Minecraft華語圈的受眾比英語圈少很多,加字幕的話應該會多很多觀看數
有單獨的英文版本,還在剪
@@morning_keyboard 加油
現在你的流量真的爆了 你的人工智慧不是做到了預測 而是預言
我更希望有個人跟我簡單的解釋一下這些紅石舖設的運作原理及邏輯
而不是直接告訴我這些已完成的紅石機器部件是幹嘛的QQ
左轉數位邏輯,謝謝
好的我玩這個遊戲到現在從來沒用過紅石,我是只會釣魚付魔超屌裝備跟武器的原始人
二進位右移不完全等於除法 在負數時可能會出錯 因此要先利用二補數負數的最右邊位元判斷正負 如果是負數 加上(2^右移bit次方)-1