我用紅石做出了可以學習的人工智慧,讓他來預測我頻道的流量!

Поділитися
Вставка
  • Опубліковано 12 жов 2024

КОМЕНТАРІ • 156

  • @阿睿
    @阿睿 18 годин тому +113

    我本來以為我能聽懂
    但我大概看了4-5分鐘之後腦袋就已經沒有回應了
    這個已經遠遠超過我能理解的範圍了@u@
    太猛了

  • @ANT_overload
    @ANT_overload День тому +74

    我聞感受到了論文報告的味道
    論在麥塊中模擬實現人工智能的可行性研究🤣

    • @TaiwaneseDude1
      @TaiwaneseDude1 17 годин тому +6

      建議參考畢導的「学渣的绝地求生!如何快速肝出一篇优秀的学术论文?丨毕导THU」,並且將論文題目改為:「在虛擬機程式上通過專用邏輯門開發的人工智能模型及其應用」或「利用專業虛擬機程式開發針對現實趨勢預測的人工智慧模型」之類不知所云的東西

    • @morning_keyboard
      @morning_keyboard  14 годин тому +5

      ​@@TaiwaneseDude1朋友的論文有了,這被子不愁吃穿了

  • @Alanmmvmc
    @Alanmmvmc 12 годин тому +24

    反向傳播可以用來優化模型權重。簡單來說,一種方法是隨機生成一組權重,觀察結果,如果不佳就換另一組,
    反覆進行。這對於非常簡單的模型或少量權重可能有效,但當網絡結構變得複雜、需要調整的權重數量增加時,
    隨機方法的效率就會變得極低,因為找到合適權重的難度大大提高。
    雖然最後預估值有誤但還是很佩服這種把理論實踐出來的精神,
    這部應該會出圈,期待你後續的影片。

    • @Squarical
      @Squarical 12 годин тому +4

      野生阿冷也對AI有研究嗎

    • @YddG-re9bm
      @YddG-re9bm 2 години тому

      抄襲!!

  • @whats2000_
    @whats2000_ День тому +17

    挺有意思,不過這樣快樂的研究到研究所就不好玩了😂,期待你帶來Attention Is All You Need

    • @morning_keyboard
      @morning_keyboard  День тому +7

      那個運算量太大了,我可能要先換個CPU qq

    • @user-ql7cc6vq6c
      @user-ql7cc6vq6c 11 годин тому +3

      ​@@morning_keyboard可以先蓋出來再去雲端租機器跑

  • @kazuya1944
    @kazuya1944 11 годин тому +8

    他在試圖教會我們

    • @賴小豐
      @賴小豐 27 хвилин тому +1

      我們在試圖理解他教的

  • @mercury-.-0318
    @mercury-.-0318 День тому +7

    雖然看不懂,聽不懂還案讚了 厲害

  • @reinkr4707
    @reinkr4707 День тому +4

    優質內容值得推薦,祝你得到超越AI預測的流量❤

  • @Kwenen
    @Kwenen День тому +16

    13:45 補充
    pre-training才是預訓練。
    fine-tuneing是微調模型,符合影片中的描述。

  • @sx0506
    @sx0506 Годину тому +3

    我個人認為 義大利麵就應該拌 42 號混泥土
    因為這個螺絲釘的長度很容易直接影響到挖掘機的扭矩
    你往裡砸的時候 一瞬間他就會產生大量的高能蛋白
    俗稱 UFO 會嚴重影響經濟的發展
    以至於對整個太平洋和充電器的核污染

  • @JHkeyboard
    @JHkeyboard День тому +26

    真D猛 這頻道變成更haedcore的知識頻道了嗎XD,不過想問一下input的部分,這樣使用random取天數的設計感覺對模型可能會有誤判?如果單純輸入輸出都數字,做數字的回歸預測,會不會因為正常影片大約都是前三天或前七天,佔大多的觀看人數量,而產生有一些問題,還是您有做甚麼處理呢?

    • @CaiSm5
      @CaiSm5 День тому

      怎麼好像很多鍵盤youtuber都掛羊頭賣狗肉,我知道有個頻道主的DC群裡面留言都怪怪的,忘記他叫什麼了🤣

    • @morning_keyboard
      @morning_keyboard  День тому +3

      我沒有賣狗狗肉…

    • @morning_keyboard
      @morning_keyboard  День тому +5

      在影片裡我好像沒有說清楚,一開始做的的確是隨機取資料,但後來發現資料太少(xD,所以改用類似sliding window的方式取值(一個window 60天,兄弟我相信你已經懂了),然後再把數據集的資料打散。
      你提到的問題,好像很有可能發生XD,但如果只取前三或前七數字太小了做起來不好看,至於會發生什麼問題的話…,我觀察到的是如果前期獲得巨量的觀看量,那麼接下來也會持續有可觀的觀看量(可以參考我幾部流量比較高的影片,大概每兩週還是會多1000),但比較可憐的就幾乎為零了(所以我把他們都捨去了),這樣的做法我目前沒有觀測到什麼問題!

  • @jastintiffany3990
    @jastintiffany3990 Годину тому +1

    推一個 這個主題超有趣 從頭開始做 雖然只是multi perceptron
    XD

  • @tetsudo-monogatari
    @tetsudo-monogatari 21 годину тому +2

    做得很精細,繼續加油!!!

  • @古狐
    @古狐 12 годин тому +12

    看的出來你花費了巨量的時間在你的傑作上,真的是很辛苦
    但不好意思我有些地方想要批評
    1. 我不認為你這叫做預訓練。我所理解的預訓練藉由大量其他頻道的觀看資料來訓練基礎模型,之後再將基礎模型經由你頻道的觀看資料再進行訓練,也就是微調成適合你頻道的模型。但你從頭到尾只有使用你頻道的資料訓練模型,之後再把模型丟入minecraft再繼續訓練。這不叫預訓練吧
    2. 你並沒有展示出你的神經網路電路訓練的成果。我不知道你一開始在minecraft外訓練的模型的準確度,與丟入minecraft後訓練的準確度,無法證明你的訓練是有效的,無法確認你的準確度是否有藉由在你的電路上訓練進步
    3. 2:35 L函數的定義有誤,出現兩次w^2
    4. 10:03 反向傳播的梯度應該有誤(你應該沒用activation function,而loss只是MSE對吧),請再推導一下,這可能是你最後訓練結果爆掉的原因
    5. 我很懷疑這麼淺層的網路真能做好觀看預測的任務嗎? 當然如果你只是把它當成toy example而把重點放在訓練電路我也能接受
    但無論如何,你真的很厲害,推薦你修好大一的微積分和電機資工的計算機結構(理解電腦計算架構),期待你能加強完善你的神經網路電路

    • @morning_keyboard
      @morning_keyboard  3 години тому +3

      1.觸
      2.有展示喔,不過過程不知道被我丟去哪了,原本輸出是5k左右,正確答案是4k,訓練過後變成1k。
      3.觸,為了將文字符合圖片描述,改了原本的式子,但改的不多,所以出bug了。
      4.loss使用的是Mae(螢幕顯示的是預測結果,不是Loss),錯誤具體來說是?
      5.不可以,一來是做太大我電腦跑不動,Minecraft的渲染也不支持(紅石技術還不到家),主要目的只是想呈現神經網路用紅石實現的模樣。
      感謝您的補充與指正。

    • @Easonchang-y9c
      @Easonchang-y9c 2 години тому +1

      @@morning_keyboard其實我覺得可能是learning rate 太大或太小導致沒有正確學習到因為正常learning rate 通常會設置0.01或0.001,0.06可能不太行嗎?我也不太確定,因為我還是deep learning新手拜託噴小力點

    • @古狐
      @古狐 39 хвилин тому +1

      @@morning_keyboard 2. 你那個5k訓練後變1k的只是單一資料點的loss(而且loss還變大了),我是想看到你用testing dataset的許多資料來計算平均的loss,這才比較好評估訓練成果。單一資料點的loss可能失真
      4. 假如說有某一層神經網路的輸入向量是a,經過權重矩陣W相乘後得到輸出向量h,之後這個向量h在經過activation function會變成下一層的輸入向量a,再假設最後的loss是L。h = Wa
      反向傳播寫成純量形式: dL/d[W]ij = dL/d[h]i * [a]j,dL/d[a]i = Σ_k dL/d[h]k * [W]ki
      寫成向量與矩陣形式: dL/dW = [dL/d[W]ij] = [dL/d[h]1, ..., dL/d[h]i]^T.[[a]1, ..., [a]j] = (dL/dh)^T .a^T,dL/da = [dL/d[a]1, ..., dL/d[a]i] = [dL/d[h]1, ..., dL/d[h]k].W
      W_new = W_pre - ηdL/dW
      ([W]ij代表W矩陣的第i列第j行元素,[h]i代表h向量的第i個元素)
      回到你10:03的反向傳播,第1行的下一層的參數回傳(也就是下一層的W)應該要改成loss對輸出的梯度(dL/dh)。此外如果你想寫成向量矩陣形式,10:03的第一行要交換一下順序,loss對輸出的梯度.輸入,也就是上面的(dL/dh)^T .a^T。如果想寫純量就把下標寫一下吧

    • @co0okie
      @co0okie 15 хвилин тому

      釣出一堆專業人士

  • @maoyu2092
    @maoyu2092 21 годину тому +2

    太牛皮了哥 演算法推了我這部讓我來看賣快可以玩成怎樣

  • @吳宗修-d3o
    @吳宗修-d3o 3 години тому +1

    因為沒有矩陣運算單元所以做MLP才會這麼麻煩,如果簡單點應該試著做BNN
    建議先做XOR或是16段顯示器的編碼預測 從小模型開始測試功能
    期待未來能做出其他的激勵函數、最佳化器、損失函數

  • @pa_70894
    @pa_70894 Годину тому +1

    6:40感恩爆了

  • @fc-lc3jf
    @fc-lc3jf 2 години тому +4

    我沒個博士畢業 我都不敢說我會玩MINECRAFT

  • @benl2827
    @benl2827 День тому +3

    太強啦老哥 我以為我追蹤的是鍵盤頻道
    不愧是我大水屬性台大資工大佬aka全村的希望
    來自Ben的打卡

    • @morning_keyboard
      @morning_keyboard  День тому

      孩…還…台大資工…

    • @benl2827
      @benl2827 3 години тому

      洗了啦

    • @benl2827
      @benl2827 3 години тому

      一個在公館一個在基隆 肯定沒差很多的對吧

  • @YT_l05073_BG
    @YT_l05073_BG Хвилина тому

    沒問題 給你讚

  • @NeloAngelo-Absolute
    @NeloAngelo-Absolute 17 годин тому +3

    這部影片看起來就像我小學時會看的Minecraft教學影片,蓋鐵巨人塔那種。可當你意識到他在講的東西是人工智慧,一切變得高尚起來

  • @oaoalbert3619
    @oaoalbert3619 День тому +8

    想問個在 2:54的地方出現的偏微分是否有誤?如果w^2+3xw+w^2對w做偏微,先不論為甚麼不在L(w, y)內卻出現x以及出現兩次的w^2,結果應該是2w+3x+2w=4w+3x才對!!
    另外 仔細看了一下,那式子根本亂七八糟lol,第三行你想表示的應該是對w而不是對x做偏微才對?
    總結一下,我看到感覺可疑的地方,L函數內定義的只有w, y,所以函式內應該不會有x,然後對一個未定變數x做偏微的話,答案應該會直接變成零,因為在函式內並未定義x,就像函式對常數微分一樣,結果都會變0
    本人是物理系學生,若我有理解錯誤或對以上有疑問的歡迎底下留言來討論!
    感覺這部會紅所以來留名

    • @萊姆-r1x
      @萊姆-r1x 15 годин тому

      確實,那偏微分完全是錯的,L函數也不應該有x,不過我也只是北科五專部的學生,而且我基礎微積分也是壓線過的,所以搞不好有什麼神奇的偏微分方法我不知道。

    • @morning_keyboard
      @morning_keyboard  15 годин тому +1

      因為在dc裡有回了,就不特地再打一次,簡單說明是為了符合描述圖片把正確的式子改了,但改的不多,所以亂掉了。

  • @WhiteNeko.
    @WhiteNeko. День тому +6

    哇 看三分鐘頭就開始痛

  • @林佑宸-l2q
    @林佑宸-l2q День тому +6

    老哥驚呆了 有沒有考慮洗個台大資工吖(來自🍊的留言)

    • @morning_keyboard
      @morning_keyboard  День тому +2

      朋友最不擅長的是考試,台大洗出來你兒子都碩班畢業ㄌ

  • @Zwen314
    @Zwen314 10 годин тому

    佬!後生可畏!

  • @awwaey_tw9414
    @awwaey_tw9414 21 годину тому

    Pre-training 是預訓練吧,你說的那個是微調,但你還是很強!

  • @白煮蛋boiledegg
    @白煮蛋boiledegg 8 годин тому

    我看不懂這個到底是三小,但不妨礙我覺得這個超佬,祝你的流量超過機器的預測~

  • @fantasy_sakura
    @fantasy_sakura 10 годин тому

    完成度很高的一個數電作品 十分令人驚豔

  • @Mccormick168
    @Mccormick168 День тому

    幹哥你太屌了(這是來自歐文的發言)必須紅

  • @tita8096
    @tita8096 16 годин тому

    講得很淺顯易懂,多講一點😍

  • @海鷗-q5w
    @海鷗-q5w 2 години тому

    雖然什麼都看不懂 但酷就完事了

  • @廢物產出
    @廢物產出 15 годин тому

    佬佬佬...跪跪跪....🛐🛐🛐

    • @morning_keyboard
      @morning_keyboard  15 годин тому

      台大日文不要嘲諷…

    • @user-ql7cc6vq6c
      @user-ql7cc6vq6c 11 годин тому

      ​@@morning_keyboard如果能完全原創這個機器再怎麼說也比台大日文優秀吧

  • @whydog5555
    @whydog5555 10 годин тому

    0.0 太強,都不知道該說些什麼

  • @kiki-zo3mj
    @kiki-zo3mj 2 години тому

    會火喔

  • @hao7332
    @hao7332 14 годин тому

    太扯了吧好猛

  • @サメ大好き-j7v
    @サメ大好き-j7v Годину тому +1

    人類進化又忘了帶上我了

  • @OO-jm5qq
    @OO-jm5qq 23 години тому

    這片一定火

  • @柚子-n7b
    @柚子-n7b 17 годин тому +1

    話不多,熱推獻上ᶘ ᵒᴥᵒᶅ

  • @bingshinlee2040
    @bingshinlee2040 44 хвилини тому

    3:00 我以為來學Minecraft建築 結果是來上微積分

  • @anno8133
    @anno8133 55 хвилин тому

    先佔位 這會紅

  • @cattail
    @cattail 21 годину тому +2

    我完全看不懂,但我大受震撼

  • @阿才-f1x
    @阿才-f1x 2 хвилини тому

    我本來以為在看麥塊蓋紅石
    但我現在覺得
    我在玩鬥陣特工的閃光

  • @HelloAlexChen
    @HelloAlexChen 11 годин тому

    點進這部影片前: 一定看得懂啦哈哈
    看了5分鐘後: (嘗試理解中.......)
    10分鐘後: 哈哈哈哈哈哈 (已超出大腦理解範圍

  • @chiangposheng
    @chiangposheng 2 години тому

    不知不覺我玩麥塊也快10年了,我連蓋鐵巨人塔都覺得麻煩,這到底是什麼東西🤣
    我的遊戲確定跟你是一樣的嗎www

  • @systemch.3215
    @systemch.3215 5 хвилин тому

    卡一個卷積神經網路做MNIST手寫辨識

  • @古暗切
    @古暗切 14 годин тому

    卡個位置這片會紅
    理論能聽懂但塞進Minecraft直接阿巴阿巴
    聽感很像當初菜渣講拉普拉斯一樣,時間過得真快(怕

  • @陳廷鈞-u7r
    @陳廷鈞-u7r Годину тому

    這頻道需要更多訂閱

  • @DaseinAlife
    @DaseinAlife 7 хвилин тому

    能不能預測貴頻道需要多久時間抵達10萬訂閱

  • @Function_range
    @Function_range 13 годин тому

    這電腦要燒到什麼情況ww
    只不過我倒是沒研究怎麼在mc中利用二進制搞出電腦,改天有空找找文獻

  • @CaiSm5
    @CaiSm5 День тому +1

    我走錯頻道了🤣
    太猛了,兩期影片的專案規模比我的碩論還大😭
    話說這種加法器、乘法器、減法器組合出來的類神經網路,你使用的激發函數是什麼呢

    • @morning_keyboard
      @morning_keyboard  День тому +3

      好多人都問我這個問題,為什麼(?,是因為激活函數很難設計嗎
      要追問這個問題的話,在電路上是沒有設計激活函數,但是邏輯上是使用ReLU。
      這是因為我在輸入時就已經將參數給壓縮到很小的值(in this case, 1~10),而模型整體規模不大,而且還是regression的模型,而且輸出會是挺大的數(4000~6000),所以我會期待在forwarding的過程不看到任何負數的parameter,所以邏輯上相等。
      不過在實作的Code上沒有做特殊處理的話,還是會有負數出來,所以我有做對parameter限定正數然後之後做4捨五入,跟正常的沒有加太多調味料的版本,誤差大概在200左右(MAE)。
      所以在這個超級特殊的case上XD,我就沒有用激活函數,或是邏輯上使用ReLU,希望有回答到你的問題。

    • @CaiSm5
      @CaiSm5 День тому +1

      @@morning_keyboard 我會問單純是因為我論文的一部份是要解決用Verilog做類神經網路使用類似Sigmoid但不能有指數來做激發函數的問題,畢竟記憶久遠了,留個言假裝自己還記得相關知識😅
      (聽起來是閾值為0的ReLU囉)

    • @tw-tq4gi
      @tw-tq4gi 13 годин тому +2

      @@morning_keyboard 因為activation function必須是非線性函數,只用加減乘法器來做很難實現,運算還很慢。如sigmoid(x) = 1/(1+e^-x),要有額外電路來計算exp(x)跟倒數(reciprocal)。簡單解法應該是用個look up table + interpolation。
      另外,幾點要注意
      1. 沒有實作nonlinear activation的神經網路等價於只有一層fc的線性模型(就算有100層也是一樣, 稍微算一下forward就知道了),網路完全沒有處理nonlinear regression的能力。
      2. 即使輸出都是正數,一樣不能假定weights, bias>0,所以還是得把relu (max(0, x))做出來。
      3. 確認你的loss真的有隨迭代降低,不然optimization (training)的部分很有可能出錯。
      建議如果想實作底層的算法,先去看看curve fitting相關的算法(如最小平方,實做看看用y = wx+b的模型去fit一個3x+4+random noise的資料)。DL本質是函數近似,先搞懂啥是微分、最佳解的必要條件,再去碰比較practical的問題,會比較好理解DL在幹嘛。 加油!

    • @林柏宏-t2m
      @林柏宏-t2m Годину тому

      @@tw-tq4gi 我認同查表的部分,但那應該需要用指令方塊之類的。比起sigmoid,Relu的微分就不需要那些複雜的運算了

    • @林柏宏-t2m
      @林柏宏-t2m Годину тому

      @@tw-tq4gi relu就不用查表了,詳情可見 I Made an AI with just Redstone! 這支影片

  • @oncexbad
    @oncexbad 11 годин тому

  • @蔡典佑-g1f
    @蔡典佑-g1f 40 хвилин тому

    我的知識還停留在我前幾天做的4bit自動切換鐵路 這是個啥(大腦.exe 無回應

  • @nuomituan
    @nuomituan 13 годин тому

    我就看個遊戲影片而已,這是甚麼?Σ(っ °Д °;)っ 這還是我認識的紅石嗎?剛開始看腦袋就燒起來了,完全沒聽懂,只能說這是大佬,大佬啊啊啊o(*///▽///*)q
    -提到宿舍,看來還只是大學生是嗎?這世界甚麼人都有太可怕了-

  • @wenyu330
    @wenyu330 50 хвилин тому

    很好,完全看不懂
    我只知道兄弟你的筆電真的很強

    • @morning_keyboard
      @morning_keyboard  40 хвилин тому

      冷知識:這台筆電甚至不是我的😭

  • @流歌-s9q
    @流歌-s9q 17 годин тому

    這個比蓋建築的恐怖好多

  • @YanYet
    @YanYet 2 години тому

    這還是我認識的Minecraft嗎

  • @user-tc1ji6xu4s0
    @user-tc1ji6xu4s0 55 секунд тому

    請問紅石需要經過加速處理嗎?

  • @tizhuang2189
    @tizhuang2189 День тому

    amazing!

  • @wellsfu
    @wellsfu 2 години тому

    求求你預測一下明年lol冠軍!

  • @kafa6ni
    @kafa6ni 18 годин тому

    電腦裡面的模擬文明jpg

  • @capsulecat1032
    @capsulecat1032 40 хвилин тому

    13:00

  • @rdhfh4756
    @rdhfh4756 День тому

    7:59 所以是指沒有動腦所以很清醒(?

  • @ray-rayslegoworld1786
    @ray-rayslegoworld1786 14 годин тому

    原來台灣也有人在研究這阿

  • @minercraftal
    @minercraftal 35 хвилин тому

    那个2tic加数器你是从哪里找到的哇,我好像3tic的都没找到视频orz……膜拜大佬,搞不懂怎么做到2tic的想观摩一下www

    • @morning_keyboard
      @morning_keyboard  33 хвилини тому

      我是真的不知道怎麼做到的,可以去matbatwings的影片裡找到他,研究完記得跟我分享(bushi

    • @minercraftal
      @minercraftal 29 хвилин тому

      @@morning_keyboardmatt的我应该算是都看过了,但是matt他详细介绍过的就只有个5tic加数器,提到过的最高是3tic,你这里我还是第一次听到的2tic加数器orz……好像各种其他视频里面有些4tic,3tic我只看到一个,思路倒是liao jie l❤但做不成alu……

  • @Mingyee._.
    @Mingyee._. 16 годин тому

    先卡一個紅石CNN做影像辨識

    • @apacchidesu
      @apacchidesu 13 годин тому

      建議配置:NVIDIA H100

  • @Taro_ouo
    @Taro_ouo 20 годин тому

    這是什麼大神....

  • @領悟到人類極限之人
    @領悟到人類極限之人 16 годин тому

    沒有人:阿Minecraft不就是給小朋友玩的簡單遊戲嗎?

  • @elijah5548
    @elijah5548 2 години тому

    如果設計gpu這樣訓練還是會被自己的cpu侷限住嗎

    • @morning_keyboard
      @morning_keyboard  2 години тому +1

      我也不太清楚Minecraft紅石的原理,但目前看來應該是(主要是我cpu常常滿載,但gpu在旁邊納涼)

  • @高玩-s1w
    @高玩-s1w 17 годин тому

    🎉

  • @wxes10040806
    @wxes10040806 День тому +1

    哥你是鬼八 用創世神做這個

  • @蔡東霖-r7g
    @蔡東霖-r7g 42 хвилини тому

    這台機器算的是整數還是小數啊?我記得人工智慧的運算都要用到小數吧?

    • @morning_keyboard
      @morning_keyboard  36 хвилин тому

      整數喔,因為我還有很多紅石裝置跟技術還沒學,而且我的計概快被當掉了,所以這台機器用了很多取巧的方法來實現

  • @炸雞-n8l
    @炸雞-n8l 3 години тому

    這是不是可以得諾貝爾物理學獎

  • @lucasteo5015
    @lucasteo5015 12 годин тому

    we have MLP in minecraft before gta6

  • @CHT_4155
    @CHT_4155 11 годин тому

    你大學專題可以拿這個去交了

  • @110學年度王鼎筌
    @110學年度王鼎筌 День тому

    不是 太屌了吧 哥 受我一拜

  • @MaShiroShiro-fj4ts
    @MaShiroShiro-fj4ts День тому

    pro

  • @s1566yaya
    @s1566yaya День тому +1

    留個言
    免得被別人發現我都看不懂

  • @ryoyan1128
    @ryoyan1128 2 години тому

    看來下一片應該是新顯卡開箱w(大誤

  • @黃宇晟-p9p
    @黃宇晟-p9p 15 годин тому

    好想知道大佬現在幾歲了

  • @hunbao
    @hunbao 2 години тому

    奇怪我玩的遊戲跟這個完全不同
    還是其實我玩到迷XX界??

  • @Miner_Rex
    @Miner_Rex 18 годин тому

    不是哥們…你跑錯台了嗎?

  • @奇翰
    @奇翰 19 годин тому

    我只是想玩mc...
    扯了太扯了

  • @NDX5
    @NDX5 18 годин тому

    你的結果不準
    我預測這部影片2天內破萬觀看🔥🔥🔥

  • @enchichou
    @enchichou 23 години тому +1

    等等等等??????????????????
    不對 你的電腦撐著住嗎?

  • @chilin.h
    @chilin.h День тому

  • @Albert阿伯
    @Albert阿伯 3 години тому

    趕快拍手,避免被發現我聽不懂

  • @ArashiMoon_1225
    @ArashiMoon_1225 14 годин тому

    這到底是什麼鬼XD

  • @凜音-v3d
    @凜音-v3d 18 годин тому +1

    頭好痛,長腦子了

  • @lokey0905
    @lokey0905 День тому

    Omg

  • @isaacmak3628
    @isaacmak3628 18 годин тому

    影片里的东西我一点也不懂 我只知道兄弟的电脑来头不小

    • @morning_keyboard
      @morning_keyboard  17 годин тому +1

      兄弟的電腦5600X 但優化開了不止一點

  • @taas467
    @taas467 15 годин тому

    感覺跑一個問題半小時

    • @morning_keyboard
      @morning_keyboard  14 годин тому

      大概一兩分鐘就行了,這個機器沒有用PC跟register來設計,是全部sequencial設計的(一方面是我那時候還沒學到clock,所以這台機器特別難維護),二來是這台機器有很大成分是虛胖,並不是所有的區塊都有在運作(流量少嘛,對不起),所以跑的非常快

  • @碩-z7x
    @碩-z7x 3 години тому

    你是不是沒有做過愛

  • @apacchidesu
    @apacchidesu 13 годин тому

    我記得B站上也有紅石辨識手寫數字神經網路
    不過是先在遊戲外面訓練完再轉換成紅石電路