Це відео не доступне.
Перепрошуємо.

10分鐘用AI生成假影片 連專家都被騙倒 如何識別?|

Поділитися
Вставка
  • Опубліковано 19 сер 2024

КОМЕНТАРІ • 169

  • @tito651012
    @tito651012 6 місяців тому +96

    感謝公視製作團隊的分享。"不要相信眼前的數位影像",說的真好。相信多數人,都是選擇相信與自己立場及權益有利的影像,而忽略求證的步驟及了解事實本末,連邏輯性的推論能力也失去了。

    • @user-bob-pikachu
      @user-bob-pikachu 5 місяців тому

      不要隨便相信三立的新聞,因為可能是AI生成的新聞

    • @Mr-Chim
      @Mr-Chim 5 місяців тому

      聽君一席話,如聽一席話!

  • @user-ul6sg1bp2m
    @user-ul6sg1bp2m 5 місяців тому +137

    小朋友可以實現請虛擬媽媽打電話請病假的願望了😂

    • @ambientvibe5025
      @ambientvibe5025 5 місяців тому +5

      學校也可以請虛擬老師假裝答應請假

  • @johnwu5876
    @johnwu5876 6 місяців тому +100

    要是真的遇到戰爭時期
    這類的大量虛假資訊的假影片到處散播出去
    特別在台灣這種環境之下
    肯定能讓敵人規劃的資訊戰達到一定程度的恐怖效果...

    • @maggielin8291
      @maggielin8291 6 місяців тому +29

      大概猜得到,開打第一天對面國內就會瘋傳用deepface或Sora生成台灣總統宣布投降的影片,然後開始舉國歡騰,慶祝收復。
      我亂猜的。

    • @bcb1072
      @bcb1072 6 місяців тому +21

      真是太噁心了,仿生科技沒有帶來便利,反而帶來道德淪喪和是非黑白顛倒,世界再無真相。
      過去人們因無監視器無法自證,
      進化到滿街監視器得以存證,
      如今又再顛覆,任何影像皆無可信度可言。

    • @soragreecetanaka6340
      @soragreecetanaka6340 6 місяців тому +18

      烏俄戰爭就已經有用了,剛開始就一直散佈烏克蘭總統逃亡國外的影片

    • @roselai723
      @roselai723 6 місяців тому +3

      俄烏就有,以哈怎麼好像沒聽說有用?

    • @seanchou78
      @seanchou78 5 місяців тому +17

      @@bcb1072 我也很悲觀,這麼厲害的技術卻使得社會信任感逐漸崩塌,這真的是好的發展嗎?

  • @roselai723
    @roselai723 6 місяців тому +32

    已經開始在教家裡長輩有這種技術了,一來怕他們被詐騙,另外也怕他們被假訊息攻擊

  • @bookerlin7374
    @bookerlin7374 5 місяців тому +28

    以後最大的問題應該會變成,明明是真的影片,卻被說是假的,尤其是影像技術早期解析度較糟的影片,未來會不會都被認為是假的呢。

  • @255205titel
    @255205titel 5 місяців тому +26

    世界沒有變好的話,只能提升自己的辨識能力,謝謝公視的介紹

  • @user-youtuberWTF
    @user-youtuberWTF 5 місяців тому +26

    好節目需要支持,這技術拿來做對人類有幫助的事情很好,但拿來造謠卻很難防。看來要現場直播加有路人才比較有真實性。

  • @aalluubbaa
    @aalluubbaa 5 місяців тому +28

    最新的模型SORA更屌,基本上現在AI的進步,你沒有一兩個禮拜更新一次,你都算是沒跟到最新的進展。而且這種東西只會越來越難分辨最後會變成不可能分辨,所以影片也不要相信了。
    目前來講甚麼重要事件或是甚麼重要的話,除非親自見面確認,不然都要有點懷疑。

    • @user-mb6qm3gv4v
      @user-mb6qm3gv4v 5 місяців тому +2

      以後搞不好都有仿生機器人 見面也不一定是本人

    • @user-vo5zq4tw4n
      @user-vo5zq4tw4n 5 місяців тому +1

      我都懷疑路人甲都是NPC

    • @IOOIOIIA
      @IOOIOIIA 5 місяців тому +1

      仔細看還是看得出破綻,但一兩年後就可能看不出了..

  • @lamgchen112
    @lamgchen112 6 місяців тому +83

    在日常上面有許多的AI變造假影片,在災害上面也是越來越多的,這些影片、照片或訊息對於我們防災和訊息查證人員是越來越吃不消的。
    這些錯誤或半錯誤在救災及防災中是非常不利的,他有可能導致錯誤訊息傳入災區,進而導致相互不信任擴大,也可能會造成更大的死傷。

    • @lamgchen112
      @lamgchen112 6 місяців тому +10

      如果是對災害中模擬政府講的話語對第一線接受到的災民影響是更大的

  • @ryutimerdio
    @ryutimerdio 5 місяців тому +13

    還有一個對抗方法,就是教大家使用deepfake,哪怕只是手把手教學體驗一次也好,一旦自己用過,從此就不會那麼相信短影片了。
    例如我要讓長輩覺醒,就做一段他的deepfake傳給他看,那個"被替身"的感覺可以誘發人類意識的深層恐懼哦~

  • @maxwu1656
    @maxwu1656 5 місяців тому +15

    過不了多久影片裡說的那些卡卡不流暢,口音小瑕疵就會完全刻服。

  • @user-gk2oh7zq9g
    @user-gk2oh7zq9g 5 місяців тому +11

    假的只要量夠大就等於真的😊

  • @sp4x87pkpk
    @sp4x87pkpk 6 місяців тому +9

    很有意義的議題
    接下來要如何對抗AI我覺得也是很重要的課題

  • @yolinsandy940942
    @yolinsandy940942 6 місяців тому +8

    謝謝公視

  • @thinkfortrick
    @thinkfortrick 6 місяців тому +10

    讓我們生活更便利的東西,卻讓我們生活產生更多疑問和懷疑。真真假假之間,就像這裡的人一樣。識讀本身已經不重要了,原本的立場只會更加加強,因為當一切都有可能是假的之下人只會更相信自己原本就已經相信的固有事物。畢竟一個容易說服的人,某方面來說更容易被欺騙。畢竟信念和核心容易動搖的人,對於價值選擇也相對有彈性。XD只能說是科技進步下的有趣狀況

  • @chunghunghou
    @chunghunghou 5 місяців тому +2

    謝謝詳細介紹!這環境實在永遠都在競爭, 騙人與防騙。

  • @PinePark0
    @PinePark0 5 місяців тому +8

    在記者做這個影片的時候我們已經有了sora, videopoet,在transformer監督下的影片影片已經沒有什麼看痣可以辨別的方式了,從頭到尾都很一致。😂

    • @zeemanliao
      @zeemanliao 5 місяців тому +2

      以Sora來說
      其實都還是有缺陷
      放出的影片,很多不用軟體,肉眼就看得出來
      但老實說
      你不說,一般人也不會仔細去看
      真真假假的影像太多
      每個都要認真去分辨真假
      基本上已經是不可能的事了

    • @PinePark0
      @PinePark0 5 місяців тому

      @@zeemanliao
      對阿
      現在已經是直覺沒有用的時候
      甚至快到沒有可靠的程式可以辨別
      然後再回頭看看一年前的AI影片跟現在的
      Incredible progress over a year! ohmygod

  • @loup181
    @loup181 6 місяців тому +5

    謝謝!

  • @abbeyliu
    @abbeyliu 16 днів тому

    我就是受害者,我的臉被惡意Ai到tiktok
    然後去講一些很有爭議的內容
    最後被那些比較沒有文化的人轉貼到某大小事社團
    造成我生活上困擾

  • @yc7698
    @yc7698 5 місяців тому +2

    相信我,分不出來啦
    我測試過了,我把自己真人的影片丟給ai去偵測,結果這東西竟然告訴我說有30%是假的
    然後我把我的ai合成影片去偵測,這東西告訴我有35%是假的...
    所以根本就分不出來,別浪費時間測試了
    我指的是目前現在的時間,畢竟ai技術以每天的單位來提技術
    可能三五個月,現在所有技術都是過時的了

  • @fake_messenger
    @fake_messenger 5 місяців тому +3

    未來新聞主播會被AI取代,AI的咬字會更加清楚,只要有文字稿就不會有口誤。
    但是文字稿也可以用AI生成,基本上念稿、讀稿、寫稿、人像AI都可以一手包辦,未來人在工作上人力可以大幅減少。
    我認為AI能推動人類文明進步,減少一些工作也減少人力的消耗,讓人能在短暫的人生中完成自己想做的事,而到了那個時候人類會減少追求好看的皮囊,因為AI生成的會更加完美更加好看。
    我不認為AI會毀滅人類或是搶走你的飯碗。工作不是人本來就該做的事,而是人為了活命所以工作,所以工作就跟狩獵一樣,有工作有補獵才能活下去,而在工業革命後,隨著時代進步,沒必要、無意義的工作被創造出來,因為資本家創造的世界是錢的世界,如果工作太少就代表有人會沒工作,沒工作就會造反,所以他們必須創造無意義的工作,讓人消耗精力,讓人沒體力造反。
    小時候我有個疑惑,讀書是為了甚麼?爸媽說是為了找到好工作。
    那麼工作是為了甚麼 ?爸媽說是為了過上更好的生活,如果不工作你就會變成乞丐。
    當我長大了發現了,人為甚麼要工作?因為不工作=沒有錢=死。所以工作是為了活著,其次才是過上更好的生活。
    那麼為甚麼沒有錢會死?當時我似乎發現了我們被控制住了,我們人生一整個都被控制住了,重複著出生>上學>工作>死亡。
    這是人生中每個人都無法逃脫的過程,而貫穿一切的就是錢,所以可以說,錢就制定了一切的規則,而他也編造出了一個無法到達的謊言。只要工作就有錢,有錢就有更好的生活,如此美好的故事卻是一個永遠到達不了的謊言。
    那麼活著是為了甚麼?錢。

    • @autumnblaze7825
      @autumnblaze7825 5 місяців тому

      活著不是為了錢,而是純粹只為了活著,錢是人類的衍生物品而已,這就是為啥有些人開始嚮往自然共存,荒島求生等。

    • @user-xm3lu8bn2f
      @user-xm3lu8bn2f 5 місяців тому

      活着就是活着而已,钱只是工具,用来达到更好的生活的工具,当你享受自己的人生时,钱就只是附属品而已。

  • @kulgai2007
    @kulgai2007 5 місяців тому +2

    家庭成員間最好先預設一通關密語,以便確認數位影像是否真實?

  • @codychan4926
    @codychan4926 5 місяців тому +2

    0:35 破綻在皺眉的瞬間。

  • @MultiRozey
    @MultiRozey 5 місяців тому

    做的太棒了🌟❤。这期拿给爸妈看,让他们明白可能的危险。

  • @gygg8874
    @gygg8874 5 місяців тому +3

    當科技有大跨度的進步並且普及的時候!法律就應該對其給予更明確且有效率的限制!否則只會逐漸導致更多人選擇犯罪🤷

  • @siciang6100
    @siciang6100 5 місяців тому +2

    假作真時真亦假,
    無為有處有還無。
    當我們把假當成真的時候,
    真實卻像假的一般,
    而把存在的當成虛無時,
    真正的存在反而像是虛無一樣。

  • @wupixieapple1145
    @wupixieapple1145 5 місяців тому

    謝謝公視❤很重要的議題
    只試過Q版的自己
    下次來試用照片

  • @user-co9pr7cm5z
    @user-co9pr7cm5z 6 місяців тому +29

    其实这种ai换脸其实还没那么普及,因为它需要很强的显卡性能,哪怕是目前最先进的rtx4090也无法在短时间训练一个好的换脸模型。如果仅仅只是使用实时换脸功能的话你只需要3060以上的显卡。最可怕的是计算机硬体元器件每年会更新迭代,未来可能一部普通的手机就能达到4090性能人人都可以使用各种ai。

    • @user-bv7nu8ve5e
      @user-bv7nu8ve5e 6 місяців тому +7

      當年深藍超級電腦打敗國際象棋選手過了20年後,跑步機上的象棋遊戲就是當時超級電腦的等級😅

    • @user-nn2nn7wc4p
      @user-nn2nn7wc4p 6 місяців тому +9

      你忘了 有雲端這東西了嗎 ?

    • @leeloo_yh
      @leeloo_yh 6 місяців тому +2

      目前雲端的AI還是很貴,要在雲端實時串流影片加上AI,成本很可能是不划算。

    • @JimMingLin
      @JimMingLin 5 місяців тому +7

      ​​@@leeloo_yh這種程度的AI已經夠打資訊戰的了

    • @leeloo_yh
      @leeloo_yh 5 місяців тому

      @@JimMingLin 什麼資訊戰?

  • @love-neko
    @love-neko 5 місяців тому +3

    梅西就是個好例子,AI太可怕了。到時更易製造假新聞。

  • @flyerzy
    @flyerzy 5 місяців тому

    学习了,谢谢!

  • @user-co9pr7cm5z
    @user-co9pr7cm5z 6 місяців тому

    期待

  • @oyajixiami3700
    @oyajixiami3700 6 місяців тому +3

    聲音辨別真假的難度簡直無法想象,譬如麥克風的收音效果好一點、感冒了喉嚨不舒服、在風很大的地方講電話,至於影像的真僞查核,我想還是根據内容性質來判斷比較好,娛樂類就無所謂,假如是涉及個人資訊、社會議題,那麽就要抱著審慎的態度了。

  • @waterink
    @waterink 5 місяців тому +3

    Deepfake 中的 Fake,唸的時候要花多一秒,Fay-ke

  • @muzicarus7
    @muzicarus7 5 місяців тому +2

    台灣正確的用語應該是網路唷!對抗式生成網路,不是網絡。

  • @user-xf6bw8bw1y
    @user-xf6bw8bw1y 6 місяців тому +2

    20年維塔斯事件讓我知道不要太相信網路上的影片

  • @jmtsaimomo
    @jmtsaimomo 5 місяців тому +1

    本身有在使用AI的人 因為了解它 比較容易看出破綻 而沒在接觸AI的人
    除非影片失誤太多 一看就知是假的 不然本能上不會去質疑影片是假的 都會認為是真的

  • @user-bob-pikachu
    @user-bob-pikachu 5 місяців тому

    我以為要介紹Sora耶!你們啥時介紹Sora啊?

  • @justinlin7505
    @justinlin7505 5 місяців тому

    很好的分享,不要馬上相信眼睛看到的影像

  • @user-ok3dy5su8s
    @user-ok3dy5su8s 5 місяців тому +1

    AI太厲害

  • @qwerty6z
    @qwerty6z 5 місяців тому +1

    人工智能的學習能力一日千里,僅靠特定缺陷恐怕過段時間就沒辦法判斷真偽
    接下來是人吃人的世界了,現在就是技術奇點,沒辦法跟上的人將會被時代拋下

  • @yvonnecheng5413
    @yvonnecheng5413 5 місяців тому

    看完以後 還是不知道怎麼分辨😅

  • @15LittleTree
    @15LittleTree 5 місяців тому

    以前Line上假到爆的影片我還能半秒幫長輩辨別出是假的!現在Sora一出來不要說長輩了,自己幾分鐘之內全靠肉眼辨識都未必辨別得出真偽!!

  • @msads3134919
    @msads3134919 Місяць тому

    還有個辦法 視訊的時候拿鏡子 在不行拿3個出來

  • @yhw2658
    @yhw2658 6 місяців тому +1

    可怕的技術…

  • @zonetwelve5881
    @zonetwelve5881 5 місяців тому

    中間是不是有偷偷用 AI Voice 代替記者說話。

  • @zcxowwww
    @zcxowwww 5 місяців тому +1

    再過三個月
    這些辨別方法就無效了
    AI會進化的

  • @rai1331
    @rai1331 5 місяців тому

    photoshop 也開始使用 AI 了

  • @jasword26
    @jasword26 5 місяців тому +1

    1:45 可是問題在於真的有政治人物真的這樣手抖,是位女性政治人物,所以要能夠知道這種不自然動作是深偽還得那個人本身沒有剛好和AI相仿的詭異動作www
    拿AI去偵測AI,那如果把錯誤抓出來後去修正呢? 感覺將來皆會這樣製作深偽影片,應該要更難抓了

    • @qoodx
      @qoodx 5 місяців тому +1

      同意! 人類能辨識的錯誤,人類就能修復這個bug。 也就是說以後政治人物如果真的被拍到爆料影片也可以辯稱說這是偽造的,以後司法要蒐證越來越困難的感覺XD

  • @moonW22
    @moonW22 5 місяців тому

    真正的謊言的夾帶著部分真實

  • @essboa
    @essboa 5 місяців тому

    當大家都覺得都分辨不出來的時候 詐騙其實就更不好騙了...

  • @sandysong4482
    @sandysong4482 5 місяців тому

    2022的時候AI做出來的影片還不勘入目破綻百出,經過一年,就已經演變成要仔細找破綻,現在已經不是人在控制AI,而是AI透過對抗式網路,由2個網路不停的對抗自行學習
    目前的GPT-4已經夠可怕了,GPT-4可以在幾秒內生成極富原創力的小說文稿大綱或圖片,其創意跟天馬行空的程度可以輕易打敗99%人類,只是礙於字數限制或圖片BUG要真人去調整,GPT-4也可以輕易取代客服,AI可以分析顧客一段話當中的情緒跟客訴重點,再根據商家的條件式去回答,比小編真人還真,如果GPT-5/GPT-6,無法想像世界會變甚麼樣子,可能2025年就變成影像詐騙元年了

  • @ali88144
    @ali88144 5 місяців тому +1

    以後會有靠AI來專門打假AI的行業出現!

  • @kaze953
    @kaze953 5 місяців тому

    記者很認真AI時代不分年齡須具備基本判讀能力。

  • @kazamihsieh8004
    @kazamihsieh8004 5 місяців тому

    事實上,如果有ML工程師幫忙的話,可以調整出更棒的東西

  • @user-id2nr1zp1u
    @user-id2nr1zp1u 5 місяців тому

    2:25開始半分鐘跟從6:30開始的一分鐘聲音聽起來怪怪的喔,雖然我想懷疑是不是偷偷測試大眾聽不聽得出差別,但我得說口音是很自然的,很多在播報時會有的重音或停頓也和影片其餘部分一致,只是音質上有種怪怪的共鳴令人起疑罷了

  • @Flying_Bill
    @Flying_Bill 5 місяців тому

    追求完美與效率的盡頭,就是讓人類因為身為生物的瑕疵和多樣性而產生自我否定,人類在社會中建立的運作機制最後也會容不下人類自己。AI與機器人並沒有錯,它們的出現是必然的,它們只是試圖滿足在人類社會中生存的要求,就像你我一樣,也因此,當他們做得比我們更好的時候,我們被自己訂下的標準淘汰掉,那也是必然的。

  • @EricLeung-hk
    @EricLeung-hk 5 місяців тому

    分辨相片真偽不應單憑相片本身. 而是需提供源碼. 從前可以依據底片來決定是否有被刪改過. 而現代人通用的jpg或mp4 格式. 便必須有第三方認證. 印刷電子書. 都有生版商的數碼認證. 相信日後須有法律上的途徑及制度. 不是UA-cam的任意說某某片子是否侵權的無聊.

  • @captainwu
    @captainwu 5 місяців тому

    那些辨識點應該會隨著時間改進一定會漸漸消失,辨識只會越來越困難,
    甚至未來AI生化人出來了,虛擬還直接變實體,
    魔鬼終結者就演過了,當機器人披上人皮,就可以混入人群,
    若是由AI電腦控制的複製真實人體,應該甚至可以通過各種醫學檢驗吧

  • @FBl54088
    @FBl54088 5 місяців тому

    其實這集的畫面也全部都是AI合成的😂😂

  • @UonBoat
    @UonBoat 6 місяців тому +1

    網絡…認真??

  • @Happy.C
    @Happy.C 5 місяців тому

    50年之後,大家臉上想要修改的缺陷
    就會變成辨別真假的特征~

  • @autumnblaze7825
    @autumnblaze7825 5 місяців тому +1

    最怕的就是拿去政治操作很恐怖。

  • @x7162k2
    @x7162k2 5 місяців тому

    未來刑事檔案可能會改膠捲了,數位可能有偽證的問題。

  • @cdong
    @cdong 5 місяців тому +1

    Deepfake念錯了

  • @cheng-hsiangchuang5211
    @cheng-hsiangchuang5211 4 місяці тому

    相當好奇目前視訊也有很多「美容」用的直播濾鏡,像是瘦臉美白,這些也有著剛剛舉例中「造假」可能前後不一致的特性,所以也會因此被判斷成是AI合成囉?但DeepFake換臉跟濾鏡應該是不同等級的事情

  • @Happymeal186
    @Happymeal186 5 місяців тому +8

    數發部應該轉型成財團法人數發研究院,基本上一堆天才工作的地方就像臭鼬工廠獨立於洛馬集團,他們不喜歡繁文縟節,只要審計部門定時去開會就好,他們對於令人興奮的新發展計劃可以無條件加班這跟薪水無關跟爽度有關。

    • @i-love-god-88
      @i-love-god-88 5 місяців тому

      可是數發部並沒有一堆天才啊, 反倒是綠共養網軍的地方

  • @feifeishuishui
    @feifeishuishui 5 місяців тому

    只能用AI来对抗AI了

  • @yun-chenyen2834
    @yun-chenyen2834 5 місяців тому

    香港好像有人被即時對話影像詐騙的案例。
    熟人最好問兩個人私底下都知道的情報,或約定幾個暗語確認對方影像是不是真人。

  • @user-ct2mc6so8w
    @user-ct2mc6so8w 5 місяців тому +2

    記者的英文發音有待加強。Deepfake、Deepware、SynthID... 都唸錯。

  • @YetEthanOnly
    @YetEthanOnly 5 місяців тому

    其實語音合成沒那麼麻煩,你換個字通常就能解決了

  • @5514huekm
    @5514huekm 5 місяців тому

    不难,快速叫他挡住脸,然后快速挥动,变不变形就知道了😅😅😅

  • @caca9508
    @caca9508 5 місяців тому

    AI仿真聲音會讓詐騙更加猖獗那又是法律另一門課題,試想某天接到親友熟悉的聲音卻問了一堆奇怪的套話或急救套路

    • @user-midori_in_forest
      @user-midori_in_forest 5 місяців тому

      我十多歲的時候接過一通電話,一個很老的男聲跟我說:媽~~我被綁架了....

  • @wumaggie8059
    @wumaggie8059 5 місяців тому

    感覺人快被自己發明的科技毀了⋯⋯

  • @ccuueeee
    @ccuueeee 5 місяців тому

    我不擔心年輕人啦,但要教育老人家眼前的影像不可盡信,還是有請豬大哥出馬

  • @info-youtube
    @info-youtube 5 місяців тому

    *鄙棄 AI 生成我比較在意本影片已將Wi-fi密碼外洩*

  • @user-dp5ey8qq7r
    @user-dp5ey8qq7r 5 місяців тому

    fake 的 a 發音是「ㄟ」不是「ㄝ」

  • @benque7491
    @benque7491 6 місяців тому +6

    難得看到數位發展部在做事
    (好啦我知道一直都有但沒那麼明顯

  • @videomosaic45
    @videomosaic45 5 місяців тому

    Deepfake 的fake不念fact, 是cake改成fake的读音。

  • @truthseeker4ever23
    @truthseeker4ever23 5 місяців тому

    你唸錯 deepfake, 那個 a 發的是 /fāk/(ㄟˋ), 不是 /fæk/(艾).

  • @lapiscloud8342
    @lapiscloud8342 5 місяців тому

    科技的進步實在讓人毛骨悚然...

  • @k36522000
    @k36522000 6 місяців тому

    太真實了吧?

  • @richardlim6436
    @richardlim6436 5 місяців тому

  • @matt90673
    @matt90673 5 місяців тому

    新的犯罪工具,更有說服力。

  • @user-ss9sr6zq5x
    @user-ss9sr6zq5x 5 місяців тому

    說不定這部影片裡面有部分就是Ai做的

  • @bakuakn
    @bakuakn 5 місяців тому

    有講等於沒說。

  • @DaYbReAkPa
    @DaYbReAkPa 6 місяців тому

    這部影片好像是使用AI語音?

    • @user-vo5zq4tw4n
      @user-vo5zq4tw4n 5 місяців тому

      狂三:我可以製造一堆AI分身

  • @patautzu
    @patautzu 6 місяців тому

    我能想到的方法就是請對方來一句台語的十字經。

    • @wawawa8964
      @wawawa8964 6 місяців тому

      哪十字,俺只會六字真言

    • @nanman_chief
      @nanman_chief 5 місяців тому

      現在主流、成熟的是文字產生聲音的AI,現在也有一些即時聲音轉聲音的研究,可以即時的替換說話者的口音跟音色、聲紋

  • @ddkk3721
    @ddkk3721 6 місяців тому

    😮😮😮😮😅

  • @user-vn9rd5ve7k
    @user-vn9rd5ve7k 6 місяців тому

    全人類們,歡迎來到這個全新的~
    nothing & nobody to believe 的新世界!💀💀💀

  • @newshackathon9773
    @newshackathon9773 5 місяців тому

    簽個名 2024/02/24

  • @ayii-it
    @ayii-it 2 місяці тому

    我看民進黨應該已經私下研究很久,就等一個時機來使用 🌝

  • @user-ow1ec3kj2u
    @user-ow1ec3kj2u 5 місяців тому

    😂英文不好 不會用

  • @user-sf7en7u
    @user-sf7en7u 5 місяців тому

    公三民自 這些
    不是也會選擇性播報和遮蔽部份新聞訊息?
    幹嘛做這節目講的自己很清高一樣?

  • @fs8277
    @fs8277 6 місяців тому +6

    九成的新聞都在對自己的金主宣示忠誠,並且有意散播大量不符完整事實的片面報導
    主管機關擺明叫你乖乖整盤吃下去
    現在突然好在乎AI真偽跟Deep Fake,整個太讚了吧

    • @No-iy9cx
      @No-iy9cx 6 місяців тому +13

      公視的金主就是每個有繳稅的台灣公民唷

    • @VonAllo
      @VonAllo 6 місяців тому

      ​​@@No-iy9cx除了公視以外呢

    • @No-iy9cx
      @No-iy9cx 5 місяців тому +2

      @@VonAllo 其他是私人企業 自然不會報金主的壞話 公視會呈現的是大多數台灣人的意見

    • @fs8277
      @fs8277 5 місяців тому

      @@No-iy9cx 如果有個頻道大家都覺得他金主是台灣公民,呈現的都是大多台灣人的意見,那也太吸引人了吧,一定不會有誰企圖想掌控這個頻道對吧?
      建議可以去看看財報與收入來源比例,然後醒醒

  • @beemolin872
    @beemolin872 5 місяців тому

    網絡是中國用語

  • @chih-junghsu4421
    @chih-junghsu4421 6 місяців тому

    啊那我就用你各位研發的AI偵測軟體作鑑別模型,直接對抗式網路訓練起來爽啊刺啊

  • @purintsai615
    @purintsai615 6 місяців тому

    事實查核中心都不能信了,其實應該用內容是否太過具爭議性去判斷真假吧

  • @f77012904
    @f77012904 5 місяців тому +1

    中國腔是三小? 你公視自創的喔,笑死~ 去講你的台語啦. 不要汙染大家的普通話。

    • @Happymeal186
      @Happymeal186 5 місяців тому +5

      人家中國那邊都說我們是台灣腔了,中國腔很奇怪嗎?

  • @user-lz9pg4og4q
    @user-lz9pg4og4q 6 місяців тому +4

    可以不要扮成蔡英文嗎?…. 很噁。

  • @a-meow5406
    @a-meow5406 6 місяців тому +3

    這個人真的是越看越像蔡英文
    這個頻道也是越來越偏綠媒
    讚讚