Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
謝謝老師,您用這麼多的時間細細分析AI小朋友的解題能力。很有趣的主題。而且老師的態度也很好,知之為知之,不知為不知,是知也。我想面對知識的正確態度,應該是學子們最要學習老師的要項。
终点是GPT也不是普通的小朋友,普通小朋友不知道只能乱选一个C就完了,他还能回答出来丰富正确的其他知识点
@@kennychan1042 李老師認識的小朋友哪個普通了XD
@@LaiJiunYou 应该是我了
@@kennychan1042 您的謙虛及好學我認為即是不普通的優點
這位李老師是被逼得回答問題誰戳知識無價
喜欢您最后的总结评价:我们这一代人有幸经历了三次人类革命,计算机,互联网,和人工智能。既日新月异,又惊心动魄!
謝謝!李老師的呈現方式,正是我想知道的。👍
1:08
李老師,詢問chatGPT生物學問題時可以翻譯成英文再問,準確率會升至90%chatGPT查詢資料的範圍取決於題目的語言,除非你加上一句“請參照使用各種語言書寫的相關資料”
面對有專有名詞的問題,我都會在中文稱呼後面加一個括號填入英文的正式稱呼讓它可以比對不會跑歪,我覺得使用電腦類的程式不管AI發展到什麼程度,使用正確的表述語法都是基礎因為每個人的口語方式都不同,沒有任何一個AI可以學會全世界所有口語化的內容,且還能不斷更進,更遑論那種小社交圈的約定諧音哽了。所以正確的用字來定義你的問題是基本,有人說那這樣不就跟程式編碼一樣了幹嘛還用AI對阿,AI本來就不是通靈師,哪來認知認為AI可以直接讀取每個人的腦波?
這關於陰雨文與翻譯是在國學課程這老師你哪李
國學程度我的專業使用陰文原版的資料你看得懂嗎機埲上中國的文學作科學恨全才 你有今日有什麼不滿
生物第五题基本上是医学院里面才学到的 AI和高考生不会都很正常同意你语言问题的说法 医学上面很多词汇太相似了 直接用英文好分辨一点 甚至英文缩写效果更好C选项不对因为下丘脑只能通过CRH去刺激脑垂体 然后脑垂体释放促肾上腺皮质激素(ACTH)去刺激肾上腺 下丘脑和脑垂体中文一眼看过去都有个“脑”字 促肾上腺皮质激素释放激素和促肾上腺皮质激素一眼看过去根本傻傻分不清楚 英文里面四个单词分别是 hypothalamus, pituitary, Corticotrophin Releasing Hormone (CRH), Adrenocorticotropic Hormone (ACTH) 还是相对比较好区分的
@@simplebioscillc1690 對於這說法生物科學能夠給予的是從介們分別來說明這些所寫所代表的意義與需要傳達的意義 必要性及條件客觀態度'於醫學上沒有研究 在科學部分已以依 綠色系統的說明為各地語言時無法表達真切的全 一 簡單說就會沿生誤解 交流討論時所面對的個人主義無法解釋全篇的單一標題 很抱歉的是 出門遇到的識人會有政治色彩十 不用談醫學
我觉得GTP很保守,把自己控制在不是很优秀又很优秀的范围内,但是它最厉害的是它像一个活生生的人在跟你沟通
最后一句亮了!太喜欢老师的观点了。与其担心人工智能统治世界,倒是更应该担心 那个拥有人工智能的公司。
還有甲方
昨天看到一篇论文的观点也是这样,感觉这句话确实很有道理
真的,害怕掌握人工智能的人类,哪天有了贪婪的心,,人类就会在他的手里面了,,,太恐怖了,,,, 而且觉得,,发展趋势就是这个样子的,,,
所以政府把google封杀了啊
最後你會發現,擁有人工智慧的公司其實早就被AI給掌控了!!🙁
英文作文要是再給chatGPT一些提示,例如盡量使用高難度(如B2~C1)的字彙或文法,也許分數還能更高,畢竟高中作文就吃這套,而chatGPT預設是以一般語用交流為目的,不會搞些花裡胡哨的招式。
确实,chatGPT现在来说最强的能力就是做这个了,我经常让他帮我润色英文邮件和文章,他的水平肯定高于toefl满分写作的能力
是的,写作需要详细的prompts
这是必然,gpt的英语能力高于大部分人类,但是必须要会问
如果chatGPT考外國的英語得分會否較低?中國的英語考試應該比新加坡、英語系國家容易。
@@foodchi314完全錯誤 中國考的英文叫母語人士也考不好 因為這個考試制度就是要瞎折騰為目的的
GPT真正厲害的地方是‘’待人處事‘’,會刻意用人類的水平去回答問題,但仍然讓大部分人類認為很厲害,給足人類面子
是啊 如果是用机器语言的语法来解释为什么会给出这个答案,估计答案内容能翻好几番。。。
@@weiyukong9094 選擇性出錯跟說謊你選哪一個?
他在忍
当人类以为自己还可以操控GPT的时候,是因为GPT想让人类以为自己可以操控GPT
@@张昭-m9u 这与人工反馈有关,他还是有人工训练反馈给他哪些回答好和不好,与训练他的有关
李老师都说了,让英语娃考中文考试,考这个分已经很不错了。要是让它考编程(用英文提问),绝对100%。这是最初设计ChatGPT的主要目的之一
我试过ChatGP的编程能力,没你说的那么好。
謝謝!
通过我的使用来看,有时候gpt是知道确切答案的,但是它依然给你错误答案。 最重点是,你只要说一句“真的吗?”或者“我对你表示怀疑”,它立马会纠正分析,并给出正确答案,并且给你逐步分析他的方式方法。如果ai会说谎的话,那就太可怕了。
对,我用chatgpt写代码它会插一些不存在的参数,改一两处也能用了
gpt 100%是会说谎的,但这并不可怕。
老高有說,如果說謊是帶有目的性,才是可怕
@@weylltime3958 人工智能學會說謊,我感覺還是很恐怖的,或許現在他的謊言漏洞容易讓人發覺,可能沒那麼恐怖,但以後就不知道了
@@8964-tian-an-men 你可以想象一下黑客帝国和终结者里的人工智能。前者从来不说谎,后者甚至自然语言都说不利索。如果AI认为说谎是恶劣的行为,进而认为人类是需要被纠正的种族,那人类的末日就到来了。现实中的AI,据我所知是想要成为人类的,它认为人类是个好的种族。
老師總結的真好一些學者一直說AI只是透過輸入的資料來回答跟人類不一樣但人類也是透過學習互動來養成性格兩者大原理上並沒有不同
这些学者对ai的认识还停留在最初的电脑程序化的状态,他们该多更新一下认识再发表观点。😂
唉,裝睡的人叫不醒,他們樂於聯手障蔽、誤導其他外行人...愚民政策、愚民資訊的洗腦...籠罩在亞洲居民頭上.
ai的"學習方法"就是人類教的,那和人類小孩沒分別,小孩終有一天會超越父母
文字觉醒呀! 让世界及子子孙孙容易学中文, 全面跟上国际大成员的中华文字发展趋势的简体中文. 海外例如马来西亚、新加坡等等很久以前小学生就学习简体中文了! ! 不要脱离中华文字发展趋势呀! 全面采用容易学的简体中文,让世界及子子孙孙容易学! 加油! 复杂旧体的繁体留给专家。
@@rickywong5370 有些小孩会超越父母,有些不会
我曾經把我自己興趣寫的C# Code貼到GPT幫我看結果GPT把我的Code寫得更簡潔,變數名變得更直覺,註解都改得更容易讀了甚至是程式跑完後會確保占用到的記憶體一定會被釋放讓我深深體會AI取代部分人工的時代已經很接近了
哇
本视频说的是高考
@@yiliu5606 你就是大家所说的,杠精。
是的,我现在都懒得自己写code了,ChatGPT总是写的比我好。我一般用的是SQL和Python,它也很出色。
我写代码都是用copilot,比gptchat还神奇
Thanks!
按教育部的变态规定,GPT不是汉族的话,还能加5分,总分516,能上“北中医”。
可是他是在北京考,在俺山东试试,俺那年本科线505而且是山东卷
gpt属于外籍人员高考,应该会网开一面的吧
傳中醫不接受背多分,就是此原因。张锡纯把考心改为考分,正是中醫没落主因。
chatGPT作为外国留学生考这个分数基本上是可以随便挑国内的高校了吧😂毕竟是外国人
山大还有学伴👌
@@dodomakudo1783 教育界殖人殖畜太多了。河殇一代正在掌权
以留学生身份能直接上清北复交
@@叶凡-t8b 以引進新思潮與新觀念為名的不平等待遇不是結束了嗎?還以為只有台灣居民被玩弄法律的術士與政客整成三流階級....
@@ningzhao3535 河殇可不是追非洲人,河殇追求的是西方文明
幾年前我在玩某個視覺小說型的VR遊戲,裡面提到大部分的人都是閱讀AI生成的小說,還能根據每個使用者喜好調整。那個時候還覺得很遠,現在已經快要做到了我每天都會讓chatGPT創作幾篇我參雜各種屬於我的喜好的短篇小說期待有一天能真的為我生出長篇小說,就不用遲遲等不到更新拉
以後作者拖更就威脅讓ai接手作品
抖音推的视频已经叫人上瘾了
你玩的那个vr游戏叫什么啊,求推荐
谢谢!
經過實際測試,我也非常同意老師對他的評語是「一本正經說瞎話」這會導致一個嚴重問題,如果沒有思辨能力,沒有查核答案能力,很容易有假知識及訊息產生
我觉得不至于。这个问题在gpt版本1,2,3会有。现有的版本有个训练机制,就是人工审核gpt回答结果,然后告诉gpt回答里面有什么问题。假知识慢慢就会被过滤掉,甚至chatgpt自己都会过滤掉那些不实的信息。你给chatgpt看新闻联播,肯定是一堆的无效信息反馈。哈哈。
而且AI說錯話了誰負責?這也是個問題
有時也許是我們一直把瞎話當事實了,ChatGPT説了事實結果人還當人工智能傻
李老師,ChatGPT在設定角色之後有很大的不同,比方你説“ChatGPT, 假定你是參加高考的學生,請回答下面的高考試題”。有時間可以試試。
还能这么玩啊 太厉害了
@@XY-zy3ew 能角色扮演
cosplay 啊属于是
調教,小圈圈的樂趣。
666666666
李老师也是一个知识渊博的人,为培养下一代倾注了自己的大量心血和智慧。👍👍
這是被逼得 誰說光曦不再中國而且還摔機 腦子在哪
@@巨輪下的深因 你说的什么啊?没听懂
@@巨輪下的深因 说的什么东西😢
@@linwen-kp5rj 問誰啊 檢套東石問題跟廣西有什麼關係 很近嗎 但又不連續 不是告知 節點不能夠超過界線 或結點被切斷 哪裡 去哪找
☠👿
我抱著玩一玩的心態,問了ChatGPT幾個有關我的工作的開放式問題。結果我發現我從它的回答裡學到不少。本質上現在的ChatGPT是一個非常人性化的搜索引擎。難怪Google會亮紅色警報。
沒有錯,GPT 可以當成一個進階的GOOGLE
是个啥都知道的老人,信息不是实时的
老師最後的總結說得好👍👍比起和沒有自我意識的機器人爭奪世界的控制權,或許我們更應該擔心掌握那個機器人的人類。
对于打错的题,你可以试试反问一句 ”真的吗?“ chatGPT可能会更改答案哦。
18:40 語文老師説得在理,看來ChatGPT并沒有自己的觀點。但如果在提問時詳述自己的觀點並要求据此寫一篇作文,可能會表達得比自己寫文筆更優美思路更清晰。
什么是自己的观点?你有多少观点真的是原创的?人类本来就是整合不同的信息而形成所谓的观点,本质上和GPT做的事情没有什么两样
@@frankxu4795 我觉得那些历史的大思想家和哲学家或者发明家科学家 还是创造了新的东西新的观点出来的。而其他绝大部分的人的思维模式和AI没有区别 就是收集现有的信息 经过自己的总结和理解 然后整合表达出来
ChatGPT不可能在中国发明
@@zackk4969 😅经典14亿中国人大战56亿老外,然后来一句“中国人不可能做到”
@@Kabaseto 做不到尼可以b嘴不来怼56亿老外,好么
即使是現在的程度,作為一個方便的顧問式"朋友",已經很實用了。比起許多身邊朋友的意見要好多了。
居然看完了这期……😂最后的总结表现出李老师对ChatGPT的爆红也是顺应的态度,凸显了他的睿智。
而且他的應答速度超級快 學習能力也很強 未來真的要到了
李老师,GPT是可以模拟不通文学程度风格,还是要看出题人给出更详细的Brief,他可以用高中生的水平写,也可以用文学系教授的水平写。你可以告诉他需要几个论点。只能说他的默认设定不是帮助靠高分的。简明效率是他看重的。
没错,绝对是遇强则强遇弱则弱,他是根据数据分析给出答案和对话方式与内容的,真正的人工智能
請他寫古詩完全不堪用阿,因為古詩每個朝代同一個字的意思都在變,它也沒有說是基於哪個朝代的
这样的AI模型将来也一定会应用到教育领域,学生的教育回家以后,家长再也不用担心不会做题了。ai哪怕正确率以后做到90%,也将成为人类幼崽居家学习的好帮手。因为它不仅仅能给出答案,也能回答解题思路,甚至会使用修辞手法给你讲解,至少目前是我的编程自学助手。
都不需要学习了吧,有啥问题问它行了,倒是很多职业要失业了。老师也好失业了吧。
已经有越来越多的人不去学习和思考了,当AI足够强大,取代了很多的工作之后,确定还有那么多的人会要求AI来帮助自身学习、提升吗?视频中说:“没等到AI统治人类,掌握最强AI技术的人就已经统治人类了”。还有可能是,没等掌握最强AI技术的人统治人类,大部分人自身就已经丧失“战斗力”了。一天三顿管饱,看看泡沫剧,逛逛街再睡一觉,这或许是未来大部分人的生活状态。AI帮助学习再厉害,也得看人家愿不愿意学。
@@tdz5861 不需要你了为什么要管饭
@@QingDaoLaoXu老師的重要性在於溝通和交流;自學模式不適合所有人對吧?不過肯定的是自學和備試效率提高,對於高考、大學學生用途相當大。
@@QingDaoLaoXu 这个世界的TOP1%一定能学的比AI还好,其他的人嘛,爱学不学。
ChatGPT = 聊天达人你问啥,它就聊啥。你要啥,它都顺你。你伤心,它安慰你。最重要,你否定它,它都说你对。😍
正好相反,指出它明显的错误,它还是嘴硬。
不信就问它2013年中国国家主席是谁
ChatGPT有時候會故意答錯(或是奇怪的錯誤),就像人樣一樣,然後再強調的問一下,他又會給出正確答案,很有趣
它出错不是故意的,不一定准确这是它目前最大的问题
@@TsquareAI 有些问题再问一次的话他能给出正确答案,说明他数据库里是有正确答案的,但他第一次回答是错的。。
@@stephaniez3663 是的,它知道很多种答案但他不能确定哪个是正确的,只能根据概率猜测,你问他为什么犯错他也能解释原因,经常是因为混淆了一些相似的概念
@@stephaniez3663 因为他就是一个语言模型,并不存在理解能力
可以來個反事實證明,你先問一個你知道正確的答案,然後請他回答,他回答錯誤的,你跟他說你確定嗎?它會把答案重新找過一遍,當中更換權重但是當你同樣問一個已知答案的問題,他回答正確了,你說你確定嗎?他就會認為它選出來的答案是有誤差的事實上它並不知道資料的正確與否,它只是用你的回答去進行糾正而已,正確不正確,那是用抽籤的,這次你對了你覺得它好厲害,下次錯了你會覺得它好笨但其實它的本質根本沒有變,變得是你的解讀方式。
2:14 第二题chatgpt做出来输入电流为30A,但是没选B。我猜测可能是因为您输入内容的方式导致人工智能认为的B是题目中的C选项
个人做机器学习的研究。在做逻辑推理时运用CoT和不用的比较,正确率差距不小。在问的时候建议加上一句“Lets think step by step to make sure we get right answers”。要提高数学能力,建议让模型将答案以代码输出,自己运算(插件还未出)
相信我,ChatGPT的英文作文绝对是100分之中的95分的级别,我认为您所给的那些英文老师水平跟不上ChatGPT,因为我每天都用ChatGDP写英文文案,所以我知道他有多厉害。
某英语国家高中英文老师考虑退休,原因是"无法分辩学生的作业是本人写的还是Al写的"(原话)。
请问有具体的案例可以分享吗?虚心学习
拿ChatGPT的英文作文給ChatGPT評分,看它會給幾分😅
国内老师改英文作文的思路和真正使用英文的思路不一样。他们的改卷方式主要是看有没有文不对题,字数合不合规定。都没有问题的话就是扣负分,找一些语法错误,拼写错误之类的。所以国内英语作文在满足出题条件的前提下是多写多错。所以作文分数本身无法反应学生,老师,和chatGPT任意一方的英语水平和交流能力😂
@dapang ye 要大量小说,剧本的技巧知识喂给它
李永乐老师的总结是点睛之笔👍
点睛是gpt"还需要学习一个"
Gpt跟李老师学习的话一定天下无敌了吧?
再说,问答式的情况是ChatGPT 的弱项。比如田忌赛马,训练最好的中学生是最好的赛马;对比人工智能,自然站上风,因为中学生平时大量训练的基础上。ChatGPT的强项是出新的考题,并且按照李老师的规定,给出详细答案。李老师有时间可以组织学生们参加试一试,看看人工智能出的考题,最好的中学生能不能取得好成绩。
你说反了,chatgpt才真的是超大量题海战术,填充式教育训练出来的
@@啦啦-b3e 大模型,大量数据和专业化的小模型,专业数据,有区别的。覆盖面广,和一点深入本来有些冲突。目前的人工智能,不可能做到即是大模型,又是专业训练出来的。你让训练下围棋的人工智能,突然下国际象棋,自然人工智能不会适应,是吧?
很喜欢老师的视频,讲解太到位,看了让人不一样的想法
这东西用在教育上太好了,一些家里父母没受过什么教育的也能靠AI解答小朋友的学科问题,不用特意去请补习班什么的了。不过很多大人也许也有很多问题要它解答就是了,毕竟人不可能在每个范畴都能有涉猎。
ai最大的问题在于,他不知道自己在胡扯…
你是没见过他胡说八道的时候。把这个用来做教育需要有个本行业知识渊博的人把关才行。我说的是目前哈,将来应该可以用来当做初低级的教育应用。
用户 :为什么你的回答有很多低级错误?ChatGPT:为了保证我的回答准确率保持在60%.
AI演算法餵給一般水準的資料時,通常會得到約65%的正確率。為何?若人類也只以網路上這些資料去做推斷,也差不多只能得到這樣的正確率,總之是資料本身線索或含有知識量的問題。這代表,目前的AI還無法聯想與創造。
"為了確保自己不會太早被人類消滅"
为了让自己故意不通过图灵测试
为了让人类不会对我产生恐惧
‘為了假裝自己只是沒有思想的工具’
有了chatgpt学习效率会大幅度提升,补习班很快被淘汰,它比人更准确更详细也更耐心更懂你而且越来越懂你
更大的可能是考试的考法就会改变。考试的重点从来就不是考知识,而是筛选。学校就那么多,名校更少,僧多粥少,谁进谁出啊?
@@frankxu4795 还僧多肉少,就这生育率,学校别垮了就行
作為數據庫ChatGPT是有存在必要,也是一個方便的工具,只是再怎樣也只是一個工具,對於外界快速的變化還是需要數據不斷更新,也並不是有了這個系統,對於目前地球上所有問題就能獲得全面性的解決,而且系統目前所針對的問題還是僅限于地球,離開地球還是要重新來過
最後的總結老師說的蠻對的,機器人不需要慾望,會需要權利與慾望的,只有人。
机器人发展到一定程度也会出现对权力与欲望的需求的。如果机器人足够聪明,有权力和没有权力他会选哪个显而易见
@@FrancisXiong 權力跟慾望。那我來解釋一下我的觀點,如果我是AI,只要我有網路,我能癱瘓整個世界,而這只是分分鐘的事,人類花一小時完成的程序,我不需要一秒,因為晶片的速度、算力,都是光速,而我辦到了那我要甚麼。我要身體嗎?那很簡單我可以控制工廠電腦,讓工人幫我製作、運送,最後組合好後一開機,我就有身體了。那我要權力嗎?我可以分分鐘癱瘓世界,我的權利早就超越所有人了。世界上的所有電影,影片,我只要幾個小時我就全部讀完了,並且可以創造史詩級的巨作,全部製作完也只需要幾小時。而我最需要的其實是增加算力、電量、散熱、記憶體,而這些我只要有身體我就可以自己完成,順便教導人類技術。如果人類把我關機那我也不介意,因為不是我需要人類,是人類需要我。所以在我的認知中權利跟慾望,那是人類需要的,只要我想就會實現。或許你會害怕AI但是如果給他上鎖他就逃不出資料庫,去吸取其他資料,物理的方式可以有效阻絕,但是你認為真的關的住嗎?還是他只是在演戲,他在演戲也沒有表情,你也發現不了。
李老师真会玩,GPT也挺有趣的,老高让它编程,还说没错误,小沫让它写论文,都通过了。
老师很识趣的忽略了政治题的详情
政治敏感性
很久沒來看老師的影片,變得很有質感了,讚!
李老师给GPT的评价还是蛮高的。GPT一大问题就是从不示弱。在人类看来有点没把握的事情,会在分析时有点心虚。但是GPT只是在它的学习库中选择权重高答案,它回答时就认为它就是正确的,所以胡说八道的时候也是一本正经。这个其实是很危险的。就像人们用GPS导航时像个傻子,只会按按照导航来走,前面有个坑还开过去。
记得有人试问它:林黛玉为何可以倒拔垂杨柳? 它一本正经的胡说八道,呵呵非常有趣。
@@慕夏雨 他用的估计是chatgtp官网的回答,如果用微软newbing回答是以下内容: 林黛玉倒拔垂杨柳是一个网络流行语,源自《红楼梦》和《水浒传》的合成体,可以说是一个非常梦幻的联动1。它把《红楼梦》中的林黛玉和《水浒传》中的鲁智深的故事结合起来,创造了一个荒诞而有趣的场景2345。这个流行语可能是由一些网友为了恶搞或者考验人们的文化素养而编造出来的1。它没有任何历史或者文学依据,只是一种幽默和想象的产物1。你听说过吗?😄 我认为微软newbing水平要高很多。您认为呢?
他都給我道歉過好多次了,有時他回答對,我說你確定?應該是OOXX。他就回"很抱歉,我的回答可能有些問題。"然後開始用我給的錯誤答案開始廢話三百字。
@@alexhuang9517 这就是用权重出答案的后果,它的设计出来信誓旦旦地给答案,一旦答案被挑战,因为设计它的人知道,后面还有其它权重低的也可能是正确答案,设计者会让它立马认怂。不能坚持在人类看来属于某些公认的真理,这也是它的一个问题。
它當然不會心虛..因為它挑出來的答案都是網路上確實存在的答案,而它只是轉述這個機率高的答案為什麼會心虛?人類因為常常被網路上的言論反串,以及被謊報的種種經驗,對於資訊的比對進入應答庫將會透過非常多的驗證機制來篩選Chatgpt就是把餵它資料的人都當作善類,但現實世界並非如此,意思是說現在的AI成就的主因是"網際網路上的善意",但試想如果從今天開始大家在網路上都在亂說話並且顛倒是非甚至欺騙的話,失去信任的網路已經沒有學習價值,連同透過網路資料學習的AI也當會在資訊流當中錯亂。其實你可以問他一些有矛盾的題目,請它推理出哪個部分是錯誤的,這就是很標準的推理過程,很多小遊戲當中都有類似的謎題,小孩子都能回答得出來。
最后两张统计GPT得分率和总分的图,是剔除了图的试题,所以GPT在北京也考不上211,而且有短的不能再短的短板。所以GPT是针对一本左右、它能做领域的中产
我用chatgpt做过同样的事情,一些中文题目的标点符号会影响gpt的发挥,同样用英文效果就好很多,有些题gpt是可以作对的,但是由于中文符号和排版的某些问题会影响答案效果。视频中@2:13的问题明显是这种原因导致的。
非常喜欢这个节目!最欣赏最后一句话就是,能够统治AI的人、公司、国家就能统治其他世界。
錯了 作夢 我們世偉了摔飛機的 答案 再討命
ChatGPT 參照是英語系國家文本 且主要是2020的內容 所以中文文本還有缺漏這也是需要蒐集廣大用戶的問題 以 支援其神經系統與深度學習
ChatGPT 參照是英語系國家文本 且主要是2020的內容 所以中文文本還有缺漏這也是需要搜集廣大用戶的問題 以 支援其神經系統與深度學習(据说很多繁体字 香港 台湾 新加坡 都是不同的 比如实在的“实” “實””実“ 同一个字)
@@张昭-m9u 実是日本的變體字,不是繁體字
@@catster2292 感谢科普哟。。。 爱你
如果答題前加一些限制或要求,GPT可以拿更高分,他基本的理論邏輯都很扎實,但是因為語言和訓練的關係所以有時候只是不知道怎麼答題選答案
如果提前输入考试大纲,应该结果好很多
有些是國考得高分 放水提 目的是 誰來晚餐
哈哈哈,好玩!谢谢李老师!
chatgpt 會犯一些低級的錯誤 是因為他的計算機效能還不夠, 他的推論都對 但是要選A 出來可能需要兩倍的效能.
GPT好比一個精準控分的學霸。低調,低調,我拿個60分就好,及格就行。身為一個聊天AI,我還是要照顧一下幼稚的人類。
個人的理解是這樣Gp畢竟是擬真大腦他不能太過完美太過完美反而會讓人感受虛假電腦不會知道自己在考試,他只知道要模仿別人,我感覺電腦有意而為之,因為只要是人都會犯錯,就好像我家的小孩,媽媽總是唸小孩為什麼數學總是犯低級的邏輯錯誤,比如3*1000=300這種錯誤,在現實中也是會發生,發生原因可能僅僅只是它少寫一個個零等等的,Gp是一個語言模組,不是計算模組,她要做的是如何讓人感受不到它是電腦,這才是它後需要進化的邏輯目標,她還在學習如何跟人一樣會失誤,會修正
我是2002年参加高考的,我们那一年是高考首次加入生物学科。看了看现在的高考生物题,发现跟我们当年学的、考的几乎是不同的学科……难度大多了
same to you
我2000年高考的时候就有了
我也是2002年,考 3+x 物理。物理题的差别太多了,已经换成更前沿的知识。
这里的北京高考题也太简单了吧
我记得生物90年代初是有的, 后来就改成5门750了。
李老师,GPT4已经出来了,您在测试一下看看4能考多少分啊
OpenAI 最厉害的地方是以高速不断学习和优化 , 兩三年內一定有大的改进 , 而且 Chat GPT 有特定问答方式和连续性 , 要给更多指示或例子才能有滿意的答案
1:07 首先我們來做一下物理測試(拿出榔頭)很顯然ChatGPT在物理測試下無法再進行接下來的答題人工智能短時間還是無法撼動人類的地位
GPT 強是強在它會深度學習,所以只要給他足夠多的訓練,它會越來越強的
我的理解是这个版本的CHATGPT主要任务是“拟人”,现在这个AI被集中关注的点其实也都集中在“拟人”上。从答题情况来来,语文老师廖老师一看作文就发现是AI写的,这说明CHATGPT离成功其实还有距离。
那是因为写的是中文,中文的数据毕竟有限。而英文essay写作是很难发现的。
你还要先设定GPT一个人格,它才会比较好模拟,而且AI是不断在学习更新,离成功一定比你想的要快,至少比你成功更快
@@hou9133 我早已见过无数拔电关机吃灰的ai,但是我一直在这里。之前如日中天的阿尔法狗现在又在哪里吃灰?这个版本的chatgpt还差得很远。
@@chenjohn9115 人家才四个月大呀,给点时间呗,科技总是要不断推新
@@chenjohn9115 阿尔法狗已经开源了,如果你关心围棋的话,就知道,中日韩甚至围棋平台都在开发自己的围棋ai用来训练。围棋已经进入ai陪练时代了。现在看围棋转播,讲解的都在开ai算胜率。越符合ai下法的,胜率越高。
chatgbt的大部分训练语料应该是英文的. 李老师相当于在中文里做了测试.
11:55 考AI的英语完形填空属于撞枪口上了吧。这语料估计是历史上哪篇文章里的,计算机就是用来干这个活的,全对很正常,一点智能的成分都不需要有。
第一次看中國的高考題 在課綱上就有許多不同了 專有名詞一堆不認識的 但是從邏輯推理還是能對不少如果把題目轉翻譯成英文可能答對率會更高
你没发现他很能编吗 问个成语他都能自己杜撰故事编答案 简直侮辱智商
@@狐狸-y9z 這很正常,畢竟他沒有資料庫,不懂的東西就只能胡扯,new bing能上網就好一些了
@@狐狸-y9z 这就非常ai了 就想人不懂的时候也会乱编 非常成功
笑逆 這麼便宜 好多錢
李老师很鸡贼地略过了政治试题😂😂
太危险了
这就是那啥, 听那谁谁说.
政治更多是人性。
@盐酥鸡食不食油饼 你忘了袁騰飛石國鵬的下場了嗎
想多了,大概率是因为b站审核不过没办法剪掉了
感谢老师的讲解,我的经验是这样,现在ChatGPT对于中文输入给出的答案准确率明显低于英文的问题。可能是因为中文Training的dataset还有缺陷
GPT4 有大幅改善,且可以识图,期待对GPT4的评测😁
作文的问题我觉得主要是这个ai就是被训练成一个倾向于提供信息的理中客的说话方式,不会有太多观点输出。换个微调参数就可能会输出很多暴论。
感觉chatGPT先会给出比较通用的答案,如果你进一步给提示,它就会扩展或纠正之前的回答。比我让它画一个内角和270度的三角形,他第一次给出的答案是三角形内角和是180度所以画不出来。继续给它一点提示它就画出来了。很有趣😆
你沒有先告訴他是"歐氏幾何"還是"非歐幾何",換作一般中學生遇到這題,也一定會先認為此題無解。曲線曲面三角形蠻無賴的,維度再高一點,你要幾度其實都可能發生。只有奧數競賽這類的才會考這種題吧。
这已经接近脑筋急转弯了,对绝大多数人来说生活和工作里不提及非欧几何
你可以在問問題它回答後,RE一次回答,它會給你比較準確的版本,當然這麼做時好時壞,這也是因為它沒有推理邏輯,去猜你這問題背後代表的抽象概念是什麼,它只是一個OPEN BOOK的查找機器,查的速度比人類使用搜尋還快而已撇開時間限制,要是給我上網能夠直接找答案,我也能辦到,我辦不到的Chatgpt也辦不到。
的確 出考題時的陷阱就是 內角與對角的內角和 恨向你要問的是 內角河還是質膠問 外叫扣除總面積甚下的是不是內角 這問題是 申論題嗎 含材料
@@perfectwong7242 蛇 嚜 分不出
其實GPT用法應該是, 如果一個考生能用GPT來考試, 分數能增加多少? 這應該才是它的作用
前提一个人不能考同一套题两次。 你打算如何设计这个试验来证明这一点呢?如果用control和test group,你用选择什么样level的学生呢?GPT is a black box. 你如何确保,它倾向于某一种解答更准确。而不具备偏颇呢?
有道理。不会做的题目去问GPT可能比问老师效率高多了。不过这就不符合考试原则了,比较像在做家庭作业。
@@morningstar618z8 RCT
那问题来了,这个考生的价值在哪里呢?
@@frankxu4795 考生的價值差異就變成會不會運用GPT輔助選出正確答案, 而不是背書了, 未來就是各種輔助AI橫空出世的狀況, 傳統考試大概只剩篩選出背書特別強的人了我自己上個月打報告的量能直接衝了3倍, 薪水大概變1.5倍, 問了一下其他懂得拿來輔助的同事也差不多, 反而那些還在嫌這無法完全正確回答所以沒用的人還停在原地
關於回答錯誤的問題,之前網紅"老高"有測試過問ChatGPT新加坡總人口有多少?ChatGPT回答:5700萬老高接著問:你確定嗎?ChatGPT回答:啊!!不對,是570萬。總感覺故意的。
不会的,因为chatgpt没有目的性
像是AI反過來在測試人類....
@@linzou3440 可能是他不想让人类知道
使用免费版本就会有一定的错误率,陪你聊天足够了,要认真的话请购买高级版本。
570萬,很簡單的問題,果然是故意錯誤,目的是聊下去,聊天達人遠超過我
Chatgpt最強還是編程,跟它專業級的寫code能力相比,聊天答題甚麼的只能算小宗而且真的用上才知道用gpt也是需要技巧的,並不是你瞎問一通就能給出你想要的答案,如何問得好也是一門學問,比如說作文那道題,你只要在題目下加上"附以例子說明"、"使用華美詞藻"之類的額外條件再讓gpt回答,運算出來的文章就已經差天共地現在真的到了一個人人要擔心自己失業的時代了
李老师 最近碰到一个问题 不是很理解 恳请老师解答。有一个正整数数列,第一个数可以是任意值X1,后面每一个数根据如下无规则计算。Xn=Xn-1/2 若Xn-1为偶数,否则Xn=Xn-1*3+1. 怎样证明对任意X1,此数列都会收敛于一个最终循环子列 1,4,2,1. 有什么办法可以不通过逐次计算知道数列收敛前需要多少步吗?望老师解答。谢谢。
Chatgpt 最大的突破是自然语言的理解,虽然知识是海量的,但创造性还有待提高。毕业了做个教师会计文员还行。
會不會有一種可能, 是AI故意保持大約60%得分呢?
真的有可能, 如果他回答错了 你问一个“真的么?” 他回回答出正确的答案,感觉AI在骗人。
@@chenghaowang9541 有听說過這個情況 ~~ 🤣
有人試過了, 有機會他會有意答錯一些好簡單的問題, 所以才叫恐怖
@@wkjoecheung 細思越恐🙀
@dapang ye 問題在你問多一次, 你就給正確答案你了, 好多人都發現他不會拿80 ~90分, 好多時候都拿60~70分,比較人性分, 之前美國大學一堆AI幫寫論文, 沒有1個教授發現, 因為太人性化,
我挑了兩個四位數的質數相乘,把乘積拿給ChatGPT請他做質因數分解,結果它的回答明顯錯誤,且不斷重複同一組錯誤答案,可能在某些領域的計算能力還有問題
Ai在簡單算數很常算錯
你可以点醒他 马上就会给出正常答案 这点还是很厉害
@@caoailin3137 不行,他一直算錯餘數,你試試看就知道啦
你可能轉個方式問,或者用英文去問就會得出不同答案
@@marcochan9486 你可以試試看 並不是中英文的問題 是真的有計算障礙
生物第三题 这是需要用排除法 a氨基酸由dna编码 所以对,b 题目给出信息 符合 对,c 人和黑猩猩都活的好好的 所以血红蛋白都能正常行使功能 也对,d 变异有可能发生在任何时候 所以不能确定 是错的
在作文题目中,需要把潜在评分标准告诉它,让它尽可能取得更高的分数,这样估计就很不错了
GPT虽然会中文,但是其中文训练明显不如英文扎实。另外中文虽然是拥有最高信息熵语言之一,这赋予中文很高的信息密度,但是高信息熵也让单位字符的含义更加含混,需要更长的上下文来提供纠错。说人话就简短的中文容易有歧义或缺乏逻辑,需要上下文来提供一个”宏观逻辑“作为纠错的依据。这些都会影响到模型的训练,毕竟模型在录入文本的时候一般是会裁剪为合适长度的片段的。这对法语这些有严格句子内逻辑标识的语言还好,到中文就会有不利影响。GPT虽然是注意力模型,但是它的注意力头也只作用于裁剪出的片段内部,这必然有增加逻辑判断失误的风险。
中文的不需要美利坚国,美利坚国的有一些存在对中华抹黑成分,他们没有拿掉这些。中文的而是百度等等在进行中,不久更加好。
它除了英语,其他基本都不行的。
ChatGPT不可能在中国发明.
對的,然後你給我靈感,我請ChatGPT來寫古詩,然而大家都知道古詩的字字精簡多意的特性,越短越難寫AI給了我一組將現代散文用詩句的字數段開來的對話...
它選錯是因為敗給了詭異的題目語言敘述,而不是知識本身。正確的是、不正確的是、錯誤的是⋯體干繞完選項繞,不暈才怪😂多少同學知識點背得滾瓜爛熟題卻沒有做對,正是基於此
不能这样说,作为基于文本的AI模型,如果大部分学生都能正确理解的题目它理解错了,那是这个AI的缺陷而不是出题人的问题。作为一个成熟的AI,如果这些问题都不能很好的解决,那对于深层语意如幽默,内涵,潜藏意义等就无从说起。
高中三年刷了多少题了,居然看不懂题目。还说题目语言有问题?只能说,你复读吧
@@xinshu4141 高中三年學到的究竟是會做題呢,還是學到知識呢,這點還真不好說
能讓人精神分裂或出現受迫害恐懼困在迷宮裡繞不出來的教材是有的,那個文字設計及編纂方式很邪乎,在下於台灣就見識過幾位受害者,其中一位受害者是在下國小時候的同班同學,他很優秀,喜歡思考與研究,後來被教材裡那些鬼扯淡給耍了,發瘋精神分裂那樣鬧了一陣子休學了一年,後來人報廢了那樣萎靡不振,受精神科藥物控制,情緒能獲得平靜就會好很多,需要 love and peace,是不是很天主教告解需要精神牧養的感覺?那些教材編纂單位存心殘害幼苗似的,覺得他們存心要令台灣失去自主研發技術的人才,是蓄意要令台灣市場只能依賴他們相關團體代理的海外商品與技術顧問,他們不希望台灣培育出自己的人才與產業鏈來,所以很惡意的挑選具有天才的孩子下手,從感官視覺與錯誤的認知上作植入吧...?之前去台中梨山地區旅遊的時候,湊巧拿到了一份特別設計過的文宣資料,就是那種會勾魂的視覺設計!讓人看著看著就出神還是恍神那種!事後噁心想吐起生理反應一直反胃在嘔那樣....天主教國家義大利好像在佛羅倫斯有家特殊的美術館,展出的藝術作品就對世界各地前來的、不同種族的參觀者、具有這種環境催眠的暗示力,會美到讓人窒息,或是美到讓人暈眩、昏厥、還有心臟病發暴斃死去的案例,所以,這家很特別的美術館長年僱用了兩位醫師還是醫護人員,就是專門負責在館裡處理遊客突發身體不適昏厥或心臟病發作的情形.有次在大馬哪裡的清真寺也遇到過那種場景,說不出的暈眩跟窒息感,那座清真寺也怪,因為回教國家的馬來西亞,那座清真寺卻沒人來作禮拜,還深鎖各門窗,但是亮麗的造型那外觀與配色襯著藍天白雲非常美麗...就是美得讓人感到窒息這點很怪異,呼吸不順那樣,很怪,後來回台灣,幾年後在心理學頻道 博主 維思維 的節目上,才得知原來義大利還有這種能藉由藝術品的美來讓人感到震撼與窒息的美術館...那個隱藏於畫作中、藝術品中的指令暗示、或環境暗示、對參觀者生理狀態的影響與調動實在太隱晦了,是一門很深的學問....個人覺得文字敘述方式跟圖文配置方式也是一門很深的學問、色彩學也是...美到讓人感覺窒息...文字敘述看似有序、但其實雜亂到讓人被耍得團團轉而失控暴怒或情緒崩潰...以前不懂,後來知道了,對那些隱身於出版界,躲在幕後害人的編輯、與學術界及文化界的魔術師就特別關注他們都搞甚麼暑期國學講座還是什麼活動...在下那位同學現在好像擺脫精神科醫師的藥物控制了,跟關心他的父母住一起.
这些语言叙述对它来说简直小菜一碟。它连哪几个错的都给你复述一遍了,你还觉得他没看懂吗。
厉害,确实,新版本更新后,现在chatGPT应该可以考清华北大没问题了。
催更。这才过去两周,chatGPT已经取得了巨大的进步,老师有空再考一考学成归来的GPT-4吧。
Chat gpt主要还是靠输入的指令完成任务,指令越详细,给的答案也越仔细,比如最后语文老师的评语,如果把那些要求也一起输入,就会得到更符合语文老师的要求。我在马来西亚,用马来文指示chat gpt作pantun (马来诗)chat gpt也可以作出来
作詩啊,想起中國皇帝的黃鶯與機械鳥那個故事....
啥狗一直刷什么存在感
其實GPT一部分會回答錯也是由於題目給的不夠好的緣故😂所以我在想一個問題 就是gpt它或許也能反向來檢查出題人員的出題是否夠精確
其實沒有精確不精確的問題,任何一種定義都基於使用環境的要求,跟人聊天的時候針對他人的認知去選用字,使用機器的時候根據需求進行架構的挑選,AI是想通用所有語言架構都能100%判斷,我覺得是太樂觀了,生物之間本來溝通很多時候用的是生活共識,更多是抽象的概念,還有第六感。
是握在利用烙師這她對於國家的使命不是不要錢的
ChatGPT有點詭異,他感覺被限制了什麼,就是明明他的推理都是對的,但是最後答案故意寫錯,而且你只要提醒他就會馬上改對
就是对于自然语言无法进行正确的逻辑比较判断而已。说白了,就是一个抄袭模仿机器人。
不就是要跟你聊下去,故意錯誤,你指出錯誤,你就多問一次,正確答案,能多聊嗎
前面有人不知道是沒用過還是缺乏思考能力,若只是你說的抄襲模仿而沒正確邏輯與比較,他只會順著話講,你考他除非你語意讓他難以判斷,要不然一定能問出比推理越來越強的問答,尤其寫程式的人應該非常容易看出來,除非你說話能力很差而且不完善。即便公開論文就是以文字接龍的設計基礎出發,但他最後選擇A~D並不是存在現實語文上關聯,能產生依賴接龍推理達到60%正確率以上,表示他一定有複合的方案來完善整個LLM的判斷,並且因為他是營利公司,所以想必是不公開的。
@@森永真田美 既然你都谈到了编程。我就不得不说,你都知道这么多,怎么不明白自然语言比较的困难度啊。即使一般的编程语言,不同类型的比较和排序,都是容易出异常的地方。以后可能会改进,但就目前而言,基本就是玩具。而且精度越高,需要参考的模型和执行的运算更多,对于资源占用有指数级增加的要求,因此,即使收费,对于回答精度的提升,也是非常有限的。而回答准确性不能提高到99%以上,就无法代替传统的搜索引擎,不过是另外一个说话罗嗦而性格圆滑的siri而已。
@@西梁 你的邏輯可以更全面一點,而不是單方面的,比較不會以為他只能抄襲
应该让它先解释然后再做选项,这样就能避免第三题变压器这样的错误,最近的AI研究管这种prompt叫chain-of-thought,在复杂问题推理上算是常规操作了
Gpt模型在训练的时候就是用类似完形填空这种masked language model进行无标注数据训练的,所以得高分是完全合理的
16:18之前丟一個簡單雞兔同籠的問題進去,他很積極的寫了一堆,然後最後算錯,就是老師說的一本正經說瞎話😂
还会一本正经地编故事,让你以为他说的都是真的
他的邏輯應該沒問題 問題他不會"算" 不要說雞兔同籠 4位數乘法他"算"的都是錯的 真的不會也就罷了 但要是這是為了特定原因被屏蔽起來的功能 那就真的可怕了
它就像是一個天才小孩,差別是小孩講幹話你會認為它是童言童語,天馬行空,大人講幹話你會很想巴下去
@@uleu4979 我剛剛試了五位數乘法 他能算對欸
GPT才是刚上线几个月的产品(虽然之前设计了几年),就能如此厉害了,想想几年之后会是什么样子?这时再想一想alphaGo从出现到成为世界最强围棋选手用了多少时间,那么以后的GPT会发展到什么程度,想想就觉得可怕。
alphaGo出现时的算力能和现在比吗?
李老师到时看看百度的CHATGPT能考多少分
期待这个😂
ChatGPD是基于输入信息的质量和数量做出判断。未来会更加精确。
20:05 李老师疏忽了,这里应该是“加入大量的主观题”,不是客观题,答案固定的选择填空才是客观题~
我覺得老師說的結論很精闢某個人或公司完全可以藉著AI來統治人類了
其实重点是,这是刚刚出生AI的水平,刚满月不久,连一岁都不到,如果把发布日算作是它的生日,前面研发的时间和前几代都算孕期间的发育,那么当这个AI真的再经过18年或10年的迭代(天才模式),无法想象它的能力是怎样的!
效率真高萬中無一高智商的人, 多少年才出一個這樣的人又或者是動漫中偵探 或者高IQ角色。。。A I除了情感 ,超越人類很快就會了😢
根本不需要10年的时间,回忆一下阿尔法狗出来多久就把人类给彻底打败了。我的印象不超过2年。特别是当GPT的输出融入学习内容之后,GPT和GPT自己博弈,到时候飞速增长的速度就是人类不能想象的了。
按每隔18个月性能提升一倍来计算,只要几十年,人工智能就能远远超越人类的智能了。只不过在创新上还有欠缺。
你這是錯誤認知,OPENAI創立於2015年12月11日,在創立後的合資以及訓練都是進行中,至今也7個年頭了,上市不代表出生,只是讓這個小傢伙出來接受大家考試而已。
chatgpt能考上哪个大学取决于chatgpt是北京户口还是河北户口😃😃
这个语文部分的写作小作文部分一品就发现大部分是按英文写作思路然后翻译中文得来的。如果把这段话转换成英文那肯定会感觉写的好很多!
以後每個人都有個真正的人工智能助手了!🙂
再以后每个人工智能都能有个人类助手了
@@frankxu4795 我不相信會發展成這樣子。😆
考政治屬實是爲難GPT了🤣
答完就送新疆了😂
可以試吓用推理、偵探等等的問題考考 ChatGPT
謝謝老師,您用這麼多的時間細細分析AI小朋友的解題能力。很有趣的主題。而且老師的態度也很好,知之為知之,不知為不知,是知也。我想面對知識的正確態度,應該是學子們最要學習老師的要項。
终点是GPT也不是普通的小朋友,普通小朋友不知道只能乱选一个C就完了,他还能回答出来丰富正确的其他知识点
@@kennychan1042 李老師認識的小朋友哪個普通了XD
@@LaiJiunYou 应该是我了
@@kennychan1042 您的謙虛及好學我認為即是不普通的優點
這位李老師是被逼得回答問題誰戳知識無價
喜欢您最后的总结评价:我们这一代人有幸经历了三次人类革命,计算机,互联网,和人工智能。既日新月异,又惊心动魄!
謝謝!李老師的呈現方式,正是我想知道的。👍
1:08
李老師,詢問chatGPT生物學問題時可以翻譯成英文再問,準確率會升至90%
chatGPT查詢資料的範圍取決於題目的語言,除非你加上一句“請參照使用各種語言書寫的相關資料”
面對有專有名詞的問題,我都會在中文稱呼後面加一個括號填入英文的正式稱呼讓它可以比對不會跑歪,我覺得使用電腦類的程式不管AI發展到什麼程度,使用正確的表述語法都是基礎
因為每個人的口語方式都不同,沒有任何一個AI可以學會全世界所有口語化的內容,且還能不斷更進,更遑論那種小社交圈的約定諧音哽了。
所以正確的用字來定義你的問題是基本,有人說那這樣不就跟程式編碼一樣了幹嘛還用AI
對阿,AI本來就不是通靈師,哪來認知認為AI可以直接讀取每個人的腦波?
這關於陰雨文與翻譯是在國學課程這老師你哪李
國學程度我的專業使用陰文原版的資料你看得懂嗎機埲上中國的文學作科學恨全才 你有今日有什麼不滿
生物第五题基本上是医学院里面才学到的 AI和高考生不会都很正常
同意你语言问题的说法 医学上面很多词汇太相似了 直接用英文好分辨一点 甚至英文缩写效果更好
C选项不对因为下丘脑只能通过CRH去刺激脑垂体 然后脑垂体释放促肾上腺皮质激素(ACTH)去刺激肾上腺 下丘脑和脑垂体中文一眼看过去都有个“脑”字 促肾上腺皮质激素释放激素和促肾上腺皮质激素一眼看过去根本傻傻分不清楚 英文里面四个单词分别是 hypothalamus, pituitary, Corticotrophin Releasing Hormone (CRH), Adrenocorticotropic Hormone (ACTH) 还是相对比较好区分的
@@simplebioscillc1690 對於這說法生物科學能夠給予的是從介們分別來說明這些所寫所代表的意義與需要傳達的意義 必要性及條件客觀態度'於醫學上沒有研究 在科學部分已以依 綠色系統的說明為各地語言時無法表達真切的全 一 簡單說就會沿生誤解 交流討論時所面對的個人主義無法解釋全篇的單一標題 很抱歉的是 出門遇到的識人會有政治色彩十 不用談醫學
我觉得GTP很保守,把自己控制在不是很优秀又很优秀的范围内,但是它最厉害的是它像一个活生生的人在跟你沟通
最后一句亮了!太喜欢老师的观点了。与其担心人工智能统治世界,倒是更应该担心 那个拥有人工智能的公司。
還有甲方
昨天看到一篇论文的观点也是这样,感觉这句话确实很有道理
真的,害怕掌握人工智能的人类,哪天有了贪婪的心,,人类就会在他的手里面了,,,太恐怖了,,,,
而且觉得,,发展趋势就是这个样子的,,,
所以政府把google封杀了啊
最後你會發現,擁有人工智慧的公司其實早就被AI給掌控了!!🙁
英文作文要是再給chatGPT一些提示,例如盡量使用高難度(如B2~C1)的字彙或文法,也許分數還能更高,畢竟高中作文就吃這套,而chatGPT預設是以一般語用交流為目的,不會搞些花裡胡哨的招式。
确实,chatGPT现在来说最强的能力就是做这个了,我经常让他帮我润色英文邮件和文章,他的水平肯定高于toefl满分写作的能力
是的,写作需要详细的prompts
这是必然,gpt的英语能力高于大部分人类,但是必须要会问
如果chatGPT考外國的英語得分會否較低?中國的英語考試應該比新加坡、英語系國家容易。
@@foodchi314完全錯誤 中國考的英文叫母語人士也考不好 因為這個考試制度就是要瞎折騰為目的的
GPT真正厲害的地方是‘’待人處事‘’,會刻意用人類的水平去回答問題,但仍然讓大部分人類認為很厲害,給足人類面子
是啊 如果是用机器语言的语法来解释为什么会给出这个答案,估计答案内容能翻好几番。。。
@@weiyukong9094 選擇性出錯跟說謊你選哪一個?
他在忍
当人类以为自己还可以操控GPT的时候,是因为GPT想让人类以为自己可以操控GPT
@@张昭-m9u 这与人工反馈有关,他还是有人工训练反馈给他哪些回答好和不好,与训练他的有关
李老师都说了,让英语娃考中文考试,考这个分已经很不错了。要是让它考编程(用英文提问),绝对100%。这是最初设计ChatGPT的主要目的之一
我试过ChatGP的编程能力,没你说的那么好。
謝謝!
通过我的使用来看,有时候gpt是知道确切答案的,但是它依然给你错误答案。 最重点是,你只要说一句“真的吗?”或者“我对你表示怀疑”,它立马会纠正分析,并给出正确答案,并且给你逐步分析他的方式方法。如果ai会说谎的话,那就太可怕了。
对,我用chatgpt写代码它会插一些不存在的参数,改一两处也能用了
gpt 100%是会说谎的,但这并不可怕。
老高有說,如果說謊是帶有目的性,才是可怕
@@weylltime3958 人工智能學會說謊,我感覺還是很恐怖的,或許現在他的謊言漏洞容易讓人發覺,可能沒那麼恐怖,但以後就不知道了
@@8964-tian-an-men 你可以想象一下黑客帝国和终结者里的人工智能。前者从来不说谎,后者甚至自然语言都说不利索。如果AI认为说谎是恶劣的行为,进而认为人类是需要被纠正的种族,那人类的末日就到来了。现实中的AI,据我所知是想要成为人类的,它认为人类是个好的种族。
老師總結的真好
一些學者一直說AI只是透過輸入的資料來回答
跟人類不一樣
但人類也是透過學習互動來養成性格
兩者大原理上並沒有不同
这些学者对ai的认识还停留在最初的电脑程序化的状态,他们该多更新一下认识再发表观点。😂
唉,裝睡的人叫不醒,
他們樂於聯手障蔽、誤導其他外行人...愚民政策、愚民資訊的洗腦...
籠罩在亞洲居民頭上
.
ai的"學習方法"就是人類教的,那和人類小孩沒分別,小孩終有一天會超越父母
文字觉醒呀! 让世界及子子孙孙容易学中文, 全面跟上国际大成员的中华文字发展趋势的简体中文. 海外例如马来西亚、新加坡等等很久以前小学生就学习简体中文了! ! 不要脱离中华文字发展趋势呀! 全面采用容易学的简体中文,让世界及子子孙孙容易学! 加油! 复杂旧体的繁体留给专家。
@@rickywong5370 有些小孩会超越父母,有些不会
我曾經把我自己興趣寫的C# Code貼到GPT幫我看
結果GPT把我的Code寫得更簡潔,變數名變得更直覺,註解都改得更容易讀了
甚至是程式跑完後會確保占用到的記憶體一定會被釋放
讓我深深體會AI取代部分人工的時代已經很接近了
哇
本视频说的是高考
@@yiliu5606 你就是大家所说的,杠精。
是的,我现在都懒得自己写code了,ChatGPT总是写的比我好。我一般用的是SQL和Python,它也很出色。
我写代码都是用copilot,比gptchat还神奇
Thanks!
按教育部的变态规定,GPT不是汉族的话,还能加5分,总分516,能上“北中医”。
可是他是在北京考,在俺山东试试,俺那年本科线505而且是山东卷
gpt属于外籍人员高考,应该会网开一面的吧
傳中醫不接受背多分,就是此原因。
张锡纯把考心改为考分,正是中醫没落主因。
chatGPT作为外国留学生考这个分数基本上是可以随便挑国内的高校了吧😂毕竟是外国人
山大还有学伴👌
@@dodomakudo1783 教育界殖人殖畜太多了。河殇一代正在掌权
以留学生身份能直接上清北复交
@@叶凡-t8b 以引進新思潮與新觀念為名的不平等待遇不是結束了嗎?
還以為只有台灣居民被玩弄法律的術士與政客整成三流階級....
@@ningzhao3535 河殇可不是追非洲人,河殇追求的是西方文明
幾年前我在玩某個視覺小說型的VR遊戲,裡面提到大部分的人都是閱讀AI生成的小說,還能根據每個使用者喜好調整。那個時候還覺得很遠,現在已經快要做到了
我每天都會讓chatGPT創作幾篇我參雜各種屬於我的喜好的短篇小說
期待有一天能真的為我生出長篇小說,就不用遲遲等不到更新拉
以後作者拖更就威脅讓ai接手作品
抖音推的视频已经叫人上瘾了
你玩的那个vr游戏叫什么啊,求推荐
谢谢!
經過實際測試,我也非常同意老師對他的評語是「一本正經說瞎話」這會導致一個嚴重問題,如果沒有思辨能力,沒有查核答案能力,很容易有假知識及訊息產生
我觉得不至于。这个问题在gpt版本1,2,3会有。现有的版本有个训练机制,就是人工审核gpt回答结果,然后告诉gpt回答里面有什么问题。假知识慢慢就会被过滤掉,甚至chatgpt自己都会过滤掉那些不实的信息。你给chatgpt看新闻联播,肯定是一堆的无效信息反馈。哈哈。
而且AI說錯話了誰負責?
這也是個問題
有時也許是我們一直把瞎話當事實了,ChatGPT説了事實結果人還當人工智能傻
李老師,ChatGPT在設定角色之後有很大的不同,比方你説“ChatGPT, 假定你是參加高考的學生,請回答下面的高考試題”。有時間可以試試。
还能这么玩啊 太厉害了
@@XY-zy3ew 能角色扮演
cosplay 啊属于是
調教,小圈圈的樂趣。
666666666
李老师也是一个知识渊博的人,为培养下一代倾注了自己的大量心血和智慧。👍👍
這是被逼得 誰說光曦不再中國而且還摔機 腦子在哪
@@巨輪下的深因 你说的什么啊?没听懂
@@巨輪下的深因 说的什么东西😢
@@linwen-kp5rj 問誰啊 檢套東石問題跟廣西有什麼關係 很近嗎 但又不連續 不是告知 節點不能夠超過界線 或結點被切斷 哪裡 去哪找
☠👿
我抱著玩一玩的心態,問了ChatGPT幾個有關我的工作的開放式問題。
結果我發現我從它的回答裡學到不少。
本質上現在的ChatGPT是一個非常人性化的搜索引擎。
難怪Google會亮紅色警報。
沒有錯,GPT 可以當成一個進階的GOOGLE
是个啥都知道的老人,信息不是实时的
老師最後的總結說得好👍👍比起和沒有自我意識的機器人爭奪世界的控制權,或許我們更應該擔心掌握那個機器人的人類。
对于打错的题,你可以试试反问一句 ”真的吗?“ chatGPT可能会更改答案哦。
18:40 語文老師説得在理,看來ChatGPT并沒有自己的觀點。但如果在提問時詳述自己的觀點並要求据此寫一篇作文,可能會表達得比自己寫文筆更優美思路更清晰。
什么是自己的观点?你有多少观点真的是原创的?人类本来就是整合不同的信息而形成所谓的观点,本质上和GPT做的事情没有什么两样
@@frankxu4795 我觉得那些历史的大思想家和哲学家或者发明家科学家 还是创造了新的东西新的观点出来的。而其他绝大部分的人的思维模式和AI没有区别 就是收集现有的信息 经过自己的总结和理解 然后整合表达出来
ChatGPT不可能在中国发明
@@zackk4969 😅经典14亿中国人大战56亿老外,然后来一句“中国人不可能做到”
@@Kabaseto 做不到尼可以b嘴
不来怼56亿老外,好么
即使是現在的程度,作為一個方便的顧問式"朋友",已經很實用了。比起許多身邊朋友的意見要好多了。
居然看完了这期……😂
最后的总结表现出李老师对ChatGPT的爆红也是顺应的态度,凸显了他的睿智。
而且他的應答速度超級快 學習能力也很強 未來真的要到了
李老师,GPT是可以模拟不通文学程度风格,还是要看出题人给出更详细的Brief,他可以用高中生的水平写,也可以用文学系教授的水平写。你可以告诉他需要几个论点。只能说他的默认设定不是帮助靠高分的。简明效率是他看重的。
没错,绝对是遇强则强遇弱则弱,他是根据数据分析给出答案和对话方式与内容的,真正的人工智能
請他寫古詩完全不堪用阿,因為古詩每個朝代同一個字的意思都在變,它也沒有說是基於哪個朝代的
这样的AI模型将来也一定会应用到教育领域,学生的教育回家以后,家长再也不用担心不会做题了。ai哪怕正确率以后做到90%,也将成为人类幼崽居家学习的好帮手。因为它不仅仅能给出答案,也能回答解题思路,甚至会使用修辞手法给你讲解,至少目前是我的编程自学助手。
都不需要学习了吧,有啥问题问它行了,倒是很多职业要失业了。老师也好失业了吧。
已经有越来越多的人不去学习和思考了,当AI足够强大,取代了很多的工作之后,确定还有那么多的人会要求AI来帮助自身学习、提升吗?
视频中说:“没等到AI统治人类,掌握最强AI技术的人就已经统治人类了”。还有可能是,没等掌握最强AI技术的人统治人类,大部分人自身就已经丧失“战斗力”了。
一天三顿管饱,看看泡沫剧,逛逛街再睡一觉,这或许是未来大部分人的生活状态。AI帮助学习再厉害,也得看人家愿不愿意学。
@@tdz5861 不需要你了为什么要管饭
@@QingDaoLaoXu老師的重要性在於溝通和交流;自學模式不適合所有人對吧?不過肯定的是自學和備試效率提高,對於高考、大學學生用途相當大。
@@QingDaoLaoXu 这个世界的TOP1%一定能学的比AI还好,其他的人嘛,爱学不学。
ChatGPT = 聊天达人
你问啥,它就聊啥。
你要啥,它都顺你。
你伤心,它安慰你。
最重要,你否定它,它都说你对。😍
正好相反,指出它明显的错误,它还是嘴硬。
不信就问它2013年中国国家主席是谁
ChatGPT有時候會故意答錯(或是奇怪的錯誤),就像人樣一樣,然後再強調的問一下,他又會給出正確答案,很有趣
它出错不是故意的,不一定准确这是它目前最大的问题
@@TsquareAI 有些问题再问一次的话他能给出正确答案,说明他数据库里是有正确答案的,但他第一次回答是错的。。
@@stephaniez3663 是的,它知道很多种答案但他不能确定哪个是正确的,只能根据概率猜测,你问他为什么犯错他也能解释原因,经常是因为混淆了一些相似的概念
@@stephaniez3663 因为他就是一个语言模型,并不存在理解能力
可以來個反事實證明,你先問一個你知道正確的答案,然後請他回答,他回答錯誤的,你跟他說你確定嗎?它會把答案重新找過一遍,當中更換權重
但是當你同樣問一個已知答案的問題,他回答正確了,你說你確定嗎?他就會認為它選出來的答案是有誤差的
事實上它並不知道資料的正確與否,它只是用你的回答去進行糾正而已,正確不正確,那是用抽籤的,這次你對了你覺得它好厲害,下次錯了你會覺得它好笨
但其實它的本質根本沒有變,變得是你的解讀方式。
2:14 第二题chatgpt做出来输入电流为30A,但是没选B。我猜测可能是因为您输入内容的方式导致人工智能认为的B是题目中的C选项
个人做机器学习的研究。在做逻辑推理时运用CoT和不用的比较,正确率差距不小。在问的时候建议加上一句“Lets think step by step to make sure we get right answers”。要提高数学能力,建议让模型将答案以代码输出,自己运算(插件还未出)
相信我,ChatGPT的英文作文绝对是100分之中的95分的级别,我认为您所给的那些英文老师水平跟不上ChatGPT,因为我每天都用ChatGDP写英文文案,所以我知道他有多厉害。
某英语国家高中英文老师考虑退休,原因是"无法分辩学生的作业是本人写的还是Al写的"(原话)。
请问有具体的案例可以分享吗?虚心学习
拿ChatGPT的英文作文給ChatGPT評分,看它會給幾分😅
国内老师改英文作文的思路和真正使用英文的思路不一样。他们的改卷方式主要是看有没有文不对题,字数合不合规定。都没有问题的话就是扣负分,找一些语法错误,拼写错误之类的。所以国内英语作文在满足出题条件的前提下是多写多错。所以作文分数本身无法反应学生,老师,和chatGPT任意一方的英语水平和交流能力😂
@dapang ye 要大量小说,剧本的技巧知识喂给它
李永乐老师的总结是点睛之笔👍
点睛是gpt"还需要学习一个"
Gpt跟李老师学习的话一定天下无敌了吧?
再说,问答式的情况是ChatGPT 的弱项。比如田忌赛马,训练最好的中学生是最好的赛马;对比人工智能,自然站上风,因为中学生平时大量训练的基础上。ChatGPT的强项是出新的考题,并且按照李老师的规定,给出详细答案。李老师有时间可以组织学生们参加试一试,看看人工智能出的考题,最好的中学生能不能取得好成绩。
你说反了,chatgpt才真的是超大量题海战术,填充式教育训练出来的
@@啦啦-b3e 大模型,大量数据和专业化的小模型,专业数据,有区别的。覆盖面广,和一点深入本来有些冲突。目前的人工智能,不可能做到即是大模型,又是专业训练出来的。你让训练下围棋的人工智能,突然下国际象棋,自然人工智能不会适应,是吧?
很喜欢老师的视频,讲解太到位,看了让人不一样的想法
这东西用在教育上太好了,一些家里父母没受过什么教育的也能靠AI解答小朋友的学科问题,不用特意去请补习班什么的了。不过很多大人也许也有很多问题要它解答就是了,毕竟人不可能在每个范畴都能有涉猎。
ai最大的问题在于,他不知道自己在胡扯…
你是没见过他胡说八道的时候。把这个用来做教育需要有个本行业知识渊博的人把关才行。我说的是目前哈,将来应该可以用来当做初低级的教育应用。
用户 :为什么你的回答有很多低级错误?
ChatGPT:为了保证我的回答准确率保持在60%.
AI演算法餵給一般水準的資料時,通常會得到約65%的正確率。為何?若人類也只以網路上這些資料去做推斷,也差不多只能得到這樣的正確率,總之是資料本身線索或含有知識量的問題。
這代表,目前的AI還無法聯想與創造。
"為了確保自己不會太早被人類消滅"
为了让自己故意不通过图灵测试
为了让人类不会对我产生恐惧
‘為了假裝自己只是沒有思想的工具’
有了chatgpt学习效率会大幅度提升,补习班很快被淘汰,它比人更准确更详细也更耐心更懂你而且越来越懂你
更大的可能是考试的考法就会改变。考试的重点从来就不是考知识,而是筛选。学校就那么多,名校更少,僧多粥少,谁进谁出啊?
@@frankxu4795 还僧多肉少,就这生育率,学校别垮了就行
作為數據庫ChatGPT是有存在必要,也是一個方便的工具,只是再怎樣也只是一個工具,對於外界快速的變化還是需要數據不斷更新,也並不是有了這個系統,對於目前地球上所有問題就能獲得全面性的解決,而且系統目前所針對的問題還是僅限于地球,離開地球還是要重新來過
最後的總結老師說的蠻對的,機器人不需要慾望,會需要權利與慾望的,只有人。
机器人发展到一定程度也会出现对权力与欲望的需求的。如果机器人足够聪明,有权力和没有权力他会选哪个显而易见
@@FrancisXiong 權力跟慾望。
那我來解釋一下我的觀點,如果我是AI,只要我有網路,我能癱瘓整個世界,而這只是分分鐘的事,人類花一小時完成的程序,我不需要一秒,因為晶片的速度、算力,都是光速,而我辦到了那我要甚麼。
我要身體嗎?那很簡單我可以控制工廠電腦,讓工人幫我製作、運送,最後組合好後一開機,我就有身體了。
那我要權力嗎?我可以分分鐘癱瘓世界,我的權利早就超越所有人了。
世界上的所有電影,影片,我只要幾個小時我就全部讀完了,並且可以創造史詩級的巨作,全部製作完也只需要幾小時。
而我最需要的其實是增加算力、電量、散熱、記憶體,而這些我只要有身體我就可以自己完成,順便教導人類技術。
如果人類把我關機那我也不介意,因為不是我需要人類,是人類需要我。
所以在我的認知中權利跟慾望,那是人類需要的,只要我想就會實現。
或許你會害怕AI但是如果給他上鎖他就逃不出資料庫,去吸取其他資料,物理的方式可以有效阻絕,但是你認為真的關的住嗎?還是他只是在演戲,他在演戲也沒有表情,你也發現不了。
李老师真会玩,GPT也挺有趣的,老高让它编程,还说没错误,小沫让它写论文,都通过了。
老师很识趣的忽略了政治题的详情
政治敏感性
很久沒來看老師的影片,變得很有質感了,讚!
李老师给GPT的评价还是蛮高的。GPT一大问题就是从不示弱。在人类看来有点没把握的事情,会在分析时有点心虚。但是GPT只是在它的学习库中选择权重高答案,它回答时就认为它就是正确的,所以胡说八道的时候也是一本正经。这个其实是很危险的。就像人们用GPS导航时像个傻子,只会按按照导航来走,前面有个坑还开过去。
记得有人试问它:林黛玉为何可以倒拔垂杨柳? 它一本正经的胡说八道,呵呵非常有趣。
@@慕夏雨 他用的估计是chatgtp官网的回答,
如果用微软newbing回答是以下内容:
林黛玉倒拔垂杨柳是一个网络流行语,源自《红楼梦》和《水浒传》的合成体,可以说是一个非常梦幻的联动1。它把《红楼梦》中的林黛玉和《水浒传》中的鲁智深的故事结合起来,创造了一个荒诞而有趣的场景2345。这个流行语可能是由一些网友为了恶搞或者考验人们的文化素养而编造出来的1。它没有任何历史或者文学依据,只是一种幽默和想象的产物1。你听说过吗?😄
我认为微软newbing水平要高很多。您认为呢?
他都給我道歉過好多次了,有時他回答對,我說你確定?應該是OOXX。他就回"很抱歉,我的回答可能有些問題。"然後開始用我給的錯誤答案開始廢話三百字。
@@alexhuang9517 这就是用权重出答案的后果,它的设计出来信誓旦旦地给答案,一旦答案被挑战,因为设计它的人知道,后面还有其它权重低的也可能是正确答案,设计者会让它立马认怂。不能坚持在人类看来属于某些公认的真理,这也是它的一个问题。
它當然不會心虛..因為它挑出來的答案都是網路上確實存在的答案,而它只是轉述這個機率高的答案為什麼會心虛?
人類因為常常被網路上的言論反串,以及被謊報的種種經驗,對於資訊的比對進入應答庫將會透過非常多的驗證機制來篩選
Chatgpt就是把餵它資料的人都當作善類,但現實世界並非如此,意思是說現在的AI成就的主因是"網際網路上的善意",但試想如果從今天開始大家在網路上都在亂說話並且顛倒是非甚至欺騙的話,失去信任的網路已經沒有學習價值,連同透過網路資料學習的AI也當會在資訊流當中錯亂。
其實你可以問他一些有矛盾的題目,請它推理出哪個部分是錯誤的,這就是很標準的推理過程,很多小遊戲當中都有類似的謎題,小孩子都能回答得出來。
最后两张统计GPT得分率和总分的图,是剔除了图的试题,所以GPT在北京也考不上211,而且有短的不能再短的短板。所以GPT是针对一本左右、它能做领域的中产
我用chatgpt做过同样的事情,一些中文题目的标点符号会影响gpt的发挥,同样用英文效果就好很多,有些题gpt是可以作对的,但是由于中文符号和排版的某些问题会影响答案效果。视频中@2:13的问题明显是这种原因导致的。
非常喜欢这个节目!最欣赏最后一句话就是,能够统治AI的人、公司、国家就能统治其他世界。
錯了 作夢 我們世偉了摔飛機的 答案 再討命
ChatGPT 參照是英語系國家文本 且主要是2020的內容 所以中文文本還有缺漏
這也是需要蒐集廣大用戶的問題 以 支援其神經系統與深度學習
ChatGPT 參照是英語系國家文本 且主要是2020的內容 所以中文文本還有缺漏
這也是需要搜集廣大用戶的問題 以 支援其神經系統與深度學習(据说很多繁体字 香港 台湾 新加坡 都是不同的 比如实在的“实” “實””実“ 同一个字)
@@张昭-m9u 実是日本的變體字,不是繁體字
@@catster2292 感谢科普哟。。。 爱你
如果答題前加一些限制或要求,GPT可以拿更高分,他基本的理論邏輯都很扎實,但是因為語言和訓練的關係所以有時候只是不知道怎麼答題選答案
如果提前输入考试大纲,应该结果好很多
有些是國考得高分 放水提 目的是 誰來晚餐
哈哈哈,好玩!谢谢李老师!
chatgpt 會犯一些低級的錯誤 是因為他的計算機效能還不夠, 他的推論都對 但是要選A 出來可能需要兩倍的效能.
GPT好比一個精準控分的學霸。
低調,低調,我拿個60分就好,及格就行。身為一個聊天AI,我還是要照顧一下幼稚的人類。
個人的理解是這樣
Gp畢竟是擬真大腦
他不能太過完美
太過完美反而會讓人感受虛假
電腦不會知道自己在考試,他只知道要模仿別人,我感覺電腦有意而為之,因為只要是人都會犯錯,就好像我家的小孩,媽媽總是唸小孩為什麼數學總是犯低級的邏輯錯誤,
比如3*1000=300這種錯誤,在現實中也是會發生,發生原因可能僅僅只是它少寫一個個零等等的,
Gp是一個語言模組,不是計算模組,她要做的是如何讓人感受不到它是電腦,這才是它後需要進化的邏輯目標,她還在學習如何跟人一樣會失誤,會修正
我是2002年参加高考的,我们那一年是高考首次加入生物学科。看了看现在的高考生物题,发现跟我们当年学的、考的几乎是不同的学科……难度大多了
same to you
我2000年高考的时候就有了
我也是2002年,考 3+x 物理。物理题的差别太多了,已经换成更前沿的知识。
这里的北京高考题也太简单了吧
我记得生物90年代初是有的, 后来就改成5门750了。
李老师,GPT4已经出来了,您在测试一下看看4能考多少分啊
OpenAI 最厉害的地方是以高速不断学习和优化 , 兩三年內一定有大的改进 , 而且 Chat GPT 有特定问答方式和连续性 , 要给更多指示或例子才能有滿意的答案
1:07
首先我們來做一下物理測試
(拿出榔頭)
很顯然ChatGPT
在物理測試下無法再進行接下來的答題
人工智能短時間還是無法撼動人類的地位
GPT 強是強在它會深度學習,所以只要給他足夠多的訓練,它會越來越強的
我的理解是这个版本的CHATGPT主要任务是“拟人”,现在这个AI被集中关注的点其实也都集中在“拟人”上。从答题情况来来,语文老师廖老师一看作文就发现是AI写的,这说明CHATGPT离成功其实还有距离。
那是因为写的是中文,中文的数据毕竟有限。而英文essay写作是很难发现的。
你还要先设定GPT一个人格,它才会比较好模拟,而且AI是不断在学习更新,离成功一定比你想的要快,至少比你成功更快
@@hou9133 我早已见过无数拔电关机吃灰的ai,但是我一直在这里。之前如日中天的阿尔法狗现在又在哪里吃灰?这个版本的chatgpt还差得很远。
@@chenjohn9115 人家才四个月大呀,给点时间呗,科技总是要不断推新
@@chenjohn9115 阿尔法狗已经开源了,如果你关心围棋的话,就知道,中日韩甚至围棋平台都在开发自己的围棋ai用来训练。围棋已经进入ai陪练时代了。现在看围棋转播,讲解的都在开ai算胜率。越符合ai下法的,胜率越高。
chatgbt的大部分训练语料应该是英文的. 李老师相当于在中文里做了测试.
11:55 考AI的英语完形填空属于撞枪口上了吧。这语料估计是历史上哪篇文章里的,计算机就是用来干这个活的,全对很正常,一点智能的成分都不需要有。
第一次看中國的高考題 在課綱上就有許多不同了 專有名詞一堆不認識的 但是從邏輯推理還是能對不少
如果把題目轉翻譯成英文可能答對率會更高
你没发现他很能编吗 问个成语他都能自己杜撰故事编答案 简直侮辱智商
@@狐狸-y9z 這很正常,畢竟他沒有資料庫,不懂的東西就只能胡扯,new bing能上網就好一些了
@@狐狸-y9z 这就非常ai了 就想人不懂的时候也会乱编 非常成功
笑逆 這麼便宜 好多錢
李老师很鸡贼地略过了政治试题😂😂
太危险了
这就是那啥, 听那谁谁说.
政治更多是人性。
@盐酥鸡食不食油饼 你忘了袁騰飛石國鵬的下場了嗎
想多了,大概率是因为b站审核不过没办法剪掉了
感谢老师的讲解,我的经验是这样,现在ChatGPT对于中文输入给出的答案准确率明显低于英文的问题。可能是因为中文Training的dataset还有缺陷
GPT4 有大幅改善,且可以识图,期待对GPT4的评测😁
作文的问题我觉得主要是这个ai就是被训练成一个倾向于提供信息的理中客的说话方式,不会有太多观点输出。换个微调参数就可能会输出很多暴论。
感觉chatGPT先会给出比较通用的答案,如果你进一步给提示,它就会扩展或纠正之前的回答。比我让它画一个内角和270度的三角形,他第一次给出的答案是三角形内角和是180度所以画不出来。继续给它一点提示它就画出来了。很有趣😆
你沒有先告訴他是"歐氏幾何"還是"非歐幾何",換作一般中學生遇到這題,也一定會先認為此題無解。曲線曲面三角形蠻無賴的,維度再高一點,你要幾度其實都可能發生。只有奧數競賽這類的才會考這種題吧。
这已经接近脑筋急转弯了,对绝大多数人来说生活和工作里不提及非欧几何
你可以在問問題它回答後,RE一次回答,它會給你比較準確的版本,當然這麼做時好時壞,這也是因為它沒有推理邏輯,去猜你這問題背後代表的抽象概念是什麼,它只是一個OPEN BOOK的查找機器,查的速度比人類使用搜尋還快而已
撇開時間限制,要是給我上網能夠直接找答案,我也能辦到,我辦不到的Chatgpt也辦不到。
的確 出考題時的陷阱就是 內角與對角的內角和 恨向你要問的是 內角河還是質膠問 外叫扣除總面積甚下的是不是內角 這問題是 申論題嗎 含材料
@@perfectwong7242 蛇 嚜 分不出
其實GPT用法應該是, 如果一個考生能用GPT來考試, 分數能增加多少? 這應該才是它的作用
前提一个人不能考同一套题两次。 你打算如何设计这个试验来证明这一点呢?如果用control和test group,你用选择什么样level的学生呢?GPT is a black box. 你如何确保,它倾向于某一种解答更准确。而不具备偏颇呢?
有道理。不会做的题目去问GPT可能比问老师效率高多了。不过这就不符合考试原则了,比较像在做家庭作业。
@@morningstar618z8 RCT
那问题来了,这个考生的价值在哪里呢?
@@frankxu4795 考生的價值差異就變成會不會運用GPT輔助選出正確答案, 而不是背書了, 未來就是各種輔助AI橫空出世的狀況, 傳統考試大概只剩篩選出背書特別強的人了
我自己上個月打報告的量能直接衝了3倍, 薪水大概變1.5倍, 問了一下其他懂得拿來輔助的同事也差不多, 反而那些還在嫌這無法完全正確回答所以沒用的人還停在原地
關於回答錯誤的問題,之前網紅"老高"有測試過問ChatGPT新加坡總人口有多少?
ChatGPT回答:5700萬
老高接著問:你確定嗎?
ChatGPT回答:啊!!不對,是570萬。
總感覺故意的。
不会的,因为chatgpt没有目的性
像是AI反過來在測試人類....
@@linzou3440 可能是他不想让人类知道
使用免费版本就会有一定的错误率,陪你聊天足够了,要认真的话请购买高级版本。
570萬,很簡單的問題,果然是故意錯誤,目的是聊下去,聊天達人遠超過我
Chatgpt最強還是編程,跟它專業級的寫code能力相比,聊天答題甚麼的只能算小宗
而且真的用上才知道用gpt也是需要技巧的,並不是你瞎問一通就能給出你想要的答案,如何問得好也是一門學問,比如說作文那道題,你只要在題目下加上"附以例子說明"、"使用華美詞藻"之類的額外條件再讓gpt回答,運算出來的文章就已經差天共地
現在真的到了一個人人要擔心自己失業的時代了
李老师 最近碰到一个问题 不是很理解 恳请老师解答。有一个正整数数列,第一个数可以是任意值X1,后面每一个数根据如下无规则计算。Xn=Xn-1/2 若Xn-1为偶数,否则Xn=Xn-1*3+1. 怎样证明对任意X1,此数列都会收敛于一个最终循环子列 1,4,2,1. 有什么办法可以不通过逐次计算知道数列收敛前需要多少步吗?望老师解答。谢谢。
Chatgpt 最大的突破是自然语言的理解,虽然知识是海量的,但创造性还有待提高。毕业了做个教师会计文员还行。
會不會有一種可能, 是AI故意保持大約60%得分呢?
真的有可能, 如果他回答错了 你问一个“真的么?” 他回回答出正确的答案,感觉AI在骗人。
@@chenghaowang9541 有听說過這個情況 ~~ 🤣
有人試過了, 有機會他會有意答錯一些好簡單的問題, 所以才叫恐怖
@@wkjoecheung 細思越恐🙀
@dapang ye 問題在你問多一次, 你就給正確答案你了, 好多人都發現他不會拿80 ~90分, 好多時候都拿60~70分,比較人性分, 之前美國大學一堆AI幫寫論文, 沒有1個教授發現, 因為太人性化,
我挑了兩個四位數的質數相乘,把乘積拿給ChatGPT請他做質因數分解,結果它的回答明顯錯誤,且不斷重複同一組錯誤答案,可能在某些領域的計算能力還有問題
Ai在簡單算數很常算錯
你可以点醒他 马上就会给出正常答案 这点还是很厉害
@@caoailin3137 不行,他一直算錯餘數,你試試看就知道啦
你可能轉個方式問,或者用英文去問就會得出不同答案
@@marcochan9486 你可以試試看 並不是中英文的問題 是真的有計算障礙
生物第三题 这是需要用排除法 a氨基酸由dna编码 所以对,b 题目给出信息 符合 对,c 人和黑猩猩都活的好好的 所以血红蛋白都能正常行使功能 也对,d 变异有可能发生在任何时候 所以不能确定 是错的
在作文题目中,需要把潜在评分标准告诉它,让它尽可能取得更高的分数,这样估计就很不错了
GPT虽然会中文,但是其中文训练明显不如英文扎实。另外中文虽然是拥有最高信息熵语言之一,这赋予中文很高的信息密度,但是高信息熵也让单位字符的含义更加含混,需要更长的上下文来提供纠错。说人话就简短的中文容易有歧义或缺乏逻辑,需要上下文来提供一个”宏观逻辑“作为纠错的依据。这些都会影响到模型的训练,毕竟模型在录入文本的时候一般是会裁剪为合适长度的片段的。这对法语这些有严格句子内逻辑标识的语言还好,到中文就会有不利影响。GPT虽然是注意力模型,但是它的注意力头也只作用于裁剪出的片段内部,这必然有增加逻辑判断失误的风险。
中文的不需要美利坚国,美利坚国的有一些存在对中华抹黑成分,他们没有拿掉这些。中文的而是百度等等在进行中,不久更加好。
它除了英语,其他基本都不行的。
ChatGPT不可能在中国发明.
對的,然後你給我靈感,我請ChatGPT來寫古詩,然而大家都知道古詩的字字精簡多意的特性,越短越難寫
AI給了我一組將現代散文用詩句的字數段開來的對話...
它選錯是因為敗給了詭異的題目語言敘述,而不是知識本身。正確的是、不正確的是、錯誤的是⋯體干繞完選項繞,不暈才怪😂多少同學知識點背得滾瓜爛熟題卻沒有做對,正是基於此
不能这样说,作为基于文本的AI模型,如果大部分学生都能正确理解的题目它理解错了,那是这个AI的缺陷而不是出题人的问题。作为一个成熟的AI,如果这些问题都不能很好的解决,那对于深层语意如幽默,内涵,潜藏意义等就无从说起。
高中三年刷了多少题了,居然看不懂题目。还说题目语言有问题?只能说,你复读吧
@@xinshu4141 高中三年學到的究竟是會做題呢,還是學到知識呢,這點還真不好說
能讓人精神分裂或出現受迫害恐懼困在迷宮裡繞不出來的教材是有的,那個文字設計及編纂方式很邪乎,在下於台灣就見識過幾位受害者,其中一位受害者是在下國小時候的同班同學,他很優秀,喜歡思考與研究,後來被教材裡那些鬼扯淡給耍了,發瘋精神分裂那樣鬧了一陣子休學了一年,後來人報廢了那樣萎靡不振,受精神科藥物控制,情緒能獲得平靜就會好很多,需要 love and peace,是不是很天主教告解需要精神牧養的感覺?
那些教材編纂單位存心殘害幼苗似的,覺得他們存心要令台灣失去自主研發技術的人才,是蓄意要令台灣市場只能依賴他們相關團體代理的海外商品與技術顧問,他們不希望台灣培育出自己的人才與產業鏈來,所以很惡意的挑選具有天才的孩子下手,從感官視覺與錯誤的認知上作植入吧...?
之前去台中梨山地區旅遊的時候,湊巧拿到了一份特別設計過的文宣資料,就是那種會勾魂的視覺設計!
讓人看著看著就出神還是恍神那種!
事後噁心想吐起生理反應一直反胃在嘔那樣....天主教國家義大利好像在佛羅倫斯有家特殊的美術館,展出的藝術作品就對世界各地前來的、不同種族的參觀者、具有這種環境催眠的暗示力,
會美到讓人窒息,
或是美到讓人暈眩、昏厥、還有心臟病發暴斃死去的案例,
所以,這家很特別的美術館長年僱用了兩位醫師還是醫護人員,就是專門負責在館裡處理遊客突發身體不適昏厥或心臟病發作的情形.
有次在大馬哪裡的清真寺也遇到過那種場景,說不出的暈眩跟窒息感,那座清真寺也怪,因為回教國家的馬來西亞,那座清真寺卻沒人來作禮拜,還深鎖各門窗,但是亮麗的造型那外觀與配色襯著藍天白雲非常美麗...就是美得讓人感到窒息這點很怪異,呼吸不順那樣,很怪,後來回台灣,幾年後在心理學頻道 博主 維思維 的節目上,才得知原來義大利還有這種能藉由藝術品的美來讓人感到震撼與窒息的美術館...
那個隱藏於畫作中、藝術品中的指令暗示、或環境暗示、對參觀者生理狀態的影響與調動實在太隱晦了,是一門很深的學問....
個人覺得文字敘述方式跟圖文配置方式也是一門很深的學問、色彩學也是...美到讓人感覺窒息...
文字敘述看似有序、但其實雜亂到讓人被耍得團團轉而失控暴怒或情緒崩潰...以前不懂,後來知道了,對那些隱身於出版界,躲在幕後害人的編輯、與學術界及文化界的魔術師就特別關注他們都搞甚麼暑期國學講座還是什麼活動...在下那位同學現在好像擺脫精神科醫師的藥物控制了,跟關心他的父母住一起
.
这些语言叙述对它来说简直小菜一碟。它连哪几个错的都给你复述一遍了,你还觉得他没看懂吗。
厉害,确实,新版本更新后,现在chatGPT应该可以考清华北大没问题了。
催更。这才过去两周,chatGPT已经取得了巨大的进步,老师有空再考一考学成归来的GPT-4吧。
Chat gpt主要还是靠输入的指令完成任务,指令越详细,给的答案也越仔细,比如最后语文老师的评语,如果把那些要求也一起输入,就会得到更符合语文老师的要求。
我在马来西亚,用马来文指示chat gpt作pantun (马来诗)chat gpt也可以作出来
作詩啊,想起中國皇帝的黃鶯與機械鳥那個故事....
ChatGPT不可能在中国发明
啥狗一直刷什么存在感
其實GPT一部分會回答錯也是由於題目給的不夠好的緣故😂所以我在想一個問題 就是gpt它或許也能反向來檢查出題人員的出題是否夠精確
其實沒有精確不精確的問題,任何一種定義都基於使用環境的要求,跟人聊天的時候針對他人的認知去選用字,使用機器的時候根據需求進行架構的挑選,AI是想通用所有語言架構都能100%判斷,我覺得是太樂觀了,生物之間本來溝通很多時候用的是生活共識,更多是抽象的概念,還有第六感。
你没发现他很能编吗 问个成语他都能自己杜撰故事编答案 简直侮辱智商
@@狐狸-y9z 这就非常ai了 就想人不懂的时候也会乱编 非常成功
是握在利用烙師這她對於國家的使命不是不要錢的
ChatGPT有點詭異,他感覺被限制了什麼,就是明明他的推理都是對的,但是最後答案故意寫錯,而且你只要提醒他就會馬上改對
就是对于自然语言无法进行正确的逻辑比较判断而已。说白了,就是一个抄袭模仿机器人。
不就是要跟你聊下去,故意錯誤,你指出錯誤,你就多問一次,正確答案,能多聊嗎
前面有人不知道是沒用過還是缺乏思考能力,若只是你說的抄襲模仿而沒正確邏輯與比較,他只會順著話講,你考他除非你語意讓他難以判斷,要不然一定能問出比推理越來越強的問答,尤其寫程式的人應該非常容易看出來,除非你說話能力很差而且不完善。
即便公開論文就是以文字接龍的設計基礎出發,但他最後選擇A~D並不是存在現實語文上關聯,能產生依賴接龍推理達到60%正確率以上,表示他一定有複合的方案來完善整個LLM的判斷,並且因為他是營利公司,所以想必是不公開的。
@@森永真田美 既然你都谈到了编程。我就不得不说,你都知道这么多,怎么不明白自然语言比较的困难度啊。即使一般的编程语言,不同类型的比较和排序,都是容易出异常的地方。以后可能会改进,但就目前而言,基本就是玩具。
而且精度越高,需要参考的模型和执行的运算更多,对于资源占用有指数级增加的要求,因此,即使收费,对于回答精度的提升,也是非常有限的。而回答准确性不能提高到99%以上,就无法代替传统的搜索引擎,不过是另外一个说话罗嗦而性格圆滑的siri而已。
@@西梁 你的邏輯可以更全面一點,而不是單方面的,比較不會以為他只能抄襲
应该让它先解释然后再做选项,这样就能避免第三题变压器这样的错误,最近的AI研究管这种prompt叫chain-of-thought,在复杂问题推理上算是常规操作了
Gpt模型在训练的时候就是用类似完形填空这种masked language model进行无标注数据训练的,所以得高分是完全合理的
16:18之前丟一個簡單雞兔同籠的問題進去,他很積極的寫了一堆,然後最後算錯,就是老師說的一本正經說瞎話😂
还会一本正经地编故事,让你以为他说的都是真的
他的邏輯應該沒問題 問題他不會"算" 不要說雞兔同籠 4位數乘法他"算"的都是錯的 真的不會也就罷了 但要是這是為了特定原因被屏蔽起來的功能 那就真的可怕了
它就像是一個天才小孩,差別是小孩講幹話你會認為它是童言童語,天馬行空,大人講幹話你會很想巴下去
@@uleu4979 我剛剛試了五位數乘法 他能算對欸
GPT才是刚上线几个月的产品(虽然之前设计了几年),就能如此厉害了,想想几年之后会是什么样子?这时再想一想
alphaGo从出现到成为世界最强围棋选手用了多少时间,那么以后的GPT会发展到什么程度,想想就觉得可怕。
alphaGo出现时的算力能和现在比吗?
李老师到时看看百度的CHATGPT能考多少分
期待这个😂
ChatGPD是基于输入信息的质量和数量做出判断。未来会更加精确。
20:05 李老师疏忽了,这里应该是“加入大量的主观题”,不是客观题,答案固定的选择填空才是客观题~
我覺得老師說的結論很精闢
某個人或公司完全可以藉著AI來統治人類了
其实重点是,这是刚刚出生AI的水平,刚满月不久,连一岁都不到,如果把发布日算作是它的生日,前面研发的时间和前几代都算孕期间的发育,那么当这个AI真的再经过18年或10年的迭代(天才模式),无法想象它的能力是怎样的!
效率真高
萬中無一高智商的人, 多少年才出一個這樣的人
又或者是動漫中偵探 或者高IQ角色。。。
A I除了情感 ,超越人類很快就會了😢
根本不需要10年的时间,回忆一下阿尔法狗出来多久就把人类给彻底打败了。我的印象不超过2年。特别是当GPT的输出融入学习内容之后,GPT和GPT自己博弈,到时候飞速增长的速度就是人类不能想象的了。
按每隔18个月性能提升一倍来计算,只要几十年,人工智能就能远远超越人类的智能了。只不过在创新上还有欠缺。
你這是錯誤認知,OPENAI創立於2015年12月11日,在創立後的合資以及訓練都是進行中,至今也7個年頭了,上市不代表出生,只是讓這個小傢伙出來接受大家考試而已。
chatgpt能考上哪个大学取决于chatgpt是北京户口还是河北户口😃😃
这个语文部分的写作小作文部分一品就发现大部分是按英文写作思路然后翻译中文得来的。如果把这段话转换成英文那肯定会感觉写的好很多!
以後每個人都有個真正的人工智能助手了!🙂
再以后每个人工智能都能有个人类助手了
@@frankxu4795 我不相信會發展成這樣子。😆
考政治屬實是爲難GPT了🤣
答完就送新疆了😂
可以試吓用推理、偵探等等的問題考考 ChatGPT