Open AI 成立于2015年,之前都是开源。即使2022年年底GPT 3.5刚开始的时候, 也是开源,后来关闭了开源。这十年以来,open AI 前期付出了大量的沉默成本,摸索出了一条道路,其他公司很多AI模型都是站在Open AI这个巨人的肩膀上,这也是Deep seek可以少走弯路,大量节约成本的原因之一。之后闭源,也是出于对自己劳动成果的保护。没有人能长期做慈善没有任何收入,除非诸位天天喊着让Open AI开源的人给Open AI发工资😂😂😂😂。试想美国开源的还少吗,从马斯克的电动汽车技术分享,到谷歌的安卓系统,再往前到乙肝疫苗的近乎免费的技术分享给中国,大家都忘了😂😂😂😂
CC字幕已上传
老大,這題數學蠻有邏輯性的,佩服佩服啊!我也猜1=5,5=1。🤣🤣🤣
Deepseek R¹只识别有明显字体的图片OCR文字,不识别物体。所以显示失败!你需要Janus Pro才识别图片。
开展“百名医师下基层”的服务活动,共抽调了7所医院的139名医生。
根据抽调的医生人数由多到少排序,前两名的医院抽调人数之和不超过后三名医院的人数之和,第五名比第六名多4人。已知每所医院抽调的人数各不相同,则排名第六的医院最少抽调了()名医生。这个问题deepseek做对了15人,GPT三次全错,你可以试一下。
@@Nimbus-w2h我試了 就是回答1 花了170秒 各種嘗試 最後回答1
絕對比絕大部份的人類做得好 pr值我猜可能90以上
@@uleu4979 , 我又试了两次, 这次的答案都是:52145
也许你的版本不同,运行地方不同。我是Android 手机版本,在美国运行。大约花了30秒。
deepseek的回应来了,解释为什么答案是7而不是6:
在题目中,虽然提到了“马分3种”(大型马、中型马、小型马),但**问题并未明确要求“必须使用所有三种马”。题目仅规定:
1. 用完100匹马(总数量约束);
2. 驮完100块石头(驮石数约束)。
因此,从数学模型的严格解来看,只要满足上述两个条件的非负整数解都是合法答案。即使某一种马的数量为0,只要其他两种马的存在已经覆盖了“分3种”的分类定义(即分类存在,但不强制要求每类都必须被使用),这样的解依然有效。
为何允许中马为0?
1. 题目未限制最小数量
题目仅强调“分3种”,但未要求每种至少1匹。例如,若题目说“三种马都必须使用”,则中马为0的解需排除。但原题无此条件,故数学上允许某类数量为0。
2. 分类与使用的区别
“分3种”是马的分类方式,不等同于“必须使用所有分类”。例如,停车场有轿车、卡车、摩托车三种车,但某天可能只停了轿车和卡车,这并不违反分类的存在性。
3. 验证解的合法性
以中马为0的解(大马20,小马80)为例:
- 总马数:20 + 0 + 80 = 100(符合);
- 驮石数:3×20 + 2×0 + 0.5×80 = 60 + 0 + 40 = 100(符合)。
完全满足题目要求,故为合法解。
若题目隐含“必须使用三种马”
若题目实际意图要求每种马至少1匹,则需添加约束条件X≥1,y≥1,z≥1 。此时,原解的7组答案中需排除中马为0的情况,仅保留前6组(k=0到k=5))。
结论
当前答案的合理性取决于题意是否明确要求“必须使用所有三种马”:
- 若题目允许某类数量为0,则中马为0的解有效;
- 若题目隐含要求每类至少1匹,则需排除该解。
根据用户提供的原题描述,答案中包含中马为0的解是符合题意的,因为题目仅规定了总数约束,未限制分类的最小使用量。
它是把正确答案中的六组已经提供,只是多提供了另一种可能,因为题目没有言明必须三种马必然占一种,所以干脆多提供一种可能,因为,不算错误,当然,你可以认为画蛇添足!
完全正确,而是应该更严格的来说,这才是最正确的解。
有一個很大的陷阱,題目根本沒有要求馬一定要運石頭,只有要你叫他上場,所以沒有固定答案,
我可以33頭大馬+1小馬運完,其他塞著湊數也行,
答案是有限的非常多種,不只列出這幾種。
沒人看到ChatGPT說的嗎?
马有100匹,马分三种,题目就没有0这种选选项,有0,哪来的三种马?
關於馬問題,共有7組解沒有錯!是ChatGPT答錯了,且ChatGPT沒有列出所有解,只給結果!看起來就像國中生在回答問題,Deep則把前因後果都思考過後在回答!若深入看看deep的深度思考,會發現他的邏輯是更符合人類的行為。若答案要為6,那就必須多一個條件,每種馬至少要有一匹。
以下是我向Deep 和 Copilot 詢問的繁體問題,答案都是七組。
現在共有100匹馬跟100塊石頭,馬分3種,大型馬;中型馬跟小型馬,其中一匹大馬一次可以馱3塊石頭,中型馬可以馱2塊,而小型馬2頭可以馱一塊石頭,問需要多少匹大馬,中型馬跟小型馬? (問題的關鍵是剛好必須要用完100匹馬)
結論:在當前大語言模型中,deepseek說自己第二沒人敢說第一。
chatgtp的思考过程非常简略,几乎没有学习价值。 我甚至怀疑chatgtp没有思维能力,或它的思维链条是人类无法看懂的。 DS的思维链就非常清晰,真的想一个人在思考。
@@yeshwhrsfzshb7464 就是算力的问题,如果幻方有算力依然会快!
a+b+c=100 3a+2b+0.5c=100 a,b,c都是整数, 问a,b,c各是多少
赢痲啦
题目要求是三种马!所以每种马不能为0。DeepSeek的答案不正确,主要是语言理解存在小问题……
100匹马那道题deepseek答案没有错误,你的题目没有强制要求每种马至少有1只,因此是7种可能性,chatGPT的答案是错误的。做测评麻烦严谨点。
他就是嚴謹 才會幫你又框這又框那的... 你的理解力可能都不如deepseek...
chatGPT哪有錯 它還標註如果大中小馬各至少要有1隻以上的話為6次
@@jmtsaimomo 但是题目并没有说每种马必须至少一匹!
@@АнютаЛеонова-п5ь别较真了,你让那帮蛙蛙承认gpt不行,那不跟刨他们祖坟一样😂😂
@@АнютаЛеонова-п5ь 所以我觉得C可能是网上找的答案, 并且没有仔细审题
我是国内前沿的建筑设计公司,已经上架了DEEPSEEK,公司几十T的资料喂给它,就等设计师们上班后试用了
比较好奇?什么类型的资料那么多T?准备用Deepseek干嘛?
Bim有借口?
你们还是有的比较快,我个人工作室,做一个知识库就差不多了
你跑的是多大参数的呢?硬件配置如何
造假都不打草稿,一看就不是做设计的,设计如何用在设计,根本没接入AotuoCAD你如何设计?畏T级数据?你啥数据,你有显卡运行这么大的运算,你以为是专业IT公司呀,SB
明明DEEPSEEK既答案才是對(有7種可能, 不是6種, 因問題沒有要求某種馬數目不能為0, 只需要馬匹數目為100), 仲要唔需要R1, 用V3就答啱, 這解說太偏心了. 另外DEEPSEEK慢是因為太繁忙或背後硬件不及OPENAI(因制裁), 不代表DEEPSEEK大食或效率低, 反之用低級硬件也可以服務全球咁多人, 證明高效. 即DEEPSEEK已在這測試中贏左.
1. 2 x 3 + 30 x 2 + 68 x 0.5 = 100
2. 5 x 3 + 25 x 2 + 70 x 0.5 = 100
3. 8 x 3 + 20 x 2 + 72 x 0.5 = 100
4. 11 x 3 + 15 x 2 + 74 x 0.5 = 100
5. 14 x 3 + 10 x 2 + 76 x 0.5 = 100
6. 17 x 3 + 5 x 2 + 78 x 0.5 = 100
7. 20 x 3 + 0 x 2 + 80 x 0.5 = 100
还是DeekSeep强,就是那个5=1那道题,明显是脑筋急转弯,最考验AI的智力。
是的,5=1这个已经证明DeekSeep推理非常强!!!!
1+1= 多少?
@ 等於"="這個符號意思係任何時候都不變, 但1代表什麼, 可以千變萬化, 例如: 1 = 5 可以話係1個橙=5粒荔枝既重量或價錢, 因此 1 + 1 未必=2, 當年中大有個教授跟一個路人講完, 個路人就好迷戀咁日日派傳單, 應該係幾十年前既故事了.
有三种马,怎么可能为零?为零,哪来的三种马?
百马驮百砖问题,如果仔细对比内容:两者都对的。因题目没有明确其中一类马不能为0,deepseek是默认包含了所有可能(大马20,中马0匹,小马80匹)。而charGPT在前面说明了有这种特殊情况(允许某种马可以为0匹),不包含在结论6种情况中。
不要说了,肯定DeepSeek更强,1=5 那道题明显就是脑筋急转弯,最考验AI的智力,证明Chatgpt还是没转过弯来,还是机器思维。
DeepSeek肯定更好,就那个5=1明显是个脑筋急转弯,能答上来说明有人的思维,而Chatgtp是机器思维。
表面是计算,实际还是逻辑理解。 没要求最小匹配前提下,采用最大匹配。
chatgpt的解释:
如果你认为 1 = 5,并且希望 5 = 1,那可能需要一种新的解释方式,比如:
这个数列只是一个戏法,不是数学等式,而是一个人为设定的映射规则。
如果按照“1 = 5”这个假设,直接替换 1 为 5,我们可能得到循环 5 = 1,但这不是数学上的递推,而是逻辑上的悖论。
這題數學上看,答案是錯的,
因為1=5這邊不等於,因此你就是把1看作一個符號,
那依照慣例,5=多少的5也是符號。
那麼5=1就不該是絕對的。
題目的資訊不完整,因此此題答案有爭議。
这个逻辑解释很有道理。这种 5=1的逻辑原本只能存在于赋值语句里面,一般是x=y,变量给变量,不能直接把两个不相等的数值改成相等。
它能坚持逻辑,已经很强了,现在的大模型动不动就改‘立场“,直接推翻之前提供的答案,你也不知道哪个才是对的。
@@samhuangsanjia 像不像给幼儿做的题目?你想的是数学,人家考的是有几个圆圈,0是一个 6或者9也是一个,8是两个 。
第一步的假设1=5,其含义是:等号左边的是序号,右边的是数值。这种意义上不能得到5=1。DS错了。
当假设1=5的时候等号是设定有方向的,等于重构了等号的用法,到后面就不能用纯数学的等号的意义来解释了。deepseek实际上在这一局落败了
deepseek刚出来的时候速度明显比现在快,现在速度变慢甚至有时候显示繁忙,是否与后来出现大量来自美国的ID网络攻击有关?
是的, 不过很多企业都下载到本地了, 我们公司就是 哈哈
被美國動用國家力量搞網絡攻擊
毫無疑問又被猶太美國財團網絡攻擊了!
整个国家力量都动员起来搞你了
我跟你說答案好嗎? 原因是... deepseek公司她不肯再花其他成本,提供更大的處理頻寬以及處理速度,所以很多要求,他都會放棄執行。
马的问题,deepseek是对的,chatgpt是错的
眼瞎
在中文使用环境下,r1回答的更到位,穷举算法。一开始觉得他啰嗦,又关闭不了他的思维链,后面思维链越看越好玩。还有一点是替代传统搜索引擎的功能性上,在时效性信息新闻上,r1表现得比 o3好太多了,o3给的信息经常不是最新的
别比了,今天推特上好多图--o3mini用英文提问直接大篇大篇用中文显示推理过程……属于骨肉相残左右互搏了
您的牧羊,蛤蟆,柴犬已离线😂
o3 mini是蒸馏小模型,如果能和r1互博那r1基本不用混了
看来不学中文不行了,连AI都说中文了
为啥不能混呢?@@black33510
有什么关键词吗
说明下,ds不是多模态模型,上传的图是采用OCR识别文字,并非图片。好多人拿视觉去对比gpt和ds是不合适的。
@@runaxun-i2i 但gpt无法识别上传图片,那还能根据图片来理解吗?
@csunltd chatgpt从4开始就是多模态模型了,VLM模型,这个V就是指视觉。R1是LLM模型,不具备视觉,只是单纯用ocr识别,你传图的文字内容会被识别。不过他们的多模态应该已经在训练了,前几天出了个不成熟的产品,证明在研究相关技术。
@@csunltd gpt是多模态模型,可以分析图像内容。 deepseek前几天出了个识图,图生图的模型,还没整合。
免费版的o3 mini就是废物,9.11和9.8谁大这种老生常谈的问题还是答不对,提示了不对它还是觉得9.11大。让它找首歌也找不对,DS一次性找对我给出模糊条件的歌曲。还有一个和我工作相关的专业领域的问题,DS一次性答对,o3 mini错的离谱。
确实是,在ChatGPT上试了好几组数字,都回答错误。应该源代码中有bug. 又是三哥在代码中埋雷了?💣
甚至有这个逻辑混乱的答案:8.11 比 8.8 大。因为在小数点后,1比8小,所以8.11大于8.8。
胡说
刚发现o3mini更新的时候,我第一个问题就问了o3mini9.11和9.8谁大,结果人家一次答对了呀
@@nightstarring7498 对,不能乱说。这个题目 o3 mini是答对的。
以前我用deepseek不会繁忙,最近应该受到攻击的原因很大
上中国的云,就快了
访问量太大了,免费的,人家还没赚钱呢,怎么可能花大价钱扩展服务器呢?
@@看海听风-x4n换了国内的代理也不行,估计是访问量太大了,赶快开始收费吧,反正便宜很多倍,我愿意付钱
明顯就是訪問量大吧😂
被攻擊還讓你運行?
@@jun484 你不知道前几天运行不了吗?
文史方面,DeepSeek的回答充滿哲學味與詩意,ChatGPT則像copy機,文史程度差得太多。甚麼人教出甚麼AI。
因为DeepSeek底层逻辑使用中文构建的,天然适配中文。 ChatGPT则使用英文。
@@yeshwhrsfzshb7464 DS都是抄GPT,何來的底層邏輯
@@UCljU_uL7skJ9mtjQD7Ykkiw
抄Chatgpt ???證據提出來呀
DEEPSEEK直接能写诗,并且格律严谨
@@UCljU_uL7skJ9mtjQD7Ykkiw 要说你是傻逼都侮辱傻逼了,DEEPSEEK直接绕过NVDA显卡固有的cuda效率更高怎么抄?
零度在一众博主当中算是比较客观的了。但难免透露出一种淡淡的预设立场。
是有一点
我擦,刚才用了下o3-mini套壳deepseek没套明白!!!直接出来中文分析,英文提问中文分析。诡异的换上了中英分裂症!!!
開源後大家一起抄作業🤣😂
這段中文沒看明白😅😅,能說請析點嗎?
@@Jordan勇豪668 o3-mini 根本就不是 openai 开发的, 而是抄了 deepseek 源代码
不能說是套殼,o3-mini其實用了和deepseek一樣的方法蒸餾,這樣免去了人工做數據標註,讓模型可以自己學習。
但deepseek是開源權重,並在論文裡寫得清清楚楚,gtp4別說開源,以前連思維鏈都不給你看,就是怕別人發現蹊蹺。
从推理过程和结果来看,Deepseek明显是完胜,Deepseek的推理过程更像人类,结果的准确性也更高,甚至可以绕开问题中的陷阱。
建议把哥德巴赫猜想和黎曼猜想喂给OpenAI o3 Mini和DeepSeek R1,看哪个能够得到正确答案(证实或证伪),哪个就是人类AI目前的终极大BOSS!
为什么我觉得DeepSeek的推导过程更像人类思维呢?
“人类”改为“国人”就通顺了
@@yaoyaojiu9359国人加个括号(岛民除外)
@@yaoyaojiu9359 虽然 不想提 ,但 或许孺子可教,人文逻辑上“国人“比‘人类‘要 高级 ,但”人类 ’又比 ‘国人’宽泛,但这里主要 侧重思维,所以指的是全域下的情况,而不是特例的情况。
不是更像人类,它根本就是人的思维。
@@yaoyaojiu9359是正常人r1和傻子gpt的区别
看了这么多介绍AI的 感觉还是你最客观 给你点赞
咁都叫客觀?
明明DEEPSEEK既答案才是對(有7種可能, 不是6種, 因問題沒有要求某種馬數目不能為0, 只需要馬匹數目為100), 仲要唔需要R1, 用V3就答啱, 這解說太偏心了. 另外DEEPSEEK慢是因為太繁忙或背後硬件不及OPENAI(因制裁), 不代表DEEPSEEK大食或效率低.
1. 2 x 3 + 30 x 2 + 68 x 0.5 = 100
2. 5 x 3 + 25 x 2 + 70 x 0.5 = 100
3. 8 x 3 + 20 x 2 + 72 x 0.5 = 100
4. 11 x 3 + 15 x 2 + 74 x 0.5 = 100
5. 14 x 3 + 10 x 2 + 76 x 0.5 = 100
6. 17 x 3 + 5 x 2 + 78 x 0.5 = 100
7. 20 x 3 + 0 x 2 + 80 x 0.5 = 100
@@vincentvc168 我说的反话啊 兄弟
最多只能说--他是挺想客观的。。
@@连思磊 哈哈哈
还是感觉Deepseek更方便,中文逻辑更合理!
ChatGPT 的中文知识是体育老师教的😂
没上下文,你知道 包子和小姐是啥意思吗
就是應該這樣捲起來,人類生產力進步就是得靠這種高強度競爭達到高效低耗。
其实这个对比已经说明了deepseek的牛逼了 开发费用是open ai的千分之几 刚刚发布 且开源 服务器被恶意攻击的这个大前提下
但目前对比的是中文能力,恰恰是deepseek的强项,GPT的底层算法是英文的他做中文题需要经过两次翻译
成本千分之几是他们自己宣布的。
@@qwer-gg1cx 实际成本是二十分之一 5%
由沒有到有,由零至一的開發才是最牛的,不容爭辯
Ds网站最近都上不去,调用api困难。用着perplexity 自己搭建的ds r1,很惊艳。但有算力变笨的时候,估计也是很多人在跑那个模型。
其實最後一提沒有固定答案,因為沒有說明草是用哪一種方式生長,是每天固定一個數量,還是和只在被吃的地方再生長出來。
DEEPSEEK在本機執行可以用AMD GUP我就給滿分了,其他AI大部分都只認CUDA
最主要还是开源的!现在很多个人电脑都可以一键部署,非常方便。而OpenAI要不是DeepSeek推出还在卖每个月20刀200刀刀高价全世界割韭菜。AI本来就是在全人类的智慧结晶应该服务全人类而不是闭源成为少数人收割全球的工具。
小白在此,请教什么是 CUDA? DS 可用 AMD GPU 还是不可以?
1=5那道题,前提是否定了等式的基本性质的,后面再用等式的对称性去说答案是完全不合逻辑的,别说它是推理题了,说它是脑筋急转弯都牵强。
我觉得这道题才考验AI的智商,就是个脑筋急转弯,DeepSeek至少有人的思维,但是Chatgpt还是在计算,明显是机器思维。
这就是考验AI的推理能力啊
@@dasa6621 对,确实,这道题我支持DS
你是机器人吗
“脑筋急转弯”也需要用到推理,而且更考验AI的思维灵活性,需要准确对信息进行分析和推断,打破常规思维。换言之,AI能够正确回答出“脑筋急转弯”的难度还要大于普通的逻辑推理。
你需要Janus Pro才识别图片。做测评麻烦严谨点
deepseek和gpt完全是兩個極端
前者會掰理力爭,哪怕是幻覺,你很難改變他的答案
後者更會創作,你一提醒他它就自我糾正,然後掰出迥異的回答
關於馬問題,Gemini 解答也是7組,最後人像辨識,Gemini答 :抱歉,我還沒有辦法處理真人圖片,且直接把人像刪除,這才是應有AI態度。
如果你是用中文寫作,Deepseek強很多,甚至我覺得有用力過猛的感覺(太多不必要的華麗文藻)。
OpenAI說他們用光了所有網路數據,顯然那並不是全部。
Deepseek缺點是對多語言的支援,例如有個角色是西班牙人要開黃段子,他在這部分表現就不如OpenAI。
當然一些更冷門的語言如阿拉伯文、越南文,Deepseek就沒轍了。
如果用Deepseek來寫作,你的角色無法繞著地球跑,除非所有人都講英文。
你可以让它说人话,他就用大白话告诉你了
硬體算力GPU 有差,只對中文與英文OK ,其他程式與一些語言完全沒辦法
可以给它提要求的,譬如要求使用词语朴实易懂,就可以了。
@ 我認為這是訓練參數的問題,就跟GPT的中文表現沒有Deepseek好一樣。
中文的排列组合是兆级别的
Chat派愛戴路過
確實數列那題有爭議
光1=5就已經打破等式概念
那1跟5可以拆成兩件事
左邊是數字加1的遞增
右邊是"位數"+1的遞增
而且出現數字也都小於5以內
確實插個3看似也很合理
這題的不像等式數學規則,類似腦筋急轉彎。
做了道奥数竞赛题做对比,deepseek r1错了两次。o3一次就正确了
跪久了,站不直!
真相傻逼一样,你他妈喜欢跪总想着跪,你去问你爹跪过多少人?
只要免費的都給讚👍
没有deepseek,gpt会给你免费用?
不如也同樣開源 😂😂😂
必须给赞😂OpenAI 现在都敢收200刀,要不是DeepSeek要不了多久普通人就用不起AI 了!现在还是免费开源的。一键部署在个人电脑都行,爽歪歪
第3題的運馬題目有一個很大的陷阱,
題目根本沒有要求馬一定要運石頭,只有要你叫他上場,
我可以33頭大馬+1小馬運完,其他塞著湊數也行,
答案是有限的非常多種,不只列出的這幾種。
另外,chatGPT只有速度快,其實他的答案很不嚴謹,這邊應該判負才對。
不過我還是用chatGPT比較多,畢竟多問一句他就會給你嚴謹的解答。
我喜歡他先給我一個速度快的答案。
通常他應該會提示繼續問他,但這次沒有,蠻奇怪的。
0度视乎很在乎异见人士
DeepSeek 目前使用人数太多 还被被攻击 如此测试不太公平吧。
我去年12月底注册的deepseek,思考速度飞快,比之前用的豆包强太多,但过年这几天,不但网络搜索不能用,深度思考也慢了许多,所以仅从思索的时间长短上来判定孰优孰劣是不公平的。
人数和反应速度/网络延迟/等待时间有关 正确率和使用人数无关
代碼chat GPT在代碼方面更強,deep seek在中文語料方面表現更好,春節期間我都是找deep seek寫對聯的做參考。數學方面感覺各有千秋差不多
我觉得能在这么短的时间内搞出这么棒的模型已经很了不起了,能对标行业巨头。而且他们还没钱,不像OPENAI背后有大资本支撑。最主要这个团队不是专门搞大语言模型的,他们是搞量化的,顺道搞出来个这。
代码方面差不多,
总体感觉还是DeepSeek更强,它有强化学习功能,还在自己学习呢
我的线性代数题GPT做的一塌糊涂 已经退会员了
@@颜烈95deepseek 没钱你要不要去查一查他们的背景
这些题,跟真实需要求解的问题,还是有差异的,真正解决问题,才是好模型
deepseek当前热度可能过大,基本都是没响应啊。不论蒸馏不蒸馏的,出现个竞争者,总归是个好事。
因为受到了饱和式攻击,很多已注册的账号会不停的访问导致拥挤。前几天已经关闭了86以外的手机号注册,不知道现在什么情况。最主要是免费开源动了别人的蛋糕,上万亿美刀的市场,还不拼了。
@@KL-qv3qz 你这是阴谋论。
@ 鸡毛阴谋论奇安信有详细的数据IP指向基本都是美国。
@@KL-qv3qz 扯淡吧你!相信这种无稽之谈,你根据在哪里?
好讚!我就喜歡看這種實測對比,真實!😁
其實各有好壞吧。 DeepSeek 的 aha moment 有時候顯得太囉嗦。思考鏈與過程太冗長。應該提供選項關閉或是縮短這個過程。另外用這種題目來考驗o3其實並不公平。相信這些題目多數主流語言模型回答也不會太差。o3主要強化的應該是更高深的難題。就像你讓一位教授作答簡單題目他可能也會出錯。反過來說,DeepSeek也足以堪負大多數的工作。不過個人實際用了一陣子DeepSeek說實在還是不如OpenAI、Claude 或是 Perplexity。但是如果考量到免費 DeepSeek 依然是很好的選擇。 但是最後AI的問題又會回到,訓練的資料的合法性。原本只有OpenAI 一個人的武林的時候,很多公司對OpenAI 獲取訓練資料的合法性提出訴訟。而今,DeepSeek 甚至往後的二線AI公司們,利用知訊蒸餾的方式,用更少的成本來訓練出近似質量的AI模型。這個過程就如同當初OpenAI 拿收集到的海量資料來訓練一樣。最後,算力、資料雖然適硬道理,但是我們也能看出大家的勝負正在縮小。領頭的要讓AI變得更強成本越來越高,跟隨的只有跟風就好,不一定要做最強的,獲利可能更大。
你可以说,你直接给答案不要过程,可以的。
反应速度和硬件最相关,与服务器距离也有关,用这个对比,没有意义,对ai来说,正确性才是根本。
第2題以數學看,答案不嚴謹。
因為1=5這邊已經是不等於,應該把1看作一個符號,後面的5則不確定,
所以5=多少的5也應該是符號。那麼5=1就不是確定的。
要看後面那個字代表的是符號或數字,如果後面的也是符號就沒問題,
題目的資訊不完整,因此5=1不能算做正解。
现在deepseek的服务器不稳定,等风头过去再测,或者用第三方的平台试试。
請給它們一條問題,"在閉環的管道中,沒有壓力錶下,事先不知管道中任何一點的壓力,只知喉配件和水泵的資料,如何知道水泵運作時出口和入口的壓力實數。"這條問題一直困擾我。
Deepseek回答:
在閉環管道系統中,若無壓力錶且未知初始壓力,需通過以下步驟估算水泵入口與出口的實際壓力:
---
### **1. 確定系統流量(Q)與水泵揚程(H)**
- **水泵性能曲線**:從水泵資料中取得揚程-流量曲線(H-Q曲線),表示不同流量下水泵能提供的能量。
- **系統阻力曲線**:計算管道系統的總阻力損失(H_loss),其與流量平方成正比:
\[
H_{\text{loss}} = K_{\text{total}} \cdot Q^2
\]
其中 \(K_{\text{total}}\) 為系統總阻力係數,包含:
- **沿程損失**:使用達西-魏斯巴赫公式計算:
\[
H_{\text{friction}} = f \cdot \frac{L}{D} \cdot \frac{v^2}{2g}
\]
(\(f\):摩擦係數,\(L\):管道長度,\(D\):直徑,\(v\):流速)
- **局部損失**:由喉配件(如閥門、縮徑)的阻力係數 \(K\) 計算:
\[
H_{\text{local}} = K \cdot \frac{v^2}{2g}
\]
- **運行點確定**:H-Q曲線與 \(H_{\text{loss}} = K_{\text{total}} \cdot Q^2\) 的交點即為實際流量 \(Q\) 和揚程 \(H\)。
---
### **2. 計算入口與出口的壓力差(ΔP)**
- 水泵提供的壓力差由揚程轉換:
\[
\Delta P =
ho \cdot g \cdot H
\]
(\(
ho\):流體密度,\(g\):重力加速度)
---
### **3. 推導入口與出口的絕對壓力**
若需絕對壓力值,需引入參考點或假設條件:
- **參考汽蝕餘量(NPSH)**:
為避免氣蝕,入口壓力 \(P_{\text{inlet}}\) 需滿足:
\[
\text{NPSH}_a = \frac{P_{\text{inlet}} - P_{\text{vapor}}}{
ho g} \geq \text{NPSH}_r + \text{安全餘量}
\]
(\(P_{\text{vapor}}\):流體飽和蒸汽壓,\(\text{NPSH}_r\):水泵必需汽蝕餘量)
由此解出最小入口壓力:
\[
P_{\text{inlet}} =
ho g \cdot \text{NPSH}_r + P_{\text{vapor}}
\]
- **出口壓力**:
基於壓力差計算:
\[
P_{\text{outlet}} = P_{\text{inlet}} + \Delta P
\]
---
### **4. 範例計算**
假設條件:
- 水泵揚程 \(H = 30\ \text{m}\)
- 水密度 \(
ho = 1000\ \text{kg/m}^3\)
- 重力加速度 \(g = 9.81\ \text{m/s}^2\)
- \(\text{NPSH}_r = 3\ \text{m}\),\(P_{\text{vapor}} = 0.3\ \text{m}\)(水柱高)
步驟:
1. 計算壓力差:
\[
\Delta P = 1000 \cdot 9.81 \cdot 30 = 294,300\ \text{Pa} = 294.3\ \text{kPa}
\]
2. 最小入口壓力:
\[
P_{\text{inlet}} = 1000 \cdot 9.81 \cdot (3 + 0.3) = 32,373\ \text{Pa} = 32.37\ \text{kPa(絕對壓力)}
\]
3. 出口壓力:
\[
P_{\text{outlet}} = 32.37 + 294.3 = 326.67\ \text{kPa(絕對壓力)}
```
---
### **結論**
通過系統阻力與水泵性能曲線的匹配,可確定運行工況下的流量與揚程,進而推算壓力差。若結合汽蝕餘量要求,可進一步估算入口與出口的絕對壓力。此方法需完整的水泵資料(H-Q曲線、NPSHr)及管道系統參數(尺寸、配件阻力係數)。
这些大模型、多模态就像我们充满智慧的先人、哲人一样,知识都是传承、分享以及升华,本来就是互相借鉴才能更加发扬光大,但有些人因为各种原因,要割裂人类知识之间的连接,这就有点不厚道。所以,DS,屌丝,无非就是出来玩,逆袭,还称不上。如果你玩不起,那就算了。
你开着深度思考模式,它要展示逻辑推理过程这个当然慢。而且deepseek遭受大规模网络攻击,现在deepseek需要过滤一些异常连接。还有你从澳大利亚往中国连服务器可能因为各种原因产生延迟。
实际上深度思考不是堆叠数据,而是分析理解数据,我喜欢deepseek的推理过程,可以从中学习到很多有用的知识。GPT,算了,动不动就封,有了deepseek,再见啦openai
Open AI 成立于2015年,之前都是开源。即使2022年年底GPT 3.5刚开始的时候, 也是开源,后来关闭了开源。这十年以来,open AI 前期付出了大量的沉默成本,摸索出了一条道路,其他公司很多AI模型都是站在Open AI这个巨人的肩膀上,这也是Deep seek可以少走弯路,大量节约成本的原因之一。之后闭源,也是出于对自己劳动成果的保护。没有人能长期做慈善没有任何收入,除非诸位天天喊着让Open AI开源的人给Open AI发工资😂😂😂😂。试想美国开源的还少吗,从马斯克的电动汽车技术分享,到谷歌的安卓系统,再往前到乙肝疫苗的近乎免费的技术分享给中国,大家都忘了😂😂😂😂
你不了解国人吧
感谢马斯克开源
以前有人评论说马斯克的电动汽车技术分享的参考价值不大,说是国内路线有所不同,具体原因没详细看不记得了,谷歌的安卓,你说linux是前辈开拓道路让所有人使用那是开源精神,谷歌那个主要是为了市场考虑让所有人都用,可以快速占领市场,这样说来鸿蒙也是免费分享给美国你忘了么?乙肝这个不懂不敢胡说,不过你说他们专门免费分享给中国的么?
没事,现在DS免费,大家都赞它,功臣啊之类的,等哪天收费了,很多人就会骂它,我作为国人,很了解他们的嘴脸😅
如果作为竞争对比,你的对比毫无意义,因为 没 结束。如果作为结果对比,也毫无 意义,因为没有最终结果。放点有用的屁吧
要把推理和網頁搜索功能都打開,這樣會比較強。雖然有點作弊,但還是比不開搜索強多了
deepseek在打开深度思考的情况下,提示服务器繁忙,刷新一下页面,就可以在问题的下方有个重新生成的图标,点击重新生成即可,有时需要刷新到三四次才能顺利的获得答案,并且你重新生成的次数,那个重新生成的按钮会生成1,2,3……的用户重新生成次数记录, 这样做的后果是否会被封ip我不知道
你把攻击deepseek的黑客干掉,就不会出现系统繁忙了
恶人做恶,你就把恶人干掉?
OpenAI應該是以英文為主,deepseek是以中文為主: 建議樓主用英語再問本集內容同樣問題測試他們的結果😂
第二題為什麼我跟你不一樣,我打開深度思考結果他硬是想了很久最後答案還是錯的。
我刚才在谷歌下载了DeepSeek 的更新版。又试了两次 1=5, 2=15, 3=215, 4=2145, 5=?,这两次它的答案都是:52145 (前两次是2145)。 逻辑推理明显有问题。我觉得这道题应该是无解才对。
1=5那个题答案存在完整的数理逻辑,我们在学校训练小孩逻辑能力的时候经常用,答案绝对不是5=1。 至于CHATGPT 有没有做对我暂时不确定,但是5=1那是纯扯淡
我刚才在谷歌下载了DeepSeek 的更新版。又试了两次 1=5, 2=15, 3=215, 4=2145, 5=?,这两次它的答案都是:52145 (前两次是2145)。 逻辑推理明显有问题。我觉得这道题应该是无解才对。ChatGPT 答案也不对。但DeepSeek “5=1” 错得太离谱。而且答案不稳定。
明显第二大题1=5,5肯定不等于1,DeepSeek把它当成脑筋急转弯了,而不是shuxue逻辑
同意。我刚才在谷歌下载了DeepSeek 的更新版。又试了两次 1=5, 2=15, 3=215, 4=2145, 5=?,这两次它的答案都是:52145 (前两次是2145)。 逻辑推理明显有问题。我觉得这道题应该是无解才对。ChatGPT 答案也不对。但DeepSeek “5=1” 错得太离谱。而且不稳定。
用纳米AI搜索里面集成了deepseek,很快的
但B站上有人说纳米AI 搜索的满血版还是不如 Deepseek 本体厉害
纳米那个不是满血版本,可以去硅基流动平台上用满血版本的。
@扶苏-h3q 哦,是吗?
我试了下纳米那个语言模块,让它用家乡话说一句话,它用国语发音读我的家乡话,笑死我了....😅
看集成的是本体Ds,还是Ds蒸馏输出的更小版本。
Deepseek家的实际上都是文本,他那个图片就是个其他模型的ocr+提示词。
7:30 当假设1=5的时候等号是设定有方向的,等于重构了等号的用法,到后面就不能用纯数学的等号的意义来解释了。deepseek实际上在这一局落败了
DeepSeek “5=1” 错得太离谱。
可能是语言翻译的问题,汉语思维和英语思维的区别、看起来o3 mini已经超出
真正的较量才刚刚开始,革命尚未成功,同志仍需努力。
一年以后ds肯定没有人再提起,看看5G吧。
@@qwer-gg1cx 确实,DS是开源的,后面会有更多更好的开源模型涌现。开源低价的AI和太阳能,电动车,锂电池本质是一样的。
@@秦鹏飞-d2r ds本质上是gpt的一种改进,没有什么真正的创新。
太開心了。競爭起來。消費者受益!
1=5那道题的意思是1x=5,2x=15,3x=215,请准确理解好题目。
国内有时候GPT打开都困难,海外访问deep seek肯定也慢
昨天的今天的昨天的大前天的前一天是哪一天?
我试过这个题目是比较简单的逻辑推理题,就是加减法的问题,r1都能答对,但是o3-mini无法答对…
8:52
ChatGPT其實也提出了七種
可惜不知道怎麼推你上去,很多人對數字比較敏感,就斷定gpt錯了
不错,o3 mini 编程能力这么强,可以解决很多工作问题了
openai这个就是剽窃deepseek的,x上奥特曼的推文都有人发出出现英文夹着中文的解答
文心不是出来个Max的模型,号称超过现在所有的模型了,应该一起测的呀
所謂o3mini 會不會就是用Deepseek 開源模型新訓練出來的?
o3去年就可以用了。是這兩天才完全開放給大眾使用。
自信点,把会不会去掉。
@ 嗯今年的抄去年的一點都沒錯。
ds是从gpt训练出来的。
@qwer-gg1cx o3mini會像Deepseek那樣顯示推理過程,
是之前的模型沒有的。所以才有抄襲Deepseek 模型的疑惑
為何不試一試馬斯克那個AI?
Grok? 😂😂😂
@@fannyalbi9040 是,每兩小時給5個答案。
那个很拉胯!不用试!
Ds老是服務繁忙,這很明顯是算力滿載了是不是缺少高端晶片問題
Deep Sick之所以每次都慢一拍其實應該是說他學得很快,因為當03解出答案後它才開始以別人的答案作參考作答。
DS還是比較好用,DS有防沉迷功能,用一下就會出現服務器繁忙中,這樣可以防止使用過度,也可以提醒自己要起來動一動,相反CHATGPT可以一直用很容易就使用過度導致身體健康受到創傷,所以個人還是比較推薦DS,能一邊使用AI 一邊照顧你的健康,這是目前還沒有一款AI能取代DS這個防沉迷功能的。
公立医院永远是最忙的, 想不等去私立医院🤣🤣🤣🤣
@ 部署本地也不是人人都可以,很不方便,也不是每個人硬體設備都那麼高級,相比網頁打開就能用的話,DS就顯得不方便,也不親民😅
你也不看美国IP一直在攻击ds
原來一直卡算是優點喔笑死
@@ZjjzMamaya 說的好像中美沒有互毆XD 中國駭客世界聞名,說穿了就是沒有維運實力,這個不能怪人,要搞IT本來就要有資安能力,遊戲公司被D斷線能怪駭客? 玩家誰理你......... 只會覺得你維運服務沒做好,遊戲公司是要自己賠償玩家的,而不是推給DDOS,你應該不是IT界的吧? 否則不會說出這種推卸責任的話。
DS本來就是抄來的根本無法超越GPT好嗎😂
不然你叫中共政府拆了牆?
在牆內一堆文字都還要用英文代替(例:政府)
你說這樣的自我審查下能進步出高科技?
在壓力下被迫o3-mini 免費
Ling DU: 你好! 我是个年迈的老观众,几年来从你视频中受益多多,谢谢你的关照!想问:微软今年会出新版的 windows 12吗? 谢谢!
回复
问“王”字有几横几竖,第一次回答正确之后让他们再数数
ds正确 三横一竖,op的答案是三横四竖.无语
1=5那个提问本身就有问题。你不说明白=左边的数字是等值性质,而不是索引性质。正常情况下都会把1当成一个索引(abcd)而不是数位的等值😅
编辑:你要搞清楚,你问的是个数学问题,不要搞那些掉价的中式脑筋急转弯😅
我对这些逻辑比兴趣不大, 只求哪个好心人开发语音辩识包和语音发声包给deepseek, 再开发成老婆.. 打错了是秘书, 不香吗😂
试了下马的那个问题,国内有名的AI,除DeepSeek外,kimi、天工、智谱清言、通义、文心一言、腾讯元宝、讯飞星火和豆包这些的结果,都是7种。然后最后我又去chetGPT问了下,结果也是7种。所以还争什么?
很明显视频没做完,不严谨,还不如不发
那么那道题DEPSEEK给出的第七种答案到底是不是正确的呢?
是正确的。
错的,是6种
@@扶苏-h3q 題目沒有說每種馬都要用,就跟你去馬場借100隻馬,馬場裡有3種馬給你選,沒人迫你要每種都選
DeepSeek 的图片功能暂且只支持图片 OCR(文字识别)
GPT的回答总结:总结
脑筋急转弯思路:答案取决于题目给出的“1=5”,所以“5=1”。
数学逻辑推理思路:通过数字拆分和归纳,得出“5=21485”。
有一說一,沒有偏袒,我還是比較認同零度的,而且他也說到重點了,
大家都受益於競爭的結果,原本高、貴的gpt要降價啦。
如果加入個人情緒,我相信我會直接轉台。1個小時的觀看次數比人家3小時還多一倍,可見零度還是有獨特的見解。
我问了一下3.11和3.8谁更大,openai联网+推理都还是3.11大
我问了deepseek,它说如果是日期那么3.11大,如果是数字,3.8大
11比8大😆
之所以出现这种情况,是以前的AI不知道人类将3.80后面的零省略了。现在中国全部AI都已经改正了,知道人类将3.80后面的零省略了。但洋人的效率非常差,还没有修改模型。
我问了Deepseek 同样的问题 它说3.11 大 你自己可以去试试😂😂😂 ChatGPT 4O 错了, O 系列版本都对
有人胡说八道。DS说数值场景,3.8是更大的数。软件版本场景,3.11是更新的版本
对从业者有帮助,其实作用也不大,毕竟服务器要求不低,80G起也20万+,但是随着本地的不断升级,淘汰从业者也会更多,所以两台160G的服务器是必须的,可以迭代使用,100万的成本可以不断提升工作效率。
买API啊,deepseek的API超便宜。
5:44,我聽到(這殺曉)哈哈哈,零度是閩南人嗎?
超好笑我有聽到
他说自杀一下
我问了国内一个小学问题:三角几何两书共七角,三角三角几何几何?只有DS完全理解并给出正确答案,其他几个都错了,中文理解方面DS完胜!
不得不承认,DS的中文理解能力超过我这个土生土长的中国人。
“三角几何两书共七角”看一遍就懂,就是“三角 三角几何 几何”看到现在都不知道是何意思,恳请解惑。
用中文還是V3R1強太多
图片上传不了是因为接入了360防护
中文环境下deepseek自然会更顺手,因为他训练的数据大部分是中文数据。但是AI的强弱反应在训练数据和算力上,感觉chatgpt未来还是要排在的deepseek前。
未来deepseek还在不在都不知道..
用中国的云,很多支持了,速度超快
DS从来没有说过自己比gpt4o强,但是它让o3出来了。
deepseek讓nvidia股價大跌😅,deepseek讓o3出來😅,那沒有deepseek出來之前,誰讓chatgpt出來的呢😅。
你問問deepseek看看它怎麼說
@Jordan勇豪668 google