评论: Nvidia:DeepSeek日后会需要更多AI晶片
只有登录用户才能发表评论,
点击此处
登录
返回新闻帖
xiaoxiao雨
发表评论于 2025-01-28 10:40:42
My impression no company here cut corner.
湾区范儿
发表评论于 2025-01-28 10:05:51
别忘了中国十多年前研制成了最先进的汉芯芯片,结果呢?
蓝天大地
发表评论于 2025-01-28 08:45:50
这是显而易见的。
DS只不过是个Distill流程而已。我对软件编程一窍不通,但却对3D建模感兴趣。
最近在做一个地球模型玩,于是我花了很大的时间和资源(create a mesh,UV mapping,material,shading,geometry modification,etc.)把这个地球做出来了。
但我的牌友跟我说,这个地球上的澳洲地区森林覆盖面不够广,要再加点绿色。他就把我的模型拿过去,用shading nodes加了点绿色,使我的这个地球更漂亮些了。这个地球就是ChatGpt,这个朋友做的就是DS。
但是,如果我不把这个地球模型给他,他就不能让这个地球更漂亮。所以,DS根本不算什么。
所以说,DS对NVDIA的芯片根本没有影响,华尔街那帮人不懂技术,过一阵子NVIDIA的股票就会涨回来。因为,pre-training & post-training,任然需要很多的芯片。
更进一步说,类似DS的东西有可能反而会更加推进对NVIDIA芯片的需求。DS最大的贡献在于细分化(segmentation),这就给跟多专业的细分化公司提供了机会。它们单个公司所需要的芯片也许不多,但是如果有很多各类做细分化为专长的公司出现,那么累计起来对NVIDIA芯片的需求还是会越来越大。
所以,我继续看好NVIDIA,ChatGpt这类公司的前途!
cyte
发表评论于 2025-01-28 08:39:12
jw2009 发表评论于 2025-01-28 06:27:50据说DS使用了5万张H100显卡,但是他们不能承认,因为怕招致美国加紧封锁。
这种可能性不大,太容易调查了!CIA不吃干饭的。
大河边的人
发表评论于 2025-01-28 07:17:20
Ai 这孩子才3,4岁,就不想多给一点功能强大的芯片,让它成年办更大的事吗?
jw2009
发表评论于 2025-01-28 06:27:50
据说DS使用了5万张H100显卡,但是他们不能承认,因为怕招致美国加紧封锁。
偶偶地来一发
发表评论于 2025-01-28 05:44:41
日后二字用的巧妙,就是说现在赚不到钱了。赚不到钱就拉不到资本,资本没有耐心,不可能等你的。
卡中国脖子这事,再找一个赛道吧,芯片方面不行了。原因是低端被打成白菜价,因成本问题赚不到钱去投资高端,后继乏力,很快就被追上。
歪理壹箩筐
发表评论于 2025-01-28 05:04:26
既然deep seek以算法设计取胜,开放了设计方法和程式的新技术,会被具有更强算力的美国AI大家吸收,仍然具备更强的竞争力呀!
惟有英伟暂时性市场需求下降而已。
ca_lowhand
发表评论于 2025-01-28 04:49:00
deepseek 都可以在华为的烂芯片上跑的不错,还要用女大死贵的高档芯片干什么
gameon
发表评论于 2025-01-28 03:26:52
说的没错。但因为现在人家DS闯出一个用算法解决算力才能解决的问题新思路,以后各AI公司就不一定会用昂贵的英伟达,而可能用伟达英,达伟英出产的低配芯片,导致英伟达落下神坛是有可能的。
荒野猎人
发表评论于 2025-01-28 03:18:00
只要对芯片进行出口管制,中美ai之争,获胜的肯定是美方!虽然deepseek表现优异,但是由于受到中国政府的审查,它的缺点也很明显!
荒野猎人
发表评论于 2025-01-28 01:17:00
请问deepseek用的是什么芯片?deepseek:截至我的知识更新日期(2024年7月),我无法提供关于DeepSeek使用的具体芯片信息。如果你需要了解DeepSeek的技术细节或硬件配置,建议访问其官方网站或联系其技术支持团队以获取最新信息。你可以访问 [***deepseek***](***deepseek***) 了解更多。
荒野猎人
发表评论于 2025-01-28 01:12:00
DeepSeek利用较少且不够先进的芯片训练出了媲美ChatGPT的模型。DeepSeek在一份技术报告中称,它使用超过2000个英伟达H800芯片集群来训练其参数为6710亿的V3模型,而Meta训练参数量4050亿的Llama 3,用了16384块更强的H100显卡,花了54天。Deepseek的训练效率为Meta的11倍。DeepSeek表示,训练其最新模型之一的成本为560万美元(约合人民币4100万元)。相比之下,人工智能开发商Anthropic的首席执行官达里奥·阿莫迪 (Dario Amodei )去年提到的建立一个模型的成本为1亿至10亿美元。CNBC曾发文称:“DeepSeek-R1因其性能超越美国顶尖同类模型,且成本更低,算力消耗更少,引发了硅谷的恐慌。”但王话锋一转,谈到了中国人工智能企业可能为人工智能模型配备的GPU数量。他称,“中国的实验室拥有的H100芯片比人们想象的要多得多。”他补充道, “据我了解,DeepSeek拥有大约五万块H100芯片。”王认为,因为违反了美国实施的出口管制,所以DeepSeek不能谈论这些。英伟达的Hopper架构GPU如H100和H200,因其优秀的算力,出口受到美国政府的管制。拜登政府于2022年通过一项规定禁止英伟达向中国出售性能远超其旧款GPU A100 的GPU系列,迫使英伟达开发了名为H800和A800的性能削减版芯片用以替代,但一年后的2023年10月,这两款芯片也一并被禁止。目前,英伟达已在推广其最新一代Blackwell架构的GPU,其出口依然受到限制。王将中美之间的人工智能竞赛描述为一场“AI战争”,并补充道,“美国将需要大量的计算能力和基础设施,我们需要释放美国的能量以推动这场AI繁荣。”
maina
发表评论于 2025-01-28 00:18:41
短期来说在资金一定的不变的情况下,在芯片上的投资比例会下降,在寻找更高效模型上的资比例会增加。长期来说,AI的突飞猛进会吸引更多的资金进入这个行业,包括硬件和软件。
novtim2
发表评论于 2025-01-28 00:11:29
DeepSeek用事实证明通过提高模型的设计,可以把计算量指数级的降低。可以用百分之一的算力达到同样效果。关键是这个趋势如果持续,对GPU算力需求就会大幅下降。至少可以说硬件不再是AI的瓶颈,而好的模型才是瓶颈。
TitaniumAtlas
发表评论于 2025-01-27 23:43:00
大实话,但短期内需求还是会减缓的,长期来看门槛降低市场只会更大
竞选
发表评论于 2025-01-27 23:12:37
中国人很聪明,完全没必要出国留学,国外的教授真的很蠢,向他们学不到什么东西。
页次:
1
/1
每页
50
条记录, 本页显示
1
到
17
, 共
17
分页: [
1
]