评论: ChatGPT 有多烧钱?大模型训练一次 200-1200 万美元

只有登录用户才能发表评论,点击此处登录    返回新闻帖
这是病得治 发表评论于 2023-02-20 09:21:42
"对输入语言的理解"。GPT对语言没有理解拜托


__________
shakuras2000 发表评论于 2023-02-19 11:43:20
chatgpt和以前其他AI产品不一样,非常的有实用价值

但是这个充其量就是一个大语言模型,强项是在数据总结,对输入语言的理解,和对输出语言的组织,不要把它当成智商有多强。
softguyus 发表评论于 2023-02-19 21:07:25
ASK:韩梅梅喜欢画画,她的儿子也是。李华是韩梅梅唯一的儿子。所以李华喜欢画画吗?
根据题目描述,可以得出以下逻辑推断:

ChatGPT:韩梅梅喜欢画画。
韩梅梅的儿子喜欢画画。
韩梅梅只有一个儿子,即李华。
基于以上信息,可以推断出李华是韩梅梅的儿子,而且韩梅梅的儿子喜欢画画。因此,可以得出结论:李华喜欢画画。
不允许的笔名 发表评论于 2023-02-19 18:54:06
A100就是训练时候用,inferencing的时候并不需要A100.
vincentsjtu 发表评论于 2023-02-19 18:09:00
全民参与训练机器人的时代来临了,感谢地球人每天花那么多时间和机器人聊天,帮助机器人快速成长
theriver1 发表评论于 2023-02-19 15:03:46
如果将当前的 ChatGPT 部署到谷歌进行的每次搜索中,需要 512820.51 台 A100 HGX 服务器和总共 4102568 个 A100 GPU,这些服务器和网络的总成本仅资本支出就超过 1000 亿美元。
---------
谷歌已经开始向ChatGPT转型了,估计要50万台服务器,这下台积电又要开足马力大赚特赚了。
theriver1 发表评论于 2023-02-19 14:59:36
以 ChatGPT 在 1 月的独立访客平均数 1300 万计算,其对应芯片需求为 3 万多片英伟达 A100 GPU,初始投入成本约为 8 亿美元,每日电费在 5 万美元左右。
--------
OpenAI不可能大规模使用A100,否则成本太高。它一定是大规模使用A100的升级版本H100,后者比前者的算力高3到4倍,因为采用台积电的5纳米工艺,耗电量成倍减少。
flapjack 发表评论于 2023-02-19 14:23:23
人的大脑是也应该是收集原始信息,通过学习判断总结得出结论。Google 就是也只不过是为第一步收集原始信息提供了方便。而chapgpt则是要取代大脑对信息处理的整个过程。一个人为什么有自己的大脑不用而依赖机器?
shakuras2000 发表评论于 2023-02-19 11:43:20
chatgpt和以前其他AI产品不一样,非常的有实用价值

但是这个充其量就是一个大语言模型,强项是在数据总结,对输入语言的理解,和对输出语言的组织,不要把它当成智商有多强。
zhanglao9 发表评论于 2023-02-19 11:24:08
ChatGPT其实在技术上并没有什么创新,模型一年前就出来了。ChatGPT给人耳目一新,主要是不犯政治正确的错误,那些肯尼亚人有很大的功劳。不要小看那些肯尼亚人,人家是给美国大学生代写作业和考试的专业户,以后这些工作,肯定会被人工智能替代。
Radianz 发表评论于 2023-02-19 11:10:59
五名说这就是美国渲染,没什么了不起。 是不是里程碑似创新,越来越清晰。 呵呵,拭目以待。
zhanglao9 发表评论于 2023-02-19 11:06:10
以前的聊天机器人,都有一个致命的缺点,就是乱讲话,在中国是反习反党反华反人民,在美国是政治不正确。ChatPGPT就找了很多便宜的肯尼亚人工,把反面教程都标注出来,强化ChatPGT的后期训练,很好的解决了问题。中国的聊天机器人,如果想弯道超车,必须活学活用习近平思想,回答每个问题之前,都要温习一下习近平思想,这样就可以保证成功。
七戒 发表评论于 2023-02-19 11:04:10
这么烧钱的东东中国土共的举国体制还是应对得起的,只是拿再多钱也换不到芯片了。
黑嘿潶,一想到这儿俺就忍不住笑出声来!哈哈哈!
页次:1/1 每页50条记录, 本页显示112, 共12  分页:  [1]