AI学习的能耗与人类比一下(老键定律)

AI证明是件不错的工具,尤其写程序,写现代诗歌不敢恭维,就这样了,再说点啥好呢?对了,马斯克说人的大脑思考时功率是20瓦,比我猜想的要高一些,人们都说现在的AI大语言模型训练起来极耗能,譬如Chat GPT-4 的训练耗能看介绍在10到50兆瓦小时GWh,相当于两千到一万户悉尼人家的全年用电量, 取40GWh好了。于是有了点好奇,这AI耗能和人脑比究竟如何?

估算一下不难,gpt-4的训练量据报是数万亿字(有精确数字的请告知),算十万亿吧(10,000,000,000,000)。人类学习以读书为例比较易算,一本英文书大概5万到10万字,取中值7万5,算一个月读一本,一年12本书是900,000字,一个人几乎一生都在学习,算10岁学到70岁,两头效率低,平均一年算500,000字吧,一生60年有效学习总计3千万字(30,000,000)。

如此,gpt-4的训练量大约相当于33万人一生的学习量。

现在来算这么些人学习的能耗,假设一个人一天花7小时学习,一年学习300天,那么60年学习的耗能是

60年×300天×7小时×0.02千瓦= 2,520千瓦小时(kWh),看起来不赖,才一户人家半年的能耗 。

然而,333万人的学习总耗就不低了,那是839,160,000kWh,也就是839兆瓦小时(GWh), 与gpt-4的40GWh比,要高21倍。

所以即使拿今天如gpt这样的高能耗AI模型来说,其单位能耗的学校效率也要比人类高21倍,而deepseek的能耗据说只是gpt的几十分子一。

希望没算得太离谱。如果基本站得住脚,"老键定律"就呼之欲出了呵呵

一个主流大语言模型

1。起码相当于333万知识阶层人脑

2。学习速度起码比这么些人(总和)快20倍( 3年vs60年)

3。能效起码比这么些人(总和)高21倍

登录后才可评论.