评论: 马斯克:AI毁灭人类的可能性很小 但非不可能

只有登录用户才能发表评论,点击此处登录    返回新闻帖
兔比兰伯王 发表评论于 2023-05-26 11:24:49
其实我们生活的世界,就是高级AI创造出来的虚拟世界!

人类在100,004年前就被灭了!

为什么是100004年前呢?因为四年前有人告诉我的:)
兔比兰伯王 发表评论于 2023-05-25 11:46:38
其实我们生活的世界,就是高级AI创造出来的虚拟世界!
泥川 发表评论于 2023-05-25 09:42:23
AI不能做:观察,实验,制造,测试,从实体世界获得知识,改变实体世界。 AI的知识,现在都是靠人喂。AI能做的,人都能做,AI不过快一点。人能做的,很多AI还不能做。 AI也就是一个大知识库,把人类知识压缩到一个模型里,通过提示词,AI把知识再释放出来。

现在的AI,只是一种自回归大型语言模型,这种技术路线到底能走多远,它的上界在哪,现在难说,不过肯定是有天花板的,一个明显的局限是没有实时记忆,除了重新训练整个模型,无法吸收新知识。
不允许的笔名 发表评论于 2023-05-25 08:22:00
一旦达到singularity,AI智商会迅速甩开人类,可能几天内达到数百甚至超越想象。那种情况下AI可能对人类失去兴趣,只要人类不念叨把AI电源,AI不会太在意人类,对比正常人对猴子的态度,差不多。
hkzs 发表评论于 2023-05-25 00:38:28
法办马斯克。
del_rio 发表评论于 2023-05-24 22:33:22
AI自我主动毁灭人类的可能性很小, 但一些人利用AI毁灭人类的可能性很大
exception1 发表评论于 2023-05-24 22:00:50
不讲时间跨度,任何可能性就是废话。人类10年内毁灭接近零,10万年内毁灭接近肯定。

除了AI,还有核弹,气候,撞击,疾病...... 都是如此
maina 发表评论于 2023-05-24 21:49:00
毁灭人类不太可能,淘汰人类是可能的,相当于一小部分猴子进化成了人类,利用手中的工具和机器管理包括猴子在内的所有动物,以后就是一小部分的人类进化成了超人,利用AI管理包括人类在内的所有动物。
Timberwolf 发表评论于 2023-05-24 20:55:28
AI就相当于80年前的原子弹,不过AI毁灭人类的可能性比原子弹要大一千个数量级。
页次:1/1 每页50条记录, 本页显示19, 共9  分页:  [1]