简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

文章来源: ettoday 于 2025-10-13 02:35:24 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(5)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

李承鹏:中国社会各阶层分析和黑暗森林的火种
哈佛教授居家照护患病妻子11年:把私人痛苦活成公共的光
一场烟花秀,把县委县政府领导班子“一窝端”了
中国对特朗普亮出最强底牌,妙招还是昏招?
美媒曝光多地青年共和党领导人聊天消息:2900多页




24小时讨论排行

机场排队2小时 中国大爷怒斥:不把中国人当人看
30分钟获利2亿美元,特朗普赚黑心钱?百万人爆仓
意义重大:陈志的12.7万枚比特币是怎样被没收的
美国批中国实施稀土出口限制 ,称与全球对抗
中国大V反智言论愈发猛烈,世界人民都笑了
为何不拦委附近海域“贩毒船”?特朗普:他们船速更快
美破柬诈骗集团 中国首脑在逃 照片曝光
港媒:仿效社会主义中国 美国也要搞计划经济了!
26岁女模被骗到缅甸园区 业绩不达标遭活摘器官惨死
印尼防长:将采购中国歼-10战斗机
各大媒体记者交证撤离五角大楼 打包走人画面曝
被美制裁怕了?柬园区多公司突解散 上千人连夜撤
14岁女遭同班男生刺死 女孩家长曾接送男孩上学3年
柬埔寨太子集团是中共打手!起底惊人背景
逼员工接客400人!21岁女店长照片曝光 网震惊
美国重大转向!川普效法北京新策略:入股7产业抗中
文学城新闻
切换到网页版

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

ettoday 2025-10-13 02:35:24


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。