越来越多的企业意识到,AI存在巨大风险

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



根据研究公司ArizeAI的一份报告,《财富》美国500强企业中有281家将人工智能列为风险因素,这一比例高达56.2%,相较于去年仅有49家企业提出警告,增幅高达473.5%。

报告称:“如果说《财富》美国500强企业的年度报告能说明一件事的话,那就是许多行业都感受到了生成式人工智能的影响——即使是那些尚未拥抱这项技术的行业。鉴于大多数企业在提及人工智能时都将其作为风险因素,因此企业确实有机会通过突出自身的创新并提供如何使用生成式人工智能的情境来脱颖而出。”


毋庸置疑的是,警告数量的跃升也与2022年底OpenAI发布ChatGPT之后,人们对人工智能的认识和兴趣也出现了爆炸式增长相吻合。提及人工智能的公司数量猛增了152%,达到323家。

现在,人工智能已完全引起美国企业的关注,其风险和机遇也逐渐成为人们关注的焦点,各公司纷纷披露它们认为潜在的负面影响来自何处。

但有些公司比其他公司更担忧。根据Arise的数据,媒体和娱乐行业是最为紧张的,该行业91.7%的《财富》美国500强企业认为存在人工智能风险。随着表演者和公司都在寻求防范这项新技术,人工智能已经在整个行业蔓延开来。

流媒体巨头网飞(Netflix)在其年度报告中表示:“包括生成式人工智能的开发和使用在内的新技术发展正在迅速发展。如果我们的竞争对手通过使用这些技术获得优势,那么我们的有效竞争能力和经营业绩可能会受到负面影响。”

好莱坞巨头迪士尼(Disney)表示,“尚未确定”管理生成式人工智能等新技术的法规,最终可能会影响其知识产权使用的收入来源及其制作娱乐产品的方式。


Arise表示,86.4%的软件和科技公司、70%的电信公司、65.1%的医疗保健公司、62.7%的金融公司和60%的零售商也发出了警告。

相比之下,只有18.8%的汽车公司、37.3%的能源公司和39.7%的制造商发出了人工智能风险警告。

这些警告也来自那些将人工智能纳入其产品的公司。摩托罗拉(Motorola)表示:“人工智能可能不会始终按预期运行,数据集可能不充分或包含非法、有偏见、有害或攻击性信息,这可能会对我们的经营业绩、商业声誉或客户对我们人工智能产品的接受度产生负面影响。”

赛富时(Salesforce)指出,人工智能及其提供客户的客户信息的Customer 360平台:“如果我们赋能或提供的解决方案因其对人权、隐私、就业或其他社会环境的感知或实际影响而引起争议,那么我们就可能会面临新的或强化的政府或监管审查、品牌或声誉损害、竞争损害或法律责任。”

在网络安全和数据泄露方面,人工智能也被视为一种风险。事实上,最近举行的Def Con安全会议强调了人工智能在网络安全方面的重要性。


与此同时,6月份发表在《酒店营销与管理杂志》(Journal of Hospitality Market and Management)上的一项研究发现,如果产品被贴上“人工智能”的标签,消费者对购买该产品的兴趣就会降低。

这项研究的作者之一、华盛顿州立大学(Washington State University)卡森商学院酒店管理教授多甘·古尔索伊(Dogan Gursoy)表示,需要说服消费者让其相信人工智能在特定产品中的好处。

“很多人都会问,‘为什么我的咖啡机需要人工智能,或是为什么我的冰箱或吸尘器需要人工智能?’”他本月早些时候对《财富》杂志表示。

闲看江湖 发表评论于
赞成!令胡冲

这就是科学伦理道德方面的潜在问题了!抬头看夜空几乎无限的星云都是被限制在有限的空间内运动的。如果人类的AI技术的会导致结果是无序未知且不可控,还是悠着点吧!大到地球,中到国家,小到企业个人都应该如此。比如,股票投资决策你听信的大数据AI的决策意见而导致的投资行为的失败。那这个乌龙对企业或个人就太大了!
令胡冲 发表评论于



如今的大模型,任何稍有一点专业常识的人都可以用它十倍百倍加速微型核武器或致命病毒的飞速研发。只要你会问,它就真会给你一步步答案和选项。更不用说美国国防部先进武器实验室了。现在俄乌战场上,有一半多杀人攻击任务是依赖AI视觉和自动锁定的自杀式无人机完成了。你可以想象未来的弹药全是AI驱动自动锁定不杀不罢休的智能武器。AI远比任何核武器和生化武器都危险。而且风险不可控不封顶。



令胡冲 发表评论于



任何技术进步都是双刃剑:利益与风险并存。所以没有自我毁灭的文明极少。这就是为什么宇宙中漆黑一片,没有高等文明。


人也是这样:能力越强,风险越大。
闲看江湖 发表评论于
AI技术不一定是万灵的摇钱树!对这位大神还是要有些敬畏之心的。九十年代初接触该技术领域,至今不敢涉猎其中,个人能力有限,远观吧!
闲看江湖 发表评论于
任何新技术的出现都是一把双刃剑,只是AI技术不仅仅存在明显的科学伦理道德问题,甚至还存在巨大的社会和商业灾难风险。譬如由于AI车辆自动控制驾驶测量和算法功能的缺陷造成的交通人身伤害事故和交通拥堵及联锁发生二次伤害事故的法律责任由谁来负责的问题是显而易见的。所以,盲目无序的强推新技术的应用是存在巨大的社会风险和商业风险的。在法律上就应该对未经验证绝对有效且受控的AI技术应用采取强令禁止的法律措施。以避免潜在的巨大的社会和商业风险。(即你无法证明在任何情况下绝对有效就禁止使用的原则来杜绝所有潜在的不可靠的社会风险与商业风险)这也是在美欧西方没有AI自动驾驶仪的根本原因所在。既你不证明绝对可靠就禁止的原则。就是在法律界常讲的没说容许就是禁止的意思。当然学术是没问题的。