OpenAI创始人回应马斯克批评:ChatGPT确实不应有偏向性

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

对埃隆·马斯克对ChatGPT的批评,OpenAI联合创始人兼总裁Greg Brockman在本周接受采访时承认,公司“犯了一个错误”。

马斯克作为OpenAI最初的联合创始人,后来他与公司的关系冷淡下来。马斯克经常嘲讽OpenAI变得不“Open”(开放),失去了原本非盈利性的初衷。他还批评OpenAI对聊天机器人实施了保护措施,以防止其回复一些可能被视为具有冒犯性的问题。

在本周四(3月9日)发布的一项采访中,Brockman回应称,“我们犯了一个错误:我们所运作的系统并没有反映出我们本身的价值观…我们没有足够快地解决这个问题,所以我认为这是对我们的合理批评。”

局限和缺陷

马斯克对OpenAI的现状一直表现地非常不满,他曾在推特上公开发声道,“OpenAI最初是作为一家开源的非营利性公司而创建的(这就是为什么我把它命名为OpenAI),旨在抗衡谷歌,但现在它已经成一家闭源的营利性公司,并由微软有效控制……这完全不是我的本意。”

去年底,在OpenAI刚推出ChatGPT不久,马斯克就曾批评过这项技术,称“唤醒人工智能,换句话说,训练其撒谎,这有着致命性的危险。”

随着越来越多的用户涌向ChatGPT、必应等聊天机器人,它们的局限性和缺陷已经暴露出来。

不少用户批评ChatGPT等聊天机器人生成的答案带有政治偏向。

例如上个月,推特上流传的一段ChatGPT对话截图显示,该聊天机器人拒绝生成一首赞扬唐纳德·特朗普的积极诗歌,并表示它不是用来创作“党派、偏见或政治”内容的。但当同样的提示换成美国现总统乔·拜登时,ChatGPT写了一首热情洋溢的诗。

对于该事件,马斯克指责到,聊天机器人拒绝创作一首关于特朗普的诗是“一个严重的问题”。

作为回应,一些开发商为这项AI技术添加了一些防护机制。

在微软发布基于AI的必应聊天机器人后的一个月里,该公司对聊天机器人设置了对话限制:用户每天最多可以问50个问题,每次最多可以问5个问题。此后,该公司稍稍放宽了这些限制。

根据Brockman的说法,ChatGPT也在不断改善中,这个AI平台还将在未来继续发展。

Brockman称,“我们的目标是让人工智能不带有任何特定偏向…我们希望OpenAI的默认人格是平等对待各方的人格。我认为我们还没有完全做到这一点。”

查看评论(0)