人工智能聊天机器人已经学会了善恶之间的区别

2023-05-16 10:51 栏目:行业动态 来源: 查看()

Anthropic 的Claude AI 可以通过“构建”制定一套道德原则,并处理书本大小的提示。

人工智能聊天机器人已经学会了善恶之间的区别

人工智能生成的图像

由于人工智能(AI) 经常会创建虚构和令人反感的内容,因此由前OpenAI 研究人员领导的公司Anthropic 正在规划一条不同的路线,以开发一种可以在最少的人为干预下辨别善恶的人工智能。

Anthropic 的聊天机器人Claude 受到《世界人权宣言》 的启发,设计了一个独特的“结构”——一套确保道德行为和强大功能的规则,以及其他“道德”规范,例如Apple 的应用程序开发人员规则。

然而,“宪法”的概念可能比字面意义更隐喻。 Jared Kaplan 是OpenAI 的前顾问,也是Anthropic 的创始人之一,他告诉Wired,Claude 的体格可以转化为一组特定的训练参数,所有训练员都使用这些参数来模拟AI。这意味着该模型有一套不同的考虑因素,使其行为更符合章程,并使令人沮丧的行为被认为是有问题的。

Anthropic 的训练方法在一篇名为“Constitutional AI: Harmless from AI Feedback”的研究论文中有所描述,该论文描述了如何创建“无害”但有用的AI。识别不当行为并调整自己的行为。

该公司在其官方网站上表示:“感谢Constitutional AI 和Harmless 培训,您可以相信克劳德代表公司及其需求。” “克劳德受过训练,即使是不愉快或恶意的谈话伙伴也能从容应对。”

特别是,Claude 可以处理超过100,000 个信息令牌,远远超过ChatGPT、Bard 或任何其他现有的大型语言模型或AI 聊天机器人。

人工智能聊天机器人已经学会了善恶之间的区别

在AI 中,“令牌”通常指的是模型将其视为单个单元的数据块,例如单词或字符。克劳德的令牌能力使他能够管理范围广泛的对话和复杂的任务,使他成为AI 领域的强大存在。你可以很容易地给整本书作为上下文的提示,这本书就会知道该怎么做。

人工智能和善与恶的相对论

对人工智能伦理的关注是一个紧迫但微妙和主观的领域。如果模型的规则不符合更广泛的社会规范,人工智能培训师解释的道德规范可能会限制模型。过分强调培训师对“好”或“坏”的个人看法会削弱人工智能产生强烈、公正反应的能力。

这个问题在AI 爱好者中引发了激烈的争论,他们对OpenAI 参与其模型以使其在政治上更正确的行为表示赞赏和批评(根据他们的偏见)。无论听起来多么矛盾,AI 都必须使用不道德的信息进行训练,以区分道德和不道德的信息。如果AI知道了这些数据点,人类必然会想办法“越狱”系统,绕过这些限制,达到AI训练师极力避免的结果。

人工智能聊天机器人已经学会了善恶之间的区别

克劳德对道德框架的实施是实验性的。旨在避免不道德提示的OpenAI 的ChatGPT 也产生了喜忧参半的结果。但正如Anthropic 所展示的那样,正面解决聊天机器人的道德滥用问题的努力是AI 行业向前迈出的重要一步。

克劳德的道德训练侧重于维护自由、平等、兄弟情谊和尊重个人权利,鼓励他们选择符合宪法的回应。但人工智能能否始终如一地选择道德回应?卡普兰认为,这项技术远远超出了很多人的预期。 “它以一种简单的方式工作,”他上周在斯坦福MLSys 研讨会上说。 “它的纯真通过这个过程得到改善。”

人工智能聊天机器人已经学会了善恶之间的区别

使用构造AI(灰色)与标准方法(颜色)的模型的有用性与良性比。图片:人类学

Anthropic 的Claude 提醒我们,AI 开发不仅仅是一场技术竞赛,而是一场超越创造更“智能”AI 的哲学之旅。对于尖端研究人员来说,创造能够理解是非的线性AI 是一项挑战。

微信二维码
售前客服二维码

文章均源于网络收集编辑侵删

提示:仅接受技术开发咨询!

郑重申明:资讯文章为网络收集整理,官方公告以外的资讯内容与本站无关!
NFT开发,NFT交易所开发,DAPP开发 Keywords: NFT开发 NFT交易所开发 DAPP开发