OpenAI:人工智能将在 10 年内“在大多数领域超过专家技能水平”

2023-05-24 10:38 栏目:行业动态 来源: 查看()

如果您认为ChatGPT 是智能的,请等到您听到OpenAI 对“超级智能”AI 的愿景。

OpenAI:人工智能将在 10 年内“在大多数领域超过专家技能水平”

图片:Shutterstock

超智能AI来了。

OpenAI 首席执行官Sam Altman,OpenAI 总裁Greg

Brockman 和OpenAI 首席科学家Ilya Sutskever 共同撰写的一篇博文警告说,人工智能的发展必须受到严格监管,以防止出现潜在的灾难性情况。

“现在是开始考虑超智能治理的好时机,”Altman 说,他承认未来的AI 系统在能力方面可能会大大优于AGI。 “鉴于我们现在所看到的情况,你可以想象在未来10 年内,人工智能系统将在大多数领域超越专家技能水平,并执行与当今一些最大的公司一样高效的活动。”

为了回应奥特曼在最近的国会作证期间提出的担忧,他概述了他认为对未来战略规划很重要的三大支柱。

“起点”

首先,OpenAI 认为必须在控制和创新之间取得平衡,并正在推动一种社会共识,即“让这些系统在保持安全的同时与社会无缝融合。”

接下来,他们提倡一个“国际机构”的想法,负责检查系统、管理审计、测试是否符合安全标准以及约束部署和安全。将其与国际原子能机构进行比较,国际原子能机构提出了全球人工智能监管机构的样子。

最后,他们强调需要“技术实力”来遏制超级智能并保持其“安全”。即使对OpenAI 而言,这意味着什么仍然模糊不清,但该帖子警告称,许可和审计技术等繁琐的监管措施不符合超级智能标准。

从本质上讲,这个想法是让超级智能与培训师的意图保持一致,防止出现超出人类控制范围的AI 能力快速、无法控制的“大规模场景”。

OpenAI 还警告说,人工智能模型不受控制的开发可能会对未来社会产生潜在的破坏性影响。该领域的其他专家也提出了类似的担忧,从AI 教父到Stability AI 等AI 公司创始人,甚至过去参加过GPT LLM 培训的OpenAI 员工。对人工智能治理和监管采取积极主动的方法的迫切需要引起了全球监管机构的关注。

“安全”超级智能的挑战

OpenAI 相信,当这些问题得到解决后,我们将更自由地发挥AI 的潜力。他们说,“这项技术可以改善我们的社会,我们一定会对使用这种新工具的每个人的创造力感到惊讶。”

作者还解释说,该行业目前正在加速增长,这一点不会改变。 “需要像全球监视制度这样的东西来阻止它,即使这样也不能保证有效,”博客中写道。

尽管面临这些挑战,OpenAI 的管理层仍然致力于探索这个问题:“我们如何确保技术能力来保证超级智能的安全?” .

微信二维码
售前客服二维码

文章均源于网络收集编辑侵删

提示:仅接受技术开发咨询!

郑重申明:资讯文章为网络收集整理,官方公告以外的资讯内容与本站无关!
NFT开发,NFT交易所开发,DAPP开发 Keywords: NFT开发 NFT交易所开发 DAPP开发