超级智能AI恐致人类灭绝 OpenAI组新团队寻对策

前沿科技
分享至
评论

  聊天机器人ChatGPT研发公司OpenAI今天表示,计划投入大量资源并创建一个新的研究团队,以确保人工智能(AI)持续对人类保持无害,终将通过AI来监督AI自身发展。

  路透社报导,OpenAI共同创办人暨首席科学家苏茨克维和协调团队负责人雷克在部落格文章中写道:“超级智能的巨大能力恐导致人类丧失权力,甚至可能导致人类灭绝。目前,我们对于掌控潜在的超级智能AI还没有解方,也无法预防AI失控。”

  文中预测,作为一个超越人类智能的系统,超级智能AI可能在这10年内诞生,人类需要比当前更厉害的技术来控制超级智能AI,因此必须在“对齐研究”方面有所突破。“对齐研究”指的是聚焦于确保AI如何持续对人类有益的研究。

  他们写道,微软支持的OpenAI预计将在未来4年内投入20%的计算能力,来解决这个问题。此外,公司正在针对这项目标组建一个名为Superalignment的新团队。

  这个团队的目标是打造一个“人类等级”的AI对齐研究员,然后通过庞大的计算能力扩展它。OpenAI表示,这代表他们将会以人类反馈的方式来训练AI系统,训练AI系统协助人类评估,最终训练AI系统实际进行“对齐研究”。

  AI安全倡议人士雷希说,这项计划有着根本性的缺陷,因为初始的人类等级AI在被迫解决AI安全问题前,就已经有可能失控并造成破坏。

  他受访时表示:“在建构人类等级的AI前,必须解决对齐问题,否则既定结果就是你将无法控制它。我个人认为这不是一个特别好或安全的计划。”

  AI的潜在危险一直是研究人员甚至是普罗大众关切的问题,一群AI界领袖和专家今年4月曾联署一封公开信,呼吁暂停开发比OpenAI的ChatGPT-4更强大的系统,为期至少6个月,理由是更先进的AI可能为社会带来风险。

  路透社/易普索5月进行的一项民调显示,超过2/3的美国人担心AI可能带来负面影响,61%的受访者更认为AI可能威胁人类文明。

THE END

数码评测