OpenAI 预测超智能 AI 十年内出现,正研究用 AI 来监督 AI

ChatGPT 的开发者 OpenAI 近期宣布了一项雄心勃勃的计划,他们将投入更多资源,成立一支全新的研究团队,致力于确保人工智能对人类的安全,并最终实现用 AI 监督 AI 的目标。

ChatGPT 的开发者 OpenAI 近期宣布了一项雄心勃勃的计划,他们将投入更多资源,成立一支全新的研究团队,致力于确保人工智能对人类的安全,并最终实现用 AI 监督 AI 的目标。

OpenAI 联合创始人伊利亚・苏茨凯弗和 AI 对齐负责人简・莱克在官方博客中表示:“超级智能的强大能力可能让人类失去力量,甚至面临灭绝的风险。目前,我们尚未解决如何引导和控制潜在的超级智能 AI,以避免其演变成不受控制的存在。”

该篇博文预测,在未来的十年内,可能会出现比人类更聪明的超级智能 AI。为了应对这一挑战,人类需要更加强大的技术手段来管理超级智能 AI,因此,在AI 对齐研究方面的突破至关重要,以确保 AI 对人类的持续有益。AI 对齐问题是控制人工智能发展的核心难题,即人工智能的目标和价值观与人类的理念保持一致。

作者指出,OpenAI 将在未来四年中将其 20% 的算力专注于解决这一难题。此外,该公司还将组建一支名为“超对齐团队”的全新团队来组织与之相关的工作。


OpenAI 预测超智能 AI 十年内出现,正研究用 AI 来监督 AI

这支团队的目标是培养出拥有与人类相媲美水平的超对齐研究员,并通过强大的计算资源来推动这一领域的发展。OpenAI 表示,这将涉及使用人工反馈来训练 AI 系统,通过让 AI 系统辅助人工评估,最终训练 AI 系统进行实际的对齐研究。

然而,人工智能安全的倡导者康纳・莱希对 OpenAI 的计划提出了一些根本性的疑虑,他认为,即便是拥有初始人类水平的 AI,也可能失控并造成严重破坏,这就迫使研究人员在实际应用中解决 AI 安全问题。他在接受采访时表示:“在构建拥有人类水平智能之前,我们必须先解决对齐问题,因为如果不解决,我们将无法对其进行有效控制。我个人认为这不是一个特别好且安全的计划。”

AI 的潜在危险一直是 AI 研究员和公众所密切关注的问题。今年 4 月,一群 AI 行业领袖和专家联名签署了一封公开信,呼吁暂停开发比 OpenAI 的 GPT-4 更强大的系统,因为他们担心这样的系统可能对社会造成潜在风险。根据今年 5 月的一项益普索调查显示,超过 2/3 的美国人担心 AI 可能带来负面影响,61% 的人认为 AI 可能对人类文明构成威胁。

本站文章均为原创,版权归本站所有,如需转载或引用请注明出处如:“本文章转载自:

OpenAI 预测超智能 AI 十年内出现,正研究用 AI 来监督 AI - Extfans”

相关标签

上一篇:SciHub CRX油猴脚本,文献信息获取

下一篇:Chrome清理大师,小却精悍的专业清理工具