PC6下载站

分类分类

OpenAI 联合创始人认为超级智能 AI 将“不可预测”

关注+2024-12-14作者:佚名

在最近的 NeurIPS 年会上,OpenAI 的联合创始人伊利亚・苏茨科夫(Ilya Sutskever)分享了他对超智能人工智能(AI)未来发展的看法。他指出,超智能 AI 的能力将超越人类,未来将会展现出一种与当前 AI 截然不同的特质。

机器人 (图片来源:AI合成)" alt="脑机接口AI机器人" style="box-sizing: border-box; outline: 0px; border: 1px solid rgb(238, 238, 238); --tw-shadow: 0 0 #0000; --tw-ring-inset: var(--tw-empty, ); --tw-ring-offset-width: 0px; --tw-ring-offset-color: #fff; --tw-ring-color: rgba(41, 110, 228, 0.5); --tw-ring-offset-shadow: 0 0 #0000; --tw-ring-shadow: 0 0 #0000; max-width: 700px; background: url("../img/bglogo2.svg") center center no-repeat rgb(247, 248, 249); box-shadow: rgba(27, 95, 160, 0.1) 0px 1px 3px; display: inline-block; margin: 0px auto;"/>

图源备注:图片由AI生成,图片授权服务商Midjourney

苏茨科夫表示,超智能 AI 将具备 “真实的主动性”,这与现在的 AI 相比有着显著差异。目前的人工智能被认为是 “非常轻微主动” 的,它们在处理任务时更多依赖于预设的算法和数据。然而,苏茨科夫预测,未来的超智能 AI 将具备真正的推理能力,能够从有限的数据中理解复杂的概念。这种推理能力将使得超智能 AI 的行为更加不可预测。

他进一步提到,超智能 AI 可能会拥有自我意识,并且可能会开始思考自身的权利问题。苏茨科夫认为,如果未来的 AI 只想与人类共存,并希望获得权利,这并不是一个坏的结局。这样的设想引发了与会者对于人机关系的深入思考。

在离开 OpenAI 后,苏茨科夫创立了 “安全超智能”(Safe Superintelligence)实验室,专注于人工智能的安全研究。该实验室在今年九月成功筹集了10亿美元的资金,显示了投资者对 AI 安全领域的高度关注和重视。

苏茨科夫的发言引发了对未来超智能 AI 的广泛讨论,不仅关乎技术的进步,更涉及到人类与人工智能之间的伦理和共存问题。

emoji", "Segoe UI Emoji", "Segoe UI Symbol", "Noto Color Emoji"; font-size: 16px; text-wrap-mode: wrap;">

划重点:

🌟 超智能 AI 将具备 “真实的主动性”,与现有 AI 大相径庭。  

🧠 未来的 AI 可能拥有自我意识,并开始关注自身权利。  

💰 苏茨科夫创立的 “安全超智能” 实验室已筹集10亿美元,专注于 AI 安全研究。  


展开全部

相关文章

更多+相同厂商

热门推荐

  • 最新排行
  • 最热排行
  • 评分最高
排行榜

    点击查看更多

      点击查看更多

        点击查看更多

        说两句网友评论

          我要评论...
          取消