【ITBEAR科技资讯】7月6日消息,OpenAI近日宣布成立一个新团队,专注于研发引导和控制超级智能人工智能系统的方法。这一团队由OpenAI的首席科学家伊利亚·苏斯克维尔和协调团队负责人简·莱克共同领导。据他们预测,未来十年内可能出现智能超过人类的人工智能,而且这种超级智能并不一定具备善良的特质,因此必须研究控制和限制其行为的方法。
OpenAI此次成立的团队不仅包括苏斯克维尔和莱克,还有其他OpenAI部门的研究人员以及新加入的研究人员和工程师。这表明OpenAI对于超级智能的发展和控制具有高度的重视。
值得注意的是,OpenAI并非首次讨论超级智能人工智能的相关问题。早在2023年5月,OpenAI的首席执行官萨姆·奥特曼与苏斯克维尔共同撰写的一篇论文中,就提出了对超级智能人工智能进行特殊监管的必要性,并探讨了在其与人类社会融合之前如何安全处理的问题。
据ITBEAR科技资讯了解,人工智能的潜在风险一直是研究人员和公众关注的焦点。今年3月,特斯拉CEO马斯克等一千多名科技界人士联名发表公开信,呼吁暂停训练比GPT-4更强大的AI系统至少六个月,以便更全面地考虑其潜在风险。
通过成立新团队,OpenAI希望能够加强对超级智能人工智能的研究,探索控制和引导其发展的方法,以确保未来人工智能的安全和可持续发展。这对于全球人工智能领域的发展和社会的长远利益具有重要意义。