【ITBEAR科技资讯】7月7日消息,OpenAI近日宣布成立一个新的团队,由联合创始人兼首席科学家Ilya Sutskever和Alignment负责人Jan Leike共同领导。该团队的首要任务是寻找引导和控制下一代“超智能人工智能系统”的方法。OpenAI为这个团队提供了最高优先级,并授权其使用公司20%的计算资源。团队的目标是在未来四年内解决“控制超智能AI”的核心技术挑战。
研究者Sutskever和Leike认为,“下一代超智能AI”可能会在十年内问世,这将是人类迄今为止最具影响力的技术之一,能够帮助解决许多需要大量人力资源才能解决的问题。然而,他们也指出,这项技术可能会对人类造成威胁,巨大的力量可能导致人类失去主权甚至灭绝。
团队表示,目前他们还没有找到一个合理的方法来引导或控制潜在的超智能AI,人类只能通过反馈来调整AI系统的生成过程,但无法从根源上可靠地监督AI系统。因此,OpenAI计划构建一个接近人类水平的AI“automated alignment researcher”,并利用大量的深度学习来扩展其能力,通过迭代地调整这个超级智能系统。
据ITBEAR科技资讯了解,为了实现这个目标,研究人员需要开发可扩展的训练方法,并验证生成的模型,最终进行一系列可控性测试。他们计划利用这个AI系统来协助评估其他AI系统,并希望了解和控制模型如何将监督推广到人类研究员无法监督的任务上。
Sutskever和Leike表示,随着研究的深入,他们预计研究重点可能会发生变化,并可能涌现出新的研究领域。
目前,OpenAI的新团队正在招募机器学习研究人员和工程师。Sutskever和Leike认为,招募更多的机器学习专家对于解决下一代超智能AI的问题至关重要。他们计划广泛分享团队的研究成果,并与业界合作,共同推动进步。
这个新团队的工作是对OpenAI现有工作的补充,旨在提高ChatGPT等当前模型的安全性,并理解和减轻人工智能带来的其他风险,如滥用、经济破坏、虚假信息、偏见和歧视、成瘾和过度依赖等问题。虽然新团队专注于解决将超智能AI系统与人类意图结合的机器学习挑战,但他们也在积极与跨学科专家合作,解决相关的社会技术问题,以确保技术解决方案充分考虑到更广泛的人类和社会问题。