【ITBEAR科技资讯】4月6日消息,人工智能公司OpenAI在最新的帖子中介绍了其保障AI安全的方法。OpenAI表示,为确保AI系统的构建、部署和安全使用对实现其使命至关重要,因此该公司正在努力确保在各个系统层面上的安全性。
据ITBEAR科技资讯了解,在推出任何新的人工智能系统之前,OpenAI都会进行严格的测试、征求外部专家的意见,并通过强化学习等技术改善模型的表现。该公司强调强大的人工智能系统应该接受严格的安全评估,同时积极与各国政府接触,探讨最佳的监管形式。
OpenAI表示,从实际使用中学习,提高保障措施是创建和发布越来越安全的人工智能系统的关键组成部分。该公司采取实质性的保障措施,并根据吸取的教训不断改进。OpenAI提供自己服务和API中最强大的模型,以便开发人员可以直接将技术集成到他们的应用程序中。同时,实际使用中的经验也促使OpenAI制定了越来越细化的政策,以应对对人们构成真正风险的行为,同时仍然允许我们的技术以更有益的方式使用。
OpenAI强调保护儿童的重要性,并称要求使用其人工智能工具的人必须年满18岁或以上,或者在父母同意的情况下年满13岁或以上。该公司表示,不允许其技术用于生成仇恨、骚扰、暴力或成人等内容。OpenAI已经采取重大措施,最大限度地减少模型产生伤害儿童内容的可能性。
除了默认的安全防护,OpenAI与非营利组织可汗学院等开发机构合作,为他们量身定制了安全措施。同时,OpenAI还致力于尊重隐私、提高事实准确性、进行持续的研究和参与等。该公司表示,解决AI安全问题需要广泛的辩论、实验和参与,包括为AI系统的行为设置界限。OpenAI将继续促进利益相关者之间的合作和开放对话,以创建更安全的AI生态系统。