【ITBEAR科技资讯】4月26日消息,NVIDIA推出了一款名为NeMo Guardrails的软件,它能够为人工智能模型设置安全“护栏”,避免AI输出一些不良的内容。据悉,NeMo Guardrails的本质是一个位于用户和模型之间的软件层,它能够在模型输出不良内容前进行拦截和修改。
比如,如果用户需要一个针对特定方向的AI,就可以利用该软件,来限制AI至输出对应方面的内容,而不谈论不相关的话题。此外,该软件还能够利用一个AI模型检测另一个AI模型,如果两个模型输出的答案不一致,软件将直接输出“我不知道”的回答。通过这种方式,人工智能“胡说八道”的情况会得到有效降低,一些可能存在危险的回复也能够被直接拦截。
据ITBEAR科技资讯了解,随着生成式人工智能的普及,越来越多的用户在享受便利的同时发现,AI经常会出现“一本正经的胡扯”的现象,有时甚至会有一些让人细思极恐的发言。NeMo Guardrails是一个非常有用的工具,它能够为用户提供一种更加安全和可控的人工智能体验。
NeMo Guardrails的推出,对于AI行业来说具有重要意义。它不仅能够提高人工智能系统的安全性和可控性,还能够让用户更加放心地使用人工智能产品。此外,随着越来越多的用户开始关注人工智能的安全性问题,相信类似NeMo Guardrails这样的工具在未来会越来越受到重视,成为人工智能行业的必备工具之一。