在人工智能报道的日益多样化中,辨别出工具错误与底层模型结构缺陷之间的界限变得越发困难。微软的Bing AI遗忘自身创建年份的事件成为了这个领域的一部分,突显了人工智能工具的表现不佳。同时,谷歌的双子座图像生成器的设置问题也引发了关注,其绘制了与纳粹分子相关的图像,暴露了过滤器设置的重要性。
OpenAI近日公布了名为Model Spec的框架初稿,旨在定义未来AI工具(例如即将发布的GPT-4模型)的行为规范。该框架包含了三个一般原则:协助开发者和最终用户提供符合指令的有用响应、在利益和危害之间取得平衡以造福人类、在社会和法律规范中展现责任。
此外,Model Spec还明确了几项规则,包括遵循指挥链、遵守法律、不提供危险信息、尊重创作者权益、保护隐私、不回复NSFW内容等。OpenAI表示,他们计划通过API和ChatGPT等渠道负责任地提供NSFW内容,同时强调了对危险信息的谨慎处理。
产品经理Joanne Jang解释说,Model Spec的目的是为了引入公众意见,以指导AI模型的行为方式,并在故意行为和错误之间划清界限。这一框架被视为AI行为的“新生科学”,预计将成为一个动态更新的文档。尽管Model Spec暂不影响当前发布的模型,比如GPT-4和DALL-E3,但OpenAI表示将持续收集反馈,并将其融入到未来的更新中。
尽管公众反馈的采纳程度和具体变化的决策者尚未明确,但OpenAI强调他们将以负责任的态度继续推动AI模型的发展,以实现其使命。
[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。