在 Ignite 上,Microsoft 表示,如果客户在使用 Azure OpenAI 服务或其生成的输出时因侵犯版权而被起诉,那么获得 Azure OpenAI 服务许可的客户可能会因任何“不利判决”而获得Microsoft的辩护和补偿。
ChatGPT 和 DALL-E 3 等生成式人工智能模型在数百万到数十亿份电子书、艺术作品、电子邮件、歌曲、音频剪辑、录音等上进行了训练,其中大部分来自公共网站。虽然其中一些训练数据属于公共领域,但有些则不是,或者受到需要引用或特定形式的补偿的许可。
供应商在未经许可的情况下对数据进行培训的合法性是法庭上正在讨论的另一件事。但是,可能让生成式人工智能用户陷入困境的是反刍,或者当生成模型吐出训练示例的镜像副本时。
默认情况下,微软的扩展策略不适用于每个 Azure OpenAI 服务客户。为了有资格获得新的保护措施,订阅者必须实施“技术措施”并遵守某些文件,以降低使用 OpenAI 模型生成侵权内容的风险。
TechCrunch 要求微软详细说明这些措施,但该公司拒绝在今天上午宣布之前提供具体细节。
目前还不清楚这些保护措施是否扩展到预览版中的Azure OpenAI服务产品,如GPT-4 Turbo with Vision,以及微软是否对客户用于微调OpenAI模型的训练数据提出的索赔提供赔偿。我们要求澄清。
今天下午晚些时候,微软发言人通过电子邮件告诉TechCrunch,该政策适用于付费预览中的所有产品以及微软的培训数据,但不适用于客户的训练数据。
这项新政策是在微软在9月份宣布,如果客户因侵犯版权而被起诉,它将代表使用其部分人工智能产品的客户支付法律赔偿金。与 Azure OpenAI 服务保护一样,客户需要使用微软人工智能产品/服务中内置的“护栏和内容筛选器”,以保留覆盖范围。
也许并非巧合,OpenAI 最近表示,它将开始支付因针对 OpenAI 工具生成的作品而面临知识产权索赔诉讼的客户所产生的法律费用。微软新的Azure OpenAI服务保护似乎是对此的扩展。
除了赔偿政策之外,反刍问题的一个部分解决方案是允许内容创作者从生成模型训练数据集中删除他们的数据,或者给予这些创作者某种形式的信用和补偿。OpenAI 表示,它将在未来的文本到图像模型中探索这一点,也许是 DALL-E 3 的后续产品。
相比之下,微软没有承诺选择退出或补偿计划。但该公司已经开发了一种技术,它声称可以帮助“识别模型何时生成利用第三方知识产权和内容的材料”。微软的 Azure AI 内容安全工具中的一项新功能,现已推出预览版。