Anthropic因下载盗版书训练模型向作者赔偿15亿美元 平均每本书约3,000美元
人工智能开发商 Anthropic 日前已经同意支付 15 亿美元以和解作者和出版商对其提起的法律诉讼,该诉讼涉及 Anthropic 使用数百万本受保护的书籍来训练 Claude 模型。
具体来说该公司通过免费的盗版的书籍共享网站下载内容,然后在未经授权的情况下使用这些书籍内容训练模型,值得注意的是 Anthropic 高管明知正在下载盗版作品但仍然允许员工这么做。
作为和解协议,Anthropic 决定向所有受影响的书籍作者和出版商合计提供 15 亿美元的赔偿金,这也是美国版权法历史上金额最高的赔偿金,平均每本书籍的赔偿金约为 3,000 美元 (注:只是平均,实际远没有这么多,因为出版商还要拿走相当一部分赔偿)。
值得注意的是法院曾认定 Anthropic 使用数据训练模型属于合理使用,该公司至今也认为使用这些数据训练模型都是合理的使用,但提供赔偿金可以解决原告的剩余索赔。
这 15 亿美元赔偿金将分成四期支付,第一期在法院初步批准和解协议的 5 天后支付 3 亿美元,第二期在法院最终批准后的 5 天内支付 3 亿美元,第三期在初步和解协议批准后的 12 个月内支付 4.5 亿美元 (包含利息),第四期将在初步和解协议批准后的 1 年后支付 4.5 亿美元。
目前因为版权问题等待诉讼的还有很多,例如 Anthropic 被 Reddit 指控未经授权抓取该论坛的帖子进行模型训练,Anthropic 并未像谷歌和 OpenAI 那样与 Reddit 达成内容授权协议。
最后和解金只是解决 Anthropic 公司与作者和出版商的版权争议,Anthropic 高管在明知下载盗版材料的情况下允许员工下载将单独进行审理,法院计划在 2025 年 12 月针对该案件进行审理。
-
我国科研人员研发出类脑脉冲大模型
记者今天(9月8日)从中国科学院自动化研究所获悉,近日,该研究所李国齐、徐波团队与相关单位合作,成功研发出类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0)。该模型基于团队原创的“内生复
-
OpenAI新论文揭示AI模型出现幻觉的原因:并非神秘故障而是模型训练的奖励机制问题
目前人工智能模型普遍存在幻觉问题,所谓幻觉就是模型偶尔会自信满满地输出错误信息,此前曾有报道称连研究人员都搞不清幻觉的根源,因为模型在运行中属于黑盒模式。不过 OpenAI 研究团队最新发布的论文已经
-
谷歌搜索称AI概览不会导致网站流量下降 但前提是用户提出的问题更多
目前已经有多个 SEO 网站和站长分享数据表明谷歌搜索在推出 AI 概览后导致网站流量下降,原因在于谷歌搜索 AI 爬虫会自动检索网站内容并生成回答,因此用户并不需要点击网站就可以知道答案。按照这种情
关注公众号:拾黑(shiheibook)了解更多
友情链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
安全、绿色软件下载就上极速下载站:https://www.yaorank.com/