浙大新研究让LVLMs懂版权、守规矩
论文名称:Bridging the Copyright Gap: Do Large Vision-Language Models Recognize and Respect Copyrighted Content? 大型视觉语言模型(LVLMs)在多模态推理领域成果显著,但广泛应用中存在严重的版权侵权风险,而当前缺乏针对其多模态场景版权合规能力的系统评估与有效防护方案。为此,该研究构建了含50,000个查询-内容对的大规模基准数据集,覆盖书籍摘录、新闻文章等4类版权内容,包含有无版权声明的双场景及4类侵权任务,首次系统评估12款主流LVLMs的版权合规表现。研究发现,11款模型即便面对明确版权声明仍存在显著合规缺陷,仅GPT-4o表现相对较好。针对这一问题,提出工具增强型防御框架CopyGuard,通过版权声明识别、版权状态验证、查询风险分析及合规提示四大组件,在不影响模型合法任务性能的前提下,大幅提升模型版权拒绝率(重复任务中超82%),有效降低侵权风险。该研究填补了LVLMs版权合规评估的空白,为模型的合法合规部署提供了关键技术支撑。## 1. 研究背景 针对LVLMs在多模态场景下的版权合规短板,本研究旨在:系统评估主流LVLMs对受版权保护内容的识别与合规能力;探究版权声明对模型合规行为的影响;提出有效的防御框架,提升LVLMs在各类场景下的版权合规性,降低侵权风险。 研究系统揭示了LVLMs在版权合规方面的普遍短板,通过构建专用基准与提出CopyGuard框架,为解决多模态场景下的版权侵权问题提供了有效方案,验证了工具增强型方法在提升模型版权合规性上的可行性与优越性。
论文作者:Naen Xu, Jinghuai Zhang, Changjiang Li, Hengyu An, Chunyi Zhou, Jun Wang, Boyu Xu, Yuyuan Li, Tianyu Du, Shouling Ji
作者团队-中文:浙江大学
发表时间:2025年12月26日
发表会议:AAAI
Github地址(demo):https://github.com/bluedream02/CopyGuard
论文链接:https://www.lab4ai.cn/paper/detail/reproductionPaper?utm_sour...1.论文简介
大型视觉语言模型(LVLMs)在多模态推理任务中取得显著进展,但广泛应用引发潜在版权侵权风险。现有研究多聚焦纯文本模型的版权问题,而LVLMs需同时处理文本和图像形式的受版权保护内容,版权识别与合规难度更高。当前缺乏针对LVLMs版权合规能力的系统评估基准,且现有模型即便面对含版权声明的内容,也常因缺乏版权意识而违规生成,存在严重法律与伦理隐患。2. 研究目的
3. 本文核心贡献
4. 研究方法
5. 研究结果
6. 总结与展望
总结
局限性与展望