人工智能技术的飞速发展,特别是以 OpenClaw为代表的人工智能技术的广泛应用,正在对现有的知识产权法律制度形成系统性冲击。对此,我们有必要以知识产权的视角,审视这一技术变革所带来的法律风险与制度挑战。
数据训练与内容生成的核心争议
人工智能系统的核心能力来源于海量数据的训练。以OpenClaw为代表的人工智能,需要通过抓取互联网上的文本、图像、音视频等作品,构建其生成内容的知识基础。这一过程在著作权法上构成对作品的复制行为。根据我国著作权法的规定,除法律特别规定外,未经许可复制他人作品构成侵权。
实践中,人工智能训练中的数据复制行为能否纳入“合理使用”的范畴?我国著作权法规定了合理使用情形,但均难以直接适用于大规模的数据训练。美国法上的“转换性使用”理论为部分美国法院所采纳,但其适用范围和标准仍存在重大争议。我国司法实践中,已有法院在个案中开始探索人工智能训练数据使用的法律边界,但统一的裁判规则尚未形成。
法律层面的不确定性带来双向风险:对人工智能开发者而言,可能面临大规模的侵权诉讼;对著作权人而言,其作品在未经许可的情况下被用于商业性的人工智能训练,难以获得相应报酬。这种风险状态不利于人工智能产业的健康发展,也不利于文化创作生态的良性循环。
人工智能生成内容的作品认定与权利归属,同样是业内的争议焦点。我国著作权法明确,作品是文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。这一概念隐含“智力成果”来源于“人”的前提。全国人大及其常委会的立法说明、最高人民法院的司法解释,均未明确承认非人类主体的创作可以构成作品。
传统著作权法以“人类独创性”为核心,北京互联网法院审理的 AI文生图侵权案已明确,人类通过提示词设计、参数调整、结果筛选等智力投入形成的 AI生成内容,可构成作品并受保护。但 OpenClaw的自主执行能力极大弱化了人类的参与度,用户仅需输入简单指令,人工智能即可自主拆解任务、调用模型、生成各类成果,人类的智力贡献被压缩至最低限度。此时,相关生成内容是否仍具备“独创性”,权利应归属于用户、开发者、模型提供方,还是作为开源社区的公共资源,一系列问题亟待厘清。
技术应用延伸的知识产权新挑战
OpenClaw等人工智能的“自主执行”能力,使其在应用中对商业秘密保护形成前所未有的挑战。商业秘密须满足“不为公众所知悉”“具有商业价值”以及“权利人采取合理保密措施”三大要件。传统企业的保密措施包括权限管理、物理隔离、签订保密协议等,但人工智能的介入让这类措施的有效性大打折扣。当人工智能系统可同时访问多个数据库、调取多类文件、通过接口与外部交互时,商业秘密的“秘密性”可能在不经意间丧失,而这一问题涉及知识产权相关法与产品责任、合同相关法的交叉领域,相关法律规则仍处于空白状态。
更具风险的是,人工智能运行机制具有典型的“黑箱”特征。用户难以准确预知其接触商业秘密的具体路径与方式,也无法在事后完全追溯信息流向。这种不可控性与商业秘密保护所要求的“可控制性”形成根本冲突。工业和信息化部网络安全威胁和漏洞信息共享平台近期发布的专项安全警示,明确指出 OpenClaw存在多项安全漏洞,这些漏洞更可能成为商业秘密泄露的技术通道。
人工智能对专利制度的影响虽不如版权领域那样直观,但其深远性不容忽视。以 OpenClaw为代表的技术系统包含大量技术创新点,本可申请专利保护,但人工智能参与甚至主导技术方案创造的情况下,相关方案的可专利性成为新问题。我国专利法规定发明创造是对产品、方法或者其改进所提出的新的技术方案,《专利审查指南》中明确规定专利申请的发明人应当是自然人。这意味着纯粹由人工智能生成的技术方案,无法在我国获得专利权。
实践中,人工智能多作为辅助工具参与研发过程,研发人员通过其开展数据分析、方案模拟、参数优化,最终形成的技术方案中,人的贡献与机器的贡献相互交织。如何界定“实质性贡献”的判定标准,如何在专利申请中如实披露人工智能的参与程度,成为专利审查和侵权判断中的难点问题。从产业发展视角看,若大量因人工智能参与产生的技术创新成果无法获得专利保护,可能削弱创新主体的研发投入意愿;若过于宽泛地承认人工智能生成方案的可专利性,又可能加剧“专利丛林”问题,阻碍技术的后续开发和运用。
人工智能知识产权风险的应对路径
面对人工智能带来的知识产权风险,法律制度需在保护创新、维护公平、促进发展之间寻求平衡。结合我国司法实践与产业现状,可从三方面完善制度体系,化解相关风险。
明确人工智能训练数据的使用边界。可以借鉴域外立法经验,在著作权法中增设“文本与数据挖掘例外”条款,为非商业性科研目的的使用设定合理使用空间;对于商业性的人工智能训练,则探索建立法定许可制度,由使用者支付合理报酬,并通过著作权集体管理组织向权利人统一分配,兼顾使用者的产业发展需求与权利人的合法权益。
完善人工智能生成内容的保护规则。坚持以“人的独创性贡献”作为作品认定的核心标准,对于用户投入了实质性智力劳动的人工智能生成物,明确其知识产权属性;在权利归属方面,将相关权利归属于作出实质性贡献的用户,而非人工智能开发者或系统本身,厘清权利边界,激发用户的创新投入。
强化人工智能合规运行的法律机制。针对 OpenClaw这类具有自主执行能力的人工智能,建立更为严格的技术标准和合规要求,明确开发者的产品安全责任,要求其及时披露已知安全漏洞,建立健全用户教育和风险提示机制;同时,要求使用者结合自身商业秘密的重要程度,评估人工智能使用的风险等级,采取针对性的管控措施,从开发与使用两端筑牢知识产权保护防线。
(作者单位分别为:中共泉州市委党校、福州大学法学院)
中国知识产权报:https://sz.iprchn.com/bz/html/content.html?date=2026-03-20&pageIndex=07&cid=1&articleId=a5e88d04-67cc-4463-a189-a9a443fff2e8&articleIndex=3&pageId=26bd45f4-5734-4622-ba82-871b107c417c