学术堂首页 | 文献求助论文范文 | 论文题目 | 参考文献 | 开题报告 | 论文格式 | 摘要提纲 | 论文致谢 | 论文查重 | 论文答辩 | 论文发表 | 期刊杂志 | 论文写作 | 论文PPT
学术堂专业论文学习平台您当前的位置:学术堂 > 法学论文 > 法律论文 > 知识产权法论文

人工智能生成物中的版权问题与保护

来源:中国编辑 作者:张颖
发布于:2018-09-21 共7244字

  摘   要: 人工智能在编创过程中所展现的能力以及威胁尤为突出, 一方面, 越来越多的人工智能生成物具有市场价值成为消费客体, 但其可版权性及其权利归属仍存在争议;另一方面, 人工智能通过机器学习进行编辑与创作, 提高编辑产业效率的同时, 也导致了隐性偏见的问题。因此, 着作权法首先应当将人工智能生成物纳入着作权法的保护范围;其次, 基于人工智能尚不具备民事主体资格的现实, 参照“电影作品”的保护模式赋予人工智能系统所有者作者地位;最后, 通过完善着作权法的合理使用制度和登记制度来缓解人工智能编创过程中的隐性偏见。

  关键词: 人工智能; 可版权性; 隐性偏见;

  2018年全国两会, “人工智能”第二次被写入了政府工
 

人工智能生成物中的版权问题与保护

 

        作报告, 人工智能时代已然到来。然而, 和所有引领社会变革的新技术一样, 人工智能在飞速发展的同时也在诸多领域引起了挑战、质疑甚至恐慌, 首当其冲的就是新闻编创领域。2014年, 美联社与人工智能公司合作开展的人工智能新闻写作平台Wordsmith, 如今已经达到每季度三千余篇的产量, 由此引发了人工智能将代替记者的讨论[1]。2016年, 人工智能创作的“下一个伦勃朗”可以媲美艺术大师伦勃朗的画作。2017年, 第一部100%由人工智能创作的诗集《阳光失了玻璃窗》出版[2]。与此同时, 有关人工智能编创过程中的着作权问题也甚嚣尘上, 例如这些人工智能生成物是否构成着作权法保护的“作品”?这些“作品”所创造的商业价值及其可能的侵权责任应当由谁来享有和承担?人工智能在编创过程中展开的机器学习及应用的算法规则是否合理?[3]由此, 本文拟从以下三个方面对人工智能编创过程中的着作权问题展开探析:人工智能生成物的可版权性问题, 人工智能生成物的归属问题, 人工智能编创中的隐性偏见及其着作权法规制。

  一、人工智能生成物的可版权性问题

  人工智能 (Artificial Intelligence, 缩写为AI) 概念的正式提出至今六十多年, 随着大数据技术的发展和信息运算能力的增强, 人工智能所具备的“机器学习”能力使其越来越具备“智能”。从人工智能参与编创过程的程度, 即以内容生产的自主性与否作为判断是否为人工智能的分界标准, 其可以分为辅助性的人工智能和具有自主创造能力的人工智能。对于前者, 学界的观点较为统一, 即辅助性的人工智能等同于计算机, 其生成物归根结底是自然人的创作物。对于后者, 学界的争议较大, 因此, 本文探讨范围也集中在后者。

  (一) 观点一:人工智能生成物不构成作品

  一般认为, 作品的构成要件包括: (1) 一种表达形式; (2) 能以有形形式复制; (3) 具有独创性。人工智能生成物作为一种可复制的表达形式, 符合作品的形式要件, 因此是否具有独创性成为其构成作品的关键。否定观点认为, “独创性”为人类所特有的专属表达, 人工智能作为民事权利的客体无法与作为民事主体的自然人进行身份上的等同与互换[4]。现有的着作权立法实践也证实了这一法律架构上的逻辑关系。例如, 美国版权局、《德国着作权法》以及日本“知识产权战略本部”都认为只有人类创作的作品才能得到着作权法的保护[5]。我国《着作权法》第11条第2款规定:创作作品的公民是作者。

  (二) 观点二:人工智能生成物构成作品

  随着人工智能技术的发展, 人工智能生成物无论从数量还是质量上都冲击着, 同时也繁荣着文娱市场, 若将此类生成物排除在着作权法保护的范围之外, 势必导致大量的“无主作品”出现, 人工智能技术的开发者与投资人利益无法保障, 最终阻碍人工智能技术的研发进程。因此, 越来越多的学者认为基于激励论的着作权法不应固守独创性中“人”的因素, 而应采取更为客观的标准来判断独创性, 即从形式上考察其是否与现存的作品表达不一样[6]。实践中, 着作权法也开始将作品的独创性条件与作者个性予以分离, 并以作品是否具有“足够可区分的变化”为标准来判断其独创性[7]。最具前瞻性的立法要属《英国版权法》, 其中规定“对于电脑生产的文字、戏剧、音乐或者艺术作品而言, 作者应是对该作品创作进行必要安排的人”。其一方面肯定了电脑生产的内容具有可版权性, 另一方面将其作品的归属仍赋予“人”。

  (三) 人工智能生成物可版权性的合理性分析

  笔者认为, 从印刷技术、复制技术、网络技术到人工智能技术, 技术发展对着作权制度的挑战从未停止。从摄影作品、录音制品、电影作品到实用艺术作品、计算机软件作品, 再到独创性较低的数据库作品, 不断扩张的着作权客体范围也正是着作权制度对技术变革的回应。每一次回应对于着作权制度体系和法理基础而言都是一种突破, 无论是讲求激励论的版权法国家, 还是注重作者精神权益的着作权法国家, 着作权制度的包容性与弹性都随着产业发展的需求而不断扩大和增强。因此, 人工智能生成物是否为作品其实是一个政策选择问题, 其意义表现在对这一部分生成物进入市场后所可能引发后果的利弊分析, 各国应结合其国情进行选择[8]。就我国而言, 首先, 大力发展人工智能产业的政策导向使得未来在人工智能领域的投入不断增加, 人工智能生成物的市场潜力也将被不断挖掘, 有效的法律保护机制缺失势必影响该产业的整体发展趋势。其次, 从着作权的理论基础而言, 如前所述, 独创性中“人”的因素并非不可逾越的鸿沟。无论是采用更为客观的判断标准, 还是构建以人类读者 (受众) 为基础, 而不是以人类作者为中心的着作权法理论, 都可解决人工智能生成物的法律地位问题。因此, 我国着作权法应当将人工智能生成物纳入其保护范围, 赋予其作品法律地位。然而, 需要进一步考虑的问题是:如何认定人工智能生成物构成作品独创性的客观标准?该标准应当与一般人类创作作品的标准一致抑或不同?是采取更高的标准还是采取诸如“额头出汗”原则的更低标准?这些问题还有待市场的进一步检验和司法实践中个案判定的综合考量。

  二、人工智能生成物的归属问题

  人工智能生成物生成过程源于技术人员 (团队) 对人工智能系统自身的设计与创造, 通过植入相关的模型、算法以及规则, 使其具有模拟、延伸和扩展人的智能, 感知环境、获取知识并使用知识获得最佳结构的能力, 进而产生人工智能生成物。可见, 人工智能生成物是人工智能系统的应用结果, 其离不开基础设施提供者、信息处理者和信息提供者[9]。那么, 人工智能生成物应如何归属?

  (一) 人工智能自身尚不足以成为归属主体

  “机器学习”作为人工智能的核心技术, 是学者判断其是否具有创造性“智能”的关键。近几年发展迅速的“深度学习” (又称“深度神经网络”) , 更体现了人工智能通过“仿真主义”实现强人工智能的发展趋势。然而, 从技术上而言, 现有的人工智能依然不能脱离人的意志与倾向的间接控制。一方面, “机器学习”的创作仍然是基于人类对算法规则的设定, 其生成物的结果即使无法预测, 但仍然是有限的, 这种有限性无法与人类的无限创意相比拟。另一方面, “机器学习”的信息提供来源于人类的算法输入, 其同时也输入了人类的价值观和倾向性, 这些价值观和倾向性将影响学习的目标, 最终影响生成物的内容[10]。可见, 现有的人工智能水平尚未达到同人类一样的“智能”水平。从现有的法律制度体系考查, 人工智能也还处于“物”的阶段, 尚未上升到民事主体的高度。但多数学者同时也保留了开放的态度, 即不排除未来人工智能成为着作权主体的可能性。毕竟强人工智能的实现并不是天方夜谭, 实践中已经出现了首个具有公民身份的机器人[11]。当然, 即使未来承认了人工智能的着作权主体资格, 其依然无法自行承担民事责任。因此, 通过设置“管理人”制度或者将最初编程者视为共同的作者, 共同享有权利、履行义务、承担责任成为可选择的法律规制路径。

  (二) 人工智能生成物应主要归属于人工智能系统所有者

  如前所述, 促使人工智能生成物生成的三大主体, 即基础设施提供者、信息处理者和信息提供者, 对应到现实中, 包含了人工智能系统的所有者、系统开发者 (编程者) 和系统使用者。其中三者身份可能存在重复, 即人工智能所有者既是开发者, 还是使用者, 也可能发生分离。多数情况下, 人工智能的所有者与开发者是一体的, 两者属于同一法人或者组织。使用者作为人工智能系统的消费者, 当其成为人工智能系统主要的信息提供者时, 也可以成为人工智能生成物的归属主体。从激励论的角度, 作为人工智能系统的投资者, 人工智能系统的所有者需要通过着作权的享有来获得投资回报, 从而有利于其进行新的人工智能产业投入, 推动整体产业的发展。

  对于如何从现有法律制度上将人工智能生成物归属于人工智能系统的所有者, 学界的讨论主要有三种法律路径。路径一是“法人作品”模式[12]。目前人工智能生成物的产生过程仍依赖于自然人主观意志的输入, 因此, 将人工智能系统的所有者视为作者不存在法律上的障碍。实践中, 英国、新西兰以及爱尔兰的着作权法采取了这样的制度安排。但法人作品的创作者仍然是以自然人的创作为前提, 人工智能毕竟不同于自然人, 因此该模式适用的前提存在缺陷[13]。路径二是“邻接权客体”模式。该模式将人工智能生成物作为独创性较低的邻接权客体保护, 而人工智能系统所有者因其所付出的投资而获得邻接权主体地位[14]。然而, 邻接权主体所享有的权利范围有限, 其对人工智能生成物所遭受的侵权无法实现全面救济。较之于前两种路径, 笔者更认同路径三, 即“电影作品”模式。该模式将人工智能生成物视为“电影作品”, 人工智能的所有者视为“制片人”, 同时建立以“所有者”为中心的权利构造, 并以所有者、设计者和使用者之间的约定优先[15]。该模式既符合激励所有者的目的, 同时有利于避免权利分配过于分散导致的不同权利主体之间的纠纷, 针对不同权利主体之间的利益, 可以充分利用合同的自治原则, 交由各权利人进行协商决定。

  三、人工智能编创中的隐性偏见及其着作权法规制

  所谓“隐性偏见”, 就是不易被人察觉的, 但是在结果上存在偏见的输出结论。之所以称之为“隐性”, 是因为人工智能所依据的复杂算法规则和数据来源不易让人从主观上察觉其输出结果存在偏见。现实中较为着名的案例是Facebook的“偏见门”事件以及谷歌新闻的种族歧视问题[16]。这当然不是一个单纯的着作权法问题, 但本文尝试从着作权法角度提供一种可能的规制路径。

  (一) 人工智能产生隐性偏见的原因

  1. 人工智能算法规则偏见

  带有倾向性的算法规则会导致人工智能出现隐性偏见。例如谷歌新闻存在种族歧视的原因之一是相关算法设计者多来自具有白种人倾向的社区。依据有偏向性的算法规则开展的学习结果必然存在隐性偏见, 而这一倾向又会反过来误导公众。正如Facebook创办人扎克伯格所言, 我们正在进入“算法”而不是法律统治人的时代[17]。算法在表面上就缺乏法律的无偏私性和一般性:它毫不遮掩地服务于设计者植入其中的目的[18]。对于算法偏见的规制包括从宏观的“顶层设计”上制定“人工智能社会的宪法”, 将算法技术与法律制度有机结合;从中观的设计者规制上完善其在算法设计中必须遵循的伦理规范;从微观技术层面要求设计者公开算法规则的数据代码, 并对其运作原理及效果作出解释说明。由于上述规制路径与着作权法无关, 且限于篇幅, 本文不再赘述, 以下重点论述导致人工智能隐性偏见的第二个原因及其着作权法规制路径。

  2. 人工智能所依赖的基础数据的非全面性

  分析者发现谷歌人工智能用来进行深度学习训练的语义库本身存在种族歧视, 因为其进行学习的数据资源主要来自于对于人类已创作作品的阅读、检索以及听取。但并非所有的数据资源都能够被有效获取, 缺少全面而客观的数据信息作为学习基础, 是人工智能出现隐性偏见的重要原因。以训练人工智能识别“猫”为例, 如果人工智能获取的猫的图片多为长尾多毛型, 那么其在识别中就会更倾向于对此特征的识别认定, 短尾少毛的猫就可能被忽略或者遗漏, 从而导致隐性偏见结果。实际上, 即便网络上有足够多猫的图片, 也并不代表这些图片可以被免费用于机器学习。

  (二) 着作权法制度促使人工智能隐性偏见的形成

  1. 着作权阻碍了降低人工智能隐性偏见技术的实施

  人工智能产业的发展同互联网产业一样, 存在赢家通吃的现象。现有的尖端人工智能技术大多掌控在几家大型互联网科技公司手中, 例如国外的谷歌、苹果、Facebook, 国内的百度、腾讯、阿里等。人工智能技术的发展需要强大的资金支持, 同时也需要海量的数据资源进行机器学习。基于着作权的转让许可机制, 这些大的平台可以通过着作权转让合同以及许可合同 (往往是独家许可) 来获取大量的专业版权和用户版权作品, 作为训练其人工智能的重要数据来源。为了证明自己的人工智能不存在隐性偏见, 许多企业都公开了算法代码, 但深奥难懂的算法代码无法直接表明其是否存在隐性偏见。实践中, 能够降低人工智能隐性偏见的技术包括反向工程 (reverse engineering) 和算法问责程序 (algorithmic accountability processes) [19]。然而, 这两项技术的有效运行都可能侵犯人工智能企业所拥有的着作财产权而受到阻碍。

  此外, 由于上述大型人工智能企业对于数据资源的垄断, 新兴的人工智能企业只能从着作权侵权风险低的领域获取机器学习的数据资源, 例如处于公共领域的作品或者依据公共许可的作品。然而, 处于公共领域和公共许可下的作品往往是不全面的, 甚至不能代表主流数据信息。因此, 新兴人工智能企业所开发的人工智能产品及其生成物更可能具有隐性偏见。

  2. 大量缺失着作权信息的作品阻碍人工智能机器学习

  前已述及, 信息的全面性和客观性直接影响了机器学习结果的准确性与真实性, 这也是为何各大人工智能企业愿意为获取尽可能多的作品资源付出努力。但对于归属不明确的作品, 商业利用者往往保持谨慎的态度, 这也是作品着作权信息缺失所导致的市场激冷反应 (chilling effect) 。现实中, 大量的孤儿作品 (指享有版权但很难, 甚至不能找到其版权主体的作品) 无法得到有效利用, 纳入机器学习的范围, 也可能导致人工智能的隐性偏见。

  (三) 规制人工智能隐性偏见的着作权法路径

  1. 将机器学习中的作品利用行为纳入合理使用的范畴

  虽然合理使用制度的判断标准本身具有较大弹性, 但一般从以下三个方面进行考量, 即使用作品的目的、使用作品的程度以及被使用作品的影响[20]。就人工智能机器学习而言, 首先, 其使用作品的目的是对人工智能进行训练, 不同于作品本身的目的, 因此可以构成转换性使用。其次, 就使用作品的程度而言, 虽然机器学习的过程不可避免会全面复制作品, 但其不会对作品本身造成公开, 因此无论其对作品作何种程度的使用, 都不会造成着作权人的损失。同样, 将作品用于人工智能机器学习也不会影响被使用作品的潜在市场, 因为人工智能生成物不会构成对被使用作品的替代。所以, 机器学习中对作品的利用, 包括反向工程和算法问责程序对作品的利用, 都应当纳入合理使用的范围, 由此可以扩大机器学习的数据信息范围, 使其获得更全面、更客观的数据信息。

  2. 通过优化着作权登记制度来缓解孤儿作品问题

  着作权登记的缺失是孤儿作品产生的主要原因, 通过鼓励着作权私人登记组织发展以及赋予权利受让人登记义务, 从着作权初始登记和变更登记两个方面来完善着作权登记制度, 从而扩大作品登记数量和范围, 建立着作权公示信息数据库, 为孤儿作品利用模式提供“勤勉查找”范围的同时减少未来孤儿作品的数量, 并丰富人工智能机器学习的数据范围[21]。

  毫无疑问, 人工智能技术在编创领域的应用潜力是巨大的, 其能有效提升编辑和创作的效率, 加快信息的传播速度。人工智能生成物也逐渐进入文化产业市场, 成为一种文娱消费品, 被越来越多受众追捧, 但其法律地位尚未得到明确界定。虽然现实中尚未发生与人工智能生成物有关的侵权纠纷, 但立法者和司法实践者应当具备相应的前瞻性, 在现有着作权法体系框架内, 通过完善法律解释, 将人工智能生成物纳入着作权客体保护范围, 明确其归属, 并通过已有的着作权法制度来纠正人工智能技术在编创过程中可能出现的隐性偏见问题。

  注释:

  1蒋枝宏.传媒颠覆者:机器新闻写作.新闻研究导刊, 2016 (3) .
  2人工智能出诗集了, 人类怎么看. (2017-06-15) .http://news.sciencenet.cn/htmlnews/2017/6/379552.shtm.
  3张操.算法与利益:Facebook人工智能新闻编辑的骗局.新闻世界, 2017 (6) .
  4熊琦.人工智能生成内容的着作权认定.知识产权, 2017 (3) .
  5王迁.论人工智能生成的内容在着作权法中的定性.法律科学, 2017 (5) .
  6易继明.人工智能创作物是作品吗?.法律科学, 2017 (5) .
  7梁志文.论人工智能创造物的法律保护.法律科学, 2017 (5) .
  8曹源.人工智能创作物获得版权保护的合理性.科技与法律, 2016 (3) .
  9中国电子技术标准化研究院.人工智能标准化白皮书 (2018版) . (2018-01-24) .http://www.cesi.ac.cn/201801/3545.html.
  10吴军.智能时代:大数据与智能革命重新定义未来.北京:中信出版社, 2016:249.
  11史上首个“机器人公民”索菲亚:我会毁灭人类. (2017-10-29) .http://news.ifeng.com/a/20171029/52844704_0.shtml.
  12Bridy, Annemarie, Coding Creativity:Copyright and the Artificially Intelligent Author (July 18, 2011) .Stanford Technology Law Review, Vol.5, pp.1-28 (Spring 2012) .;U.of Pittsburgh Legal Studies Research Paper No.2011-25.Available at SSRN:https://ssrn.com/abstract=1888622.
  13吴汉东.人工智能时代的制度安排与法律规制.法律科学, 2017 (5) .
  14易继明.人工智能创作物是作品吗?.法律科学, 2017 (5) .
  15刘影.人工智能生成物着作权法保护初探.知识产权, 2017 (9) .
  16Emerging Technology from the ar Xiv, “How Vector Space Mathematics Reveals the Hidden Sexism in Language”.https://www.technologyreview.com/s/602025/how-vectorspace-mathematics-reveals-the-hiddensexism-in-language/.
  17Michael Rundle.Zuckerberg:Telepathy is the Futureof Facebook.Wired UK, July 1, 2015.http://www.wired.co.uk/article/facebookzuckerberg-qa-the-future.
  18郑戈.人工智能与法律的未来.探索与争鸣, 2017 (10) .
  19Levendowski, Amanda, How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem (July 24, 2017) .Washington Law Review, Forthcoming.Available at SSRN:https://ssrn.com/abstract=3024938.
  20吴汉东.着作权法合理使用制度研究.北京:中国人民大学出版社, 2013:172.
  21张颖.探索孤儿作品问题的解决之道——以完善版权登记制度为视角.编辑之友, 2016 (1) .

原文出处:[1]张颖.人工智能编创过程中的着作权问题探析[J].中国编辑,2018(09):81-86.
  • 报警平台
  • 网络监察
  • 备案信息
  • 举报中心
  • 传播文明
  • 诚信网站