上世纪50年代,AI先驱图灵估计在2000年左右即可出现能通过“图灵测试”的机器。现在回看他还是有些过于乐观,火热的产品与狂欢的粉丝倒是屡见不鲜,最近的ChatGPT又是其中之一,而且以前所未有的速度火遍全球。但事实表明,一味地跟风追热点不见得是好事,比如当年鸦片在国内也是风头无两的存在,后面的事情我们都知道不再赘述。毫无疑问,以ChatGPT为代表的AIGC是一种具有里程碑意义性质的表现形式,在人类文明进程中占有一席之地也不是不可能。
之前本人曾以图灵测试让ChatGPT穿帮,今天换个角度,探讨ChatGPT可能的法律风险,以及后续的未来。
ChatGPT的著作权问题
在我国,受著作权保护的作品,是指文学、艺术和科学领域内具有独创性,并能以某种有形形式复制的智力成果。符合著作权保护条件的作品,通常是能以某种物质复制形式表现的智力创作成果。因此著作权对未被有形载体固定的口述作品的保护同样适用,这不像英美法那样要求作品必须固定在有形载体上。
概括说来,要被著作权保护需要满足四个条件:属于文艺和科学领域;具有独创性;是智力成果;能以某种形式复制。再结合下ChatGPT的流程不难发现,它唯一欠缺的是独创性,它始终还在人类智慧范围内转圈。正如之前所说,会背唐诗的三岁小孩遍地都有,但是会写诗的诗人始终是凤毛麟角。
ChatGPT的内容问题
ChatGPT的初衷是模仿人类对话者,虽然有相应的智能审核机制,能监督用户输入内容是否有害进而减少有危险性或误导性回复的产生,但碍于技术等问题,还是有人利用漏洞,故意让其输出有害内容以博人眼球。比如之前ChatGPT曾写过步骤详细的毁灭人类计划书,后来发现不过是一位工程师刻意诱导的结果。
从技术角度来说,ChatGPT还是属于机器学习与应用的范畴,机器人目前还不具备明辨是非的能力,所以这块存在的漏洞更多的依赖法律法规的健全与建设。ChatGPT本身也称不上完美无瑕,母公司OpenAI曾表示ChatGPT“有时会写出看似合理但不正确或荒谬的答案”,这在大规模语言模型中很常见,称作“人工智能幻觉”。究其原因在于它的奖励模型围绕人类监督而设计,因此可能导致过度优化从而影响性能,即“古德哈特定律”。
在我国,根据《互联网信息服务管理办法》第二条规定,互联网信息服务是指“通过互联网向上网用户提供信息的服务活动”。ChatGPT会收集用户数据信息,然后通过训练再向用户反馈相关问题的答案,自然属于互联网信息服务的提供者,如果今后在我国境内提供服务,理应遵守我国法律法规。
ChatGPT的隐私保护
ChatGPT作为一种全新的AI技术,底层运行不可避免的要收集用户大数据,因此在使用过程中个人隐私也可能在不经意间就被泄露出去。此外,OpenAI在隐私政策中也并未赋予使用者被遗忘权。近几年随着高科技犯罪的屡屡曝光,隐私泄露问题逐渐成了很多人头疼的问题。早几年的Siri就出现过相关类似问题,好在苹果的安全保密工作还不错没有引来口诛笔伐,但公众心里一旦长出来刺,再想拔掉就没那么容易了。
在我国,数据处理者在使用个人信息需要向被收集对象说明收集何种信息、使用范围并获取用户同意。因此,用户协议以及隐私政策在企业日常收集个人信息的过程中扮演了重要的角色。换个角度说,为了企业日常运营的合规合法,用户协议以及隐私政策的设置也极为重要且必要。
人类社会发展千百年来,传统制度下对“法律主体”的界定具有清晰、成熟且被各方认可的规则。当前时代AI大行其道,“法律主体”这一概念似乎被高科技模糊了。通过一系列手段,现在AI似乎真的越来越像人了。但是,AI的工具性本质决定了它不可能脱离人类而独生。因此,基于人类最简单、最基本的价值观,本人相信,为AI赋予法律地位还是短时间内难以实现的一件事,不论是基于法律还是思想、道德、情感等的考量。
在我国现行《民法典》下,仅有自然人、法人和非法人组织能成为法律主体。另外根据《刑法》规定,犯罪主体是指实施危害社会的行为、依法应当负刑事责任的自然人和单位。根据法教义学,在我国AI的行为及其法律后果,最终都会追究到操控者,由该等法律主体承担相应的法律责任。换言之,AI虽然给传统法律主体戴上了一层面纱,但是当传统法律主体利用AI实施民事行为或违法犯罪行为时,该层面纱将会被毫不留情的揭开。
文章标题:面对火热产品,还需冷静思考:以ChatGPT的法律风险为例
文章链接:https://www.996btc.com/3470.html
更新时间:2024年08月22日
1.本站大部分内容均收集于网络!若内容若侵犯到您的权益,请发送邮件至:service@996btc.com,我们将第一时间处理!
2.资源所需价格并非资源售卖价格,是收集、整理、编辑详情以及本站运营的适当补贴,并且本站不提供任何免费技术支持。
3.所有资源仅限于参考和学习,版权归原作者所有,更多请阅读尚链财经服务协议。