AIGC 与 UGC
AIGC,互联网术语, Artificial Intelligence Generated Content,中文全称为生成式人工智能。
UGC,互联网术语,User Generated Content,用户生成內容。
之所以把这两个术语放在一起介绍,是因为针对 AIGC 出台的法律法规(或临时办法),大多数取经验于 UGC 。对于国内有 UGC 运营经验的团队,很容易参照自己从事 UGC 积累的合规性经验,对比 AIGC 和 UGC 的合规性差异,举一反三类比到 AIGC 的运营上,从而最大限度的保护自己避免踩雷。
因为两个领域在合规问题上有相当大的共性,所以讨论的时候可以互相类比作为理解的基础。
生成内容的风险
利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
《生成式人工智能服务管理办法》
在 UGC 领域,内容产生的创作者来自用户。因此,UGC 平台会通过制定内容创作的规则,通过对创作者用户账号的约束(例如违规账号会被封号)等方式,来保障作为平台对法律法规的尊重和拥护。
而在 AIGC 领域,内容的创作者是 AI,而不是具体的用户。那么 AIGC 平台所制定的内容创作的规则,就是用来约束 AI 而不是具体的用户的。
这就带来第一个问题:如何保证 AI 在内容创作过程中不犯合规性错误,至少不要犯严重的错误。
在服务管理办法中所提到的“含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。”,如果有任何一条内容犯了以上错误之一,对开发团队可能都是灭顶的打击。
对比 UGC 领域处理这个问题的办法,可以发现 UGC 的风险压力要比 AIGC 小。因为 UGC 存在容错的空间,即 UGC 平台虽然无法绝对避免错误(审核总有出错的时候),但是可以通过事后补救的措施,例如将创作者封号,删除违规内容,甚至向有关部门上报等方式,来处理这一类问题。简而言之,UGC 领域允许弹性处理内容生成的错误。
而 AIGC 之所以无法像 UGC 那么弹性,是因为 AIGC 本身既是平台,也被视为内容生产者。而在 《生成式人工智能服务管理办法》 中,已经明确了平台作为内容渠道,同时还承担着内容生产者的责任。
利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
《生成式人工智能服务管理办法》
所以,在 UGC 的视角,U 发布了违规内容,U 承担着主要的责任,平台只要及时干预,只承担部分责任。而在 AIGC 视角,没有 U 可以为平台“分担”责任,这就导致平台不得不为每一个生成的内容负全部责任。
责任的例子包括但不限于:
AI 产生了反动和有悖社会公俗的内容时。
用户使用 AI 产品,通过 AI 产品的建议造成重大损失时。(例如极端的心理咨询被蛊惑自杀)
AI 产生的创作出现抄袭嫌疑、侵犯了他人权利时。
数据跨境的风险
在国内的 AIGC 产品里,低成本的创业方式是大部分中小型开发者提供数据中转服务,实际使用境外的 AIGC 产品(如 ChatGPT),用户提交的数据经过开发者服务器,转发到境外,再从境外获取数据,下发到用户终端。
凡是这一类产品,都涉及到数据跨境的合规性风险。
对于通用 AIGC 类产品,开发者几乎无法完善控制用户向 AIGC 提交输入的内容,这就导致用户提交的数据会不经审核地直接传输到境外。而通用类 AIGC 产品不存在领域限制,因此无法避免国内敏感信息的大规模外泄。
这一类问题被认为目前是 AIGC 类产品最敏感最严重的问题。
2022年7月7日,国家互联网信息办公室正式公布《数据出境安全评估办法》,其中,对数据出境的安全评估做了以下规定。
数据处理者向境外提供数据,有下列情形之一的,应当通过所在地省级网信部门向国家网信部门申报数据出境安全评估:(一)数据处理者向境外提供重要数据;(二)关键信息基础设施运营者和处理100万人以上个人信息的数据处理者向境外提供个人信息;(三)自上年1月1日起累计向境外提供10万人个人信息或者1万人敏感个人信息的数据处理者向境外提供个人信息;(四)国家网信部门规定的其他需要申报数据出境安全评估的情形。
《数据出境安全评估办法》
以上申报标准对 ChatGPT 是完全成立的,这也意味着对于国内以 ChatGPT 为代表的各类出境访问接口来说,任何搭建此类服务中转的开发者,从合规层面都 必须申报,否则都属于“逃避监管”。
用户恶意使用的风险
提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
《生成式人工智能服务管理办法》
由于 AIGC 是通用型服务软件,开发者很难追踪用户使用软件用于什么目的,所以存在监管困难的情况(事实上大部分国内的创业者没有提供配套的监管措施,因为实施成本过高)。通过 AIGC 实施犯罪,或者涉及淫秽、网络暴力、造谣等行为,都会导致开发者被追责。
如何合理避险
综上,在国内研发 AIGC 类产品的主要风险部分已经基本列出。可以看出合规成本是不小的,对于开发者选择合规的方式开发这一类产品,以下建议仅供参考:
不面向国内提供服务(出海)。
面向国内的:2.1. 可以使用国内的 AI 服务(例如文心一言)。2.2. 可以建立镜像做本地服务,隔绝数据出境。2.3. 采用出境数据服务的,优先处理报备审核流程。
产品层面提供详尽的用户协议(合规防护措施1)。
产品层面提供生成式内容举报反馈流程(合规防护措施2)
约束用户输入集:5.1 对用户输入的内容进行智能分析,做合法性判定。5.2 做垂直产品,限制用户输入(例如只提供按钮和限定词输入的垂直产品,再通过服务端补齐内容等方式)
待补充。
更多阅读
苹果开发者不可不知的“苹果小型开发者佣金计划”
准备全职做个人开发的注意事项
移动开发者联盟加入指引
AIGC,互联网术语, Artificial Intelligence Generated Content,中文全称为生成式人工智能。
UGC,互联网术语,User Generated Content,用户生成內容。
之所以把这两个术语放在一起介绍,是因为针对 AIGC 出台的法律法规(或临时办法),大多数取经验于 UGC 。对于国内有 UGC 运营经验的团队,很容易参照自己从事 UGC 积累的合规性经验,对比 AIGC 和 UGC 的合规性差异,举一反三类比到 AIGC 的运营上,从而最大限度的保护自己避免踩雷。
因为两个领域在合规问题上有相当大的共性,所以讨论的时候可以互相类比作为理解的基础。
生成内容的风险
利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。
《生成式人工智能服务管理办法》
在 UGC 领域,内容产生的创作者来自用户。因此,UGC 平台会通过制定内容创作的规则,通过对创作者用户账号的约束(例如违规账号会被封号)等方式,来保障作为平台对法律法规的尊重和拥护。
而在 AIGC 领域,内容的创作者是 AI,而不是具体的用户。那么 AIGC 平台所制定的内容创作的规则,就是用来约束 AI 而不是具体的用户的。
这就带来第一个问题:如何保证 AI 在内容创作过程中不犯合规性错误,至少不要犯严重的错误。
在服务管理办法中所提到的“含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。”,如果有任何一条内容犯了以上错误之一,对开发团队可能都是灭顶的打击。
对比 UGC 领域处理这个问题的办法,可以发现 UGC 的风险压力要比 AIGC 小。因为 UGC 存在容错的空间,即 UGC 平台虽然无法绝对避免错误(审核总有出错的时候),但是可以通过事后补救的措施,例如将创作者封号,删除违规内容,甚至向有关部门上报等方式,来处理这一类问题。简而言之,UGC 领域允许弹性处理内容生成的错误。
而 AIGC 之所以无法像 UGC 那么弹性,是因为 AIGC 本身既是平台,也被视为内容生产者。而在 《生成式人工智能服务管理办法》 中,已经明确了平台作为内容渠道,同时还承担着内容生产者的责任。
利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
《生成式人工智能服务管理办法》
所以,在 UGC 的视角,U 发布了违规内容,U 承担着主要的责任,平台只要及时干预,只承担部分责任。而在 AIGC 视角,没有 U 可以为平台“分担”责任,这就导致平台不得不为每一个生成的内容负全部责任。
责任的例子包括但不限于:
AI 产生了反动和有悖社会公俗的内容时。
用户使用 AI 产品,通过 AI 产品的建议造成重大损失时。(例如极端的心理咨询被蛊惑自杀)
AI 产生的创作出现抄袭嫌疑、侵犯了他人权利时。
数据跨境的风险
在国内的 AIGC 产品里,低成本的创业方式是大部分中小型开发者提供数据中转服务,实际使用境外的 AIGC 产品(如 ChatGPT),用户提交的数据经过开发者服务器,转发到境外,再从境外获取数据,下发到用户终端。
凡是这一类产品,都涉及到数据跨境的合规性风险。
对于通用 AIGC 类产品,开发者几乎无法完善控制用户向 AIGC 提交输入的内容,这就导致用户提交的数据会不经审核地直接传输到境外。而通用类 AIGC 产品不存在领域限制,因此无法避免国内敏感信息的大规模外泄。
这一类问题被认为目前是 AIGC 类产品最敏感最严重的问题。
2022年7月7日,国家互联网信息办公室正式公布《数据出境安全评估办法》,其中,对数据出境的安全评估做了以下规定。
数据处理者向境外提供数据,有下列情形之一的,应当通过所在地省级网信部门向国家网信部门申报数据出境安全评估:(一)数据处理者向境外提供重要数据;(二)关键信息基础设施运营者和处理100万人以上个人信息的数据处理者向境外提供个人信息;(三)自上年1月1日起累计向境外提供10万人个人信息或者1万人敏感个人信息的数据处理者向境外提供个人信息;(四)国家网信部门规定的其他需要申报数据出境安全评估的情形。
《数据出境安全评估办法》
以上申报标准对 ChatGPT 是完全成立的,这也意味着对于国内以 ChatGPT 为代表的各类出境访问接口来说,任何搭建此类服务中转的开发者,从合规层面都 必须申报,否则都属于“逃避监管”。
用户恶意使用的风险
提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
《生成式人工智能服务管理办法》
由于 AIGC 是通用型服务软件,开发者很难追踪用户使用软件用于什么目的,所以存在监管困难的情况(事实上大部分国内的创业者没有提供配套的监管措施,因为实施成本过高)。通过 AIGC 实施犯罪,或者涉及淫秽、网络暴力、造谣等行为,都会导致开发者被追责。
如何合理避险
综上,在国内研发 AIGC 类产品的主要风险部分已经基本列出。可以看出合规成本是不小的,对于开发者选择合规的方式开发这一类产品,以下建议仅供参考:
不面向国内提供服务(出海)。
面向国内的:2.1. 可以使用国内的 AI 服务(例如文心一言)。2.2. 可以建立镜像做本地服务,隔绝数据出境。2.3. 采用出境数据服务的,优先处理报备审核流程。
产品层面提供详尽的用户协议(合规防护措施1)。
产品层面提供生成式内容举报反馈流程(合规防护措施2)
约束用户输入集:5.1 对用户输入的内容进行智能分析,做合法性判定。5.2 做垂直产品,限制用户输入(例如只提供按钮和限定词输入的垂直产品,再通过服务端补齐内容等方式)
待补充。
更多阅读
苹果开发者不可不知的“苹果小型开发者佣金计划”
准备全职做个人开发的注意事项
移动开发者联盟加入指引