AIGC 与 UGC

AIGC,互联网术语, Artificial Intelligence Generated Content,中文全称为生成式人工智能

UGC,互联网术语,User Generated Content,用户生成內容。

之所以把这两个术语放在一起介绍,是由于针对 AIGC 出台的法律法规(或临时方法),大多数取经历于 UGC 。关于国内有 UGC 运营经历的团队,很容易参照自己从事 UGC 积累的合规性经历,比照 AIGC 和 UGC 的合规性差异,触类旁通类比到 AIGC 的运营上,从而最大限度的维护自己防止踩雷。

由于两个范畴在合规问题上有相当大的共性,所以讨论的时分能够相互类比作为理解的根底。

生成内容的危险

运用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,鼓动分裂国家、损坏国家统一,宣传恐怖主义、极端主义,宣传民族仇视、民族轻视,暴力、淫秽色情信息,虚假信息,以及或许打乱经济秩序和社会秩序的内容。

《生成式人工智能服务管理方法》

在 UGC 范畴,内容发生的创造者来自用户。因此,UGC 渠道会经过拟定内容创造的规矩,经过对创造者用户账号的束缚(例如违规账号会被封号)等方法,来保障作为渠道对法律法规的尊重和拥护。

而在 AIGC 范畴,内容的创造者是 AI,而不是详细的用户。那么 AIGC 渠道所拟定的内容创造的规矩,就是用来束缚 AI 而不是详细的用户的。

这就带来第一个问题:怎么确保 AI 在内容创造过程中不犯合规性过错,至少不要犯严峻的过错。

在服务管理方法中所说到的“含有颠覆国家政权、推翻社会主义制度,鼓动分裂国家、损坏国家统一,宣传恐怖主义、极端主义,宣传民族仇视、民族轻视,暴力、淫秽色情信息,虚假信息,以及或许打乱经济秩序和社会秩序的内容。”,如果有任何一条内容犯了以上过错之一,对开发团队或许都是灭顶的冲击。

比照 UGC 范畴处理这个问题的方法,能够发现 UGC 的危险压力要比 AIGC 小。由于 UGC 存在容错的空间,即 UGC 渠道尽管无法肯定防止过错(审阅总有犯错的时分),但是能够经过事后补救的方法,例如将创造者封号,删除违规内容,甚至向有关部分上报等方法,来处理这一类问题。简而言之,UGC 范畴允许弹性处理内容生成的过错。

而 AIGC 之所以无法像 UGC 那么弹性,是由于 AIGC 本身既是渠道,也被视为内容生产者。而在 《生成式人工智能服务管理方法》 中,现已明确了渠道作为内容渠道,同时还承当着内容生产者的职责

运用生成式人工智能产品供给聊天和文本、图像、声响生成等服务的组织和个人(以下称“供给者”),包含经过供给可编程接口等方法支撑别人自行生成文本、图像、声响等,承当该产品生成内容生产者的职责;触及个人信息的,承当个人信息处理者的法定职责,履行个人信息维护职责。

《生成式人工智能服务管理方法》

所以,在 UGC 的视角,U 发布了违规内容,U 承当着首要的职责,渠道只要及时干预,只承当部分职责。而在 AIGC 视角,没有 U 能够为渠道“分管”职责,这就导致渠道不得不为每一个生成的内容负全部职责。

职责的比如包含但不限于:

  • AI 发生了反抗和有悖社会公俗的内容时。
  • 用户运用 AI 产品,经过 AI 产品的主张造成重大损失时。(例如极端的心理咨询被迷惑自杀)
  • AI 发生的创造出现抄袭嫌疑、侵犯了别人权力时。

数据跨境的危险

在国内的 AIGC 产品里,低成本的创业方法是大部分中小型开发者供给数据中转服务,实际运用境外的 AIGC 产品(如 ChatGPT),用户提交的数据经过开发者服务器,转发到境外,再从境外获取数据,下发到用户终端。

凡是这一类产品,都触及到数据跨境的合规性危险。

关于通用 AIGC 类产品,开发者几乎无法完善操控用户向 AIGC 提交输入的内容,这就导致用户提交的数据会不经审阅地直接传输到境外。而通用类 AIGC 产品不存在范畴束缚,因此无法防止国内灵敏信息的大规模外泄。

这一类问题被以为目前是 AIGC 类产品最灵敏最严峻的问题

2022年7月7日,国家互联网信息办公室正式发布《数据出境安全评价方法》,其中,对数据出境的安全评价做了以下规则。

数据处理者向境外供给数据,有下列景象之一的,应当经过所在地省级网信部分向国家网信部分申报数据出境安全评价:
(一)数据处理者向境外供给重要数据;
(二)关键信息根底设施运营者和处理100万人以上个人信息的数据处理者向境外供给个人信息;
(三)自上年1月1日起累计向境外供给10万人个人信息或许1万人灵敏个人信息的数据处理者向境外供给个人信息;
(四)国家网信部分规则的其他需求申报数据出境安全评价的景象。

《数据出境安全评价方法》

以上申报标准对 ChatGPT 是完全树立的,这也意味着关于国内以 ChatGPT 为代表的各类出境拜访接口来说,任何搭建此类服务中转的开发者,从合规层面都 有必要申报,否则都属于“躲避监管”。

用户歹意运用的危险

供给者发现用户运用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包含从事网络炒作、歹意发帖跟评、制作垃圾邮件、编写歹意软件,施行不正当的商业营销等,应当暂停或许终止服务。

《生成式人工智能服务管理方法》

由于 AIGC 是通用型服务软件,开发者很难追踪用户运用软件用于什么目的,所以存在监管困难的情况(事实上大部分国内的创业者没有供给配套的监管方法,由于施行成本过高)。经过 AIGC 施行违法,或许触及淫秽、网络暴力、诽谤等行为,都会导致开发者被追责。

怎么合理避险

综上,在国内研制 AIGC 类产品的首要危险部分现已基本列出。能够看出合规成本是不小的,关于开发者挑选合规的方法开发这一类产品,以下主张仅供参考:

  1. 不面向国内供给服务(出海)。
  2. 面向国内的:
    2.1. 能够运用国内的 AI 服务(例如文心一言)。
    2.2. 能够树立镜像做本地服务,隔绝数据出境。
    2.3. 选用出境数据服务的,优先处理报备审阅流程。
  3. 产品层面供给详尽的用户协议(合规防护方法1)。
  4. 产品层面供给生成式内容举报反馈流程(合规防护方法2)
  5. 束缚用户输入集:
    5.1 对用户输入的内容进行智能剖析,做合法性判定。
    5.2 做笔直产品,束缚用户输入(例如只供给让按钮和限定词输入的笔直产品,再经过服务端补齐内容等方法)
  6. 待补充。

更多阅览

苹果开发者不可不知的“苹果小型开发者佣金计划”

准备全职做个人开发的注意事项

移动开发者联盟参加指引