其二,风险控制路径更有利于实现生成式人工智能信息安全风险的合理分配。在当前风险社会中,生成式人工智能的社会价值不断凸显,其用户群体持续扩大,随之而来的个人信息保护风险也逐渐演变为一个重要的社会问题。因为一旦生成式人工智能发生信息安全事件,可能会危及上亿个用户群体,对整体社会秩序和公共利益乃至国家利益造成不利影响。正如前文所述,生成式人工智能应用中的个人信息安全风险在整体上已经上升到国家层面的意识形态安全、国家信息安全以及网络空间安全。此时,传统的权利保护路径已经不再适用,因为它通过某些机制将技术带来的风险不合理地转嫁给每一个独立的信息主体,从而导致生成式人工智能信息安全风险的分配失衡。相较之下,基于风险开启理论和获利报偿理论的风险控制路径,强调由生成式人工智能技术服务提供者和监督机构承担风险控制的主体责任,对信息处理活动进行价值判断,从而将生成式人工智能应用中的个人信息保护纳入到全社会风险控制的范畴中。在这种保护方式下,生成式人工智能带来的个人信息安全保护责任不再是信息主体的单一责任,而是一个需要多方参与和共同承担的社会责任,是一种更符合信息安全风险分配原则并且可实现期待性更高的保护路径。
其三,风险控制路径更有利于实现生成式人工智能应用中个人信息的高效保护。根据社会学家乌尔里希·贝克的观点,现代化进程中科技和经济全球化的发展所带来的各种风险难以预测和计算。这些风险不受时间、空间和社会界限的限制,无法完全消除,其绝对性不可避免。此外,现代社会的复杂性决定了风险之间必将相互渗透和影响,这是现代社会不可避免的趋势。一旦人们对此形成了正确认识,“相对安全”便取代“绝对安全”,成为生成式人工智能个人信息安全风险治理的理性目标。生成式人工智能正在不断迭代升级,其带来的个人信息非法收集、泄露、滥用、虚假信息生成等问题已经显露,其他潜在风险和问题或许正在酝酿之中。传统权利保护模式以一种定型化的刚性方式,为个人信息保护划定最低的限度,无法有效应对复杂的信息生态环境和生成式人工智能可能带来的新型信息安全威胁。而风险控制路径更注重个人信息保护的动态性,以量体裁衣的灵活模式,根据生成式人工智能应用的具体情况进行风险把控。这种方式考虑技术、市场、法律、管理等多个维度,能够对生成式人工智能带来的信息安全风险进行全方位、动态化回应,能够更好地适应信息化、数字化时代的发展,应对生成式人工智能带来的新型信息安全威胁,保障个人信息的安全和隐私。
三、风险控制路径的四层次体系展开
针对生成式人工智能应用中个人信息保护的复杂性,风险控制路径应基于下述四层次体系展开:
(一)促使告知同意规则的“个人控制中心向风险控制中心”转变
告知同意规则包含“告知”与“同意”两个层面,前者要求信息处理者必须向个人信息主体明示信息处理的范畴、方式、目的等影响个人信息主体作出同意决定的内容,后者则要求信息处理者的处理行为必须征得个人信息主体的明确甚至是单独同意。对于生成式人工智能中的个人信息收集而言,原则上同样需要遵守告知同意规则。《生成式人工智能服务管理办法》也明确将授权同意作为生成式人工智能开发与运行的基本准则之一。但正如前文所述,生成式人工智能语料库数据收集的强制性和无形性使得告知同意规则基本处于虚置状态。若遵循严格的告知同意原则,生成式人工智能技术服务提供者必须对所有信息主体进行一一告知并征得明示同意,对于收集敏感个人信息的情况还需征得信息主体的单独同意。显然,采用强告知同意规则可能会导致生成式人工智能无法正常运行,并且个人也将因此承担冗长的隐私协议解读负担。因此,为保障个人信息权益得到切实有效保护,同时促进生成式人工智能技术的持续健康发展,需要对告知同意规则进行风险化解释和调试,推动告知同意规则由“个人控制”为中心向“风险控制”为中心转变。
告知同意规则的风险化解释和调试指将可能引发的风险作为个人信息处理合理性的判断标准。具体而言,如果信息主体对生成式人工智能技术服务提供者的信息收集行为未做出明确同意或明确拒绝的意思表示,但通过个人信息保护影响评估能够确认信息处理行为不会带来超出合理范围外的风险,那么可以推定其默示同意。这一做法与美国所采用的“择出式知情同意机制”相类似,即企业在采集用户个人信息时并没有征求同意的义务,只需要在采集行为发生前或发生时向用户进行信息披露。从美国联邦立法到州立法,择出式知情同意机制始终占据主导地位,这一机制更有助于提升用户行为信息的商业化利用效率。需要注意的是,所谓“择出同意” 即使信息主体被认定为默示同意,其在信息处理过程中仍享有选择退出的权利,可通过新的意思表示推翻之前的默示同意。在生成式人工智能应用中同样如此,在后续语料库数据存储、语言模型训练等环节用户仍有权撤回(默示)同意。为此,应当要求生成式人工智能技术服务提供者提供便捷的撤回同意的方式,以辅助用户行使这项权利。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!