CN English中文ItalianoFrançais

个保法背景下,企业自动化决策的合规问题

发布日期:2021-10-29 17:25:06浏览:


人工智能、大数据、机器学习蓬勃发展的当下,我们正在进入“算法社会”。大数据算法渗透在我们生活的方方面面,个性化推广、精准化营销、风险的预测与防范……技术的变革带给人们极大的便利。但技术利好的另一面,大数据杀熟、信息茧房、营销推广中的价格歧视、工作求职中的性别歧视等问题开始出现,大数据算法的负面效应正在一一浮出水面。


算法作为不透明的“黑盒子”,我们无法窥探其全貌。有理论认为大数据算法并非中立的,其具有歧视的本质。而为了防止算法偏见,需要加强对自动化决策的监管。欧盟的《一般数据保护条例》(以下简称“GDPR”)采取了一系列措施来规制这一问题,赋予个人信息主体对算法决策的知情权、反对权,同时要求个人信息处理者承担解释说明、数据保护影响评估等义务。


随着我国《个人信息保护法》(以下简称“《个保法》”)的颁布,我国也在法律层面正式回应自动化决策问题,强化对算法决策的规制及个人信息的保护。本文将结合《个保法》的规定,分析企业利用个人信息进行自动化决策应遵循的义务,并提供相应的合规建议。


一、自动化决策的法律规制

图片(一)关于自动化决策的法律法规


《个保法》将自动化决策定义为“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动”。


目前,《个人信息保护法》《电子商务法》《深圳经济特区数据条例》《浙江省电子商务条例》等法律法规均对自动化决策进行了规定,从立法层面对这一问题进行规制。同时,在今年8月,国家网信办发布了《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称“《算法推荐规定》”),旨在规范算法推荐的互联网行为,划定算法平台的行为框架。


此外,《在线旅游经营服务管理暂行规定》《信息安全技术个人信息安全规范》《互联网个人信息安全保护指南》等一系列规范及指南从不同的侧重点对自动化决策问题进行了明晰。我们梳理了目前关于自动化决策的法律法规,供大家参考:


法规

要点

《个人信息保护法》

24:个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。

通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式

通过自动化决策方式作出个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

《电子商务法》

18条:电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项尊重和平等保护消费者合法权益

《深圳经济特区数据条例》

29:数据处理者基于提升产品或者服务质量的目的,对自然人进行用户画像的,应当向其明示用户画像的具体用途和主要规则。自然人可以拒绝数据处理者根据前款规定对其进行用户画像或者基于用户画像推荐个性化产品或者服务,数据处理者应当以易获取的方式向其提供拒绝的有效途径

30条:数据处理者不得基于用户画像向未满十四周岁的未成年人推荐个性化产品或者服务。但是,为了维护其合法权益并征得其监护人明示同意的除外。

《浙江省电子商务条例》

第14条: 电子商务经营者不得利用大数据分析、算法等技术手段,对交易条件相同的消费者在交易价格等方面实行不合理差别待遇。

不构成不合理差别待遇的情形:(一)根据消费者的实际需求,且符合正当的交易习惯和行业惯例,实行不同交易条件的;(二)针对新用户在合理期限内开展优惠活动的;(三)基于公平、合理、非歧视规则实施随机性交易的;(四)能够证明行为具有正当性的其他情形。本条所称交易条件相同,是指消费者在交易安全、交易成本、信用状况、交易环节、交易方式、交易持续时间等方面不存在实质性差别。

27条:电子商务经营者违反本条例第十四条规定,对交易条件相同的消费者实行不合理差别待遇的,由市场监督管理部门依照《中华人民共和国个人信息保护法》的规定进行处罚。电子商务经营者违反本条例第十四条规定,构成滥用市场支配地位行为的,依照反垄断有关法律、行政法规规定处罚。

《在线旅游经营服务管理暂行规定》

15条:在线旅游经营者不得滥用大数据分析等技术手段,基于旅游者消费记录、旅游偏好等设置不公平的交易条件,侵犯旅游者合法权益。

《禁止网络不正当竞争行为规定》

21条:经营者不得利用数据、算法等技术手段,通过收集、分析交易相对方的交易信息、浏览内容及次数、交易时使用的终端设备的品牌及价值等方式,对交易条件相同的交易相对方不合理地提供不同的交易信息侵害交易相对方的知情权、选择权、公平交易权等,扰乱市场公平交易秩序。交易信息包括交易历史、支付意愿、消费习惯、个体偏好、支付能力、依赖程度、信用状况等。

《数据安全管理办法(征求意见稿)》

32:网络运营者分析利用所掌握的数据资源,发布市场预测、统计信息、个人和企业信用等信息,不得影响国家安全、经济运行、社会稳定,不得用于用户个性化营销损害他人合法权益。

《信息安全技术个人信息安全规范》

7.4 用户画像的使用限制

对个人信息控制者的要求包括:

a) 用户画像中对个人信息主体的特征描述,不应:1) 包含淫秽、色情、赌博、迷信、恐怖、暴力的内容;2) 表达对民族、种族、宗教、残疾、疾病歧视的内容。

b) 在业务运营或对外业务合作中使用用户画像的,不应:1) 侵害公民、法人和其他组织的合法权益;2) 危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,传播暴力、淫秽色情信息,编造、传播虚假信息扰乱经济秩序和社会秩序。

c) 除为实现个人信息主体授权同意的使用目的所必需外,使用个人信息时应消除明确身份指向性,避免精确定位到特定个人。例如,为准确评价个人信用状况,可使用直接用户画像,而用于推送商业广告目的时,则宜使用间接用户画像。

7.7 信息系统自动决策机制的使用

个人信息控制者业务运营所使用的信息系统,具备自动决策机制且能对个人信息主体权益造成显著影响的(例如,自动决定个人征信及贷款额度,或用于面试人员的自动化筛选等),应:

a) 在规划设计阶段或首次使用前开展个人信息安全影响评估,并依评估结果采取有效的保护个人信息主体的措施;

b) 在使用过程中定期(至少每年一次)开展个人信息安全影响评估,并依评估结果改进保护个人信息主体的措施;

c) 向个人信息主体提供针对自动决策结果的投诉渠道,并支持对自动决策结果的人工复核

《互联网个人信息安全保护指南》

6.3 c) 完全依靠自动化处理的用户画像技术应用于精准营销、搜索结果排序、个性化推送新闻、定向投放广告等增值应用,可事先不经用户明确授权,但应确保用户有反对或者拒绝的权利;如应用于征信服务、行政司法决策等可能对用户带来法律后果的增值应用,或跨网络运营者使用,应经用户明确授权方可使用其数据。


图片(二)利用个人信息自动化决策须遵循的义务


《个保法》第24条规定了个人信息处理者进行自动化决策须遵循的义务和原则,总结起来,主要有以下几点:

1.应遵循公开透明原则
公开透明原则是指个人信息处理者进行自动化决策时,应使决策公开,能够被他人知悉。[1]《算法推荐规定》第14条对公开透明原则进一步细化,要求算法推荐服务提供者以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。这一原则意在揭开算法的“黑盒子”,使公众能够感知到算法决策的运行原理,以保障用户知情权,同时也对个人信息处理者的算法决策行为进行有效监督。

2.应遵循公平合理原则
自动化决策引发的歧视性问题在实践中屡屡发生,比如大家所熟知的大数据杀熟问题。公平合理原则是规制算法偏见的重要原则,2019年实施的《电子商务法》规定了使用自动化决策应当尊重和平等保护消费者合法权益。《个保法》在此之上做了进一步细化,要求决策结果的公平合理,不得在交易条件上实行不合理的差别待遇。

何为不合理的差别待遇,国家市场监督管理总局出台的《关于平台经济领域的反垄断指南(征求意见稿)》第17条规定,分析是否构成差别待遇,可以考虑以下因素:(一)基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;(二)基于大数据和算法,对新老交易相对人实行差异性交易价格或者其他交易条件;(三)实行差异性标准、规则、算法;(四)实行差异性付款条件和交易方式。此外,《深圳经济特区数据条例》第69条及《浙江省电子商务条例》第14条还对“不构成差别待遇”的情形作出规定,可作为判断的参考。

公平合理原则有助于弥补因算法导致的主体间地位的不平等,充分保障个人信息主体的合法权利。企业在通过技术深度处理海量数据时,应避免对数据的滥用,注意权利行使的边界。

3.应赋予用户选择或拒绝的权利
《个保法》第24条第2款规定,通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。根据此规定,个人信息处理者在进行自动化决策时应赋予用户选择或拒绝的权利。

关于提供不针对其个人特征的选项,《信息安全技术个人信息安全规范》7.5 b)注释对这一问题进行了解释,即基于个人信息主体所选择的特定地理位置进行展示、搜索结果排序,且不因个人信息主体身份不同展示不一样的内容和搜索结果排序,则属于不针对其个人特征的选项。因此,如企业在进行自动化决策时,同时提供了地理位置这一选项,且不同用户在同一地理位置可以获得相同的内容,那么可以视为提供了不针对其个人特征的选项。除此之外,我们认为企业在对用户进行个性化推荐时,能够使用户自主选择想要看到的内容,也可以视为赋予用户选择权。例如用户在外卖平台搜索店铺时,除向其提供个性化推荐内容,还同时提供销量、距离、好评等设置选项,使用户可以选择想要看到的内容。

提供便捷的拒绝方式,则要求企业不仅是在隐私政策中进行文字提示,还需要设置明确的关闭功能,例如用户可以自行在app内设置关闭。同时,拒绝不得以剥夺用户其他权益为代价,如剥夺其使用基础功能的权利。

4.涉及重大影响的决定,应保障用户的请求说明权和拒绝权
《个保法》第24条第3款特别规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。此条内容参考了GDPR的相关规定,但何为“对个人权益有重大影响的决定”目前仍缺乏统一的解释,《信息安全技术个人信息安全规范》第7.7条列举了“自动决定个人征信及贷款额度,或用于面试人员的自动化筛选等”情形。此外,《互联网个人信息安全保护指南》6.3c) 规定了,完全依靠自动化处理的用户画像技术如应用于征信服务、行政司法决策等可能对用户带来法律后果的增值应用,或跨网络运营者使用,应经用户明确授权方可使用其数据。按照上述规定,“对个人权益有重大影响的决定”可能包括个人征信、行政司法决策、面试求职等情况,如存在上述场景的,企业应充分保障用户的知情权,同时用户有权拒绝企业仅采用自动化决策手段,并要求其提供人工核查渠道。


二、自动化决策的应用场景

图片(一)大数据杀熟
大数据杀熟是指互联网企业利用用户数据对消费者实施的价格歧视,同样的商品或服务,老客户看到的价格反而比新客户要贵出许多。这一行为严重违反了公平合理原则,被《个保法》《电子商务法》等法律法规明令禁止。今年7月,浙江省绍兴市柯桥区人民法院对“携程大数据杀熟案”作出判决,认定携程存在虚假宣传、价格欺诈和欺骗行为,支持原告退一赔三。对于自动化决策问题,判决认为携程APP的“隐私政策”要求用户许可其使用用户信息进行营销活动、形成个性化推荐,同时要求用户同意携程将用户的订单数据进行分析,从而形成用户画像,以便携程能够了解用户偏好,上述信息超越了形成订单必需的要素信息,属于非必要信息的采集和使用。该案从司法裁判角度对通过隐私政策一揽子授权进行自动化决策的行为予以否定,明确个人信息的收集使用应遵循合法、必要、正当的原则。[2]


图片(二)平台依据自动化决策进行处罚


实践中,平台会采用自动化决策对用户违规行为进行处罚,例如推广者为了获取用户利益,以不正当的方式吸引用户点击,平台通过算法自动化决策判定账户流量异常的,通常会采取冻结账号等处罚措施。



(截图来源于《淘宝平台服务协议》)


今年9月,杭州互联网法院对一起网络服务纠纷案作出判决。在该案中,原告在被告运营的网站注册账户并开展推广活动,经大数据排查,被告认定原告账户“流量异常”,对原告账户进行冻结,因此引发纠纷。法院判决认为,利用算法进行大数据分析和平台自治是遏制扰乱网络交易秩序行为的有效手段,平台自治程序具有正当性。但平台行使算法权力应当公开透明,事先披露治理机制、管理规则以及相关技术原理。在平台自治过程中,用户有权对自动化决策提出质疑和申诉,进一步知晓算法逻辑构造。该案厘清了平台行使算法权力的合理边界,也有效回应了《个保法》中规定的公开透明原则。[3]

三、自动化决策的合规建议


《个保法》将于今年11月1日正式实施,为更好地应对监管,我们对企业实施自动化决策提供如下建议,以供企业参考。


图片(一)事前进行个人信息安全影响评估


《个保法》第55条及56条规定,个人信息处理者利用个人信息进行自动化决策应当事前进行个人信息保护影响评估,并对处理情况进行记录,个人信息保护影响评估报告和处理情况记录应当至少保存三年。评估应当包括下列内容:


  • 个人信息的处理目的、处理方式等是否合法、正当、必要;

  • 对个人权益的影响及安全风险;

  • 所采取的保护措施是否合法、有效并与风险程度相适应。


企业实施自动化决策前应首先进行个人信息安全影响评估,结合应用场景分析可能对个人权益产生的影响,如可能影响个人征信及贷款额度、导致个人人身财产受损、引发差别性待遇及行政司法决策等,建议增加人工审核渠道,避免算法单独做出决定。此外,已有司法判例认定要求用户许可企业使用用户信息进行自动化决策属于非必要信息的采集和使用,因此建议企业充分评估利用个人信息自动化决策的必要性,避免产生合规风险。


图片(二)明示自动化决策的机制


根据《个保法》的规定,个人信息处理者进行自动化决策须遵循公开透明原则,企业应在事前以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等,以充分保障用户知情权。在实施自动化决策过程中,如用户提出质疑或请求的,企业有必要对相关机制予以说明。


(截图来源于《今日头条隐私政策》)


图片(三为用户提供便捷途径对自动化决策功能进行控制与管理

为保障用户的选择退出权,企业应为用户提供便捷途径对自动化决策功能进行关闭或调整。对自动化决策功能的管理不仅需要在隐私政策里进行披露,还需要使用户能够在app中自行设置,选择开启或关闭个性化推荐功能。此外,为保证用户可以自主选择想要看到的内容,我们也建议企业提供自主增加/减少、排序相关兴趣的选项,避免信息茧房的出现。


(截图来源于淘宝app)

图片(四尽量避免向未成年人进行个性化推荐


《深圳经济特区数据条例》第30条规定,除为了维护未满十四周岁未成年人的合法权益并征得其监护人明示同意外,不得向其进行个性化推荐。《算法推荐规定》第16条则明确算法推荐服务提供者不得向未成年人用户推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得利用算法推荐服务诱导未成年人沉迷网络。

尽管《个保法》未明令禁止向未成年人进行个性化推荐,但未满十四周岁未成年人的个人信息属于敏感个人信息,只有在具有特定的目的及充分的必要性,并采取严格保护措施的情形下才可进行处理。企业如仅为进行个性化推荐,且对推荐内容无法做到完全审核时,我们建议尽量避免使用未成年人个人信息进行自动化决策,以降低自身的违规风险。


注释:

[1]杨立新、赵鑫:《利用个人信息自动化决策的知情同意规则及保障——以个性化广告为视角解读<个人信息保护法>第24条规定》,载《法律适用》2021年第10期。
[2]《大数据杀熟,携程被判退一赔三!》,载“人民法院报”微信公众号,https://mp.weixin.qq.com/s/rvvIo3HSRcH9Cdt9xndYdw,最后访问时间:2021年10月29日。
[3]《平台能否根据算法自动化决策进行处罚?法院回应来了》,载“杭州互联网法院”微信公众号,
https://mp.weixin.qq.com/s/I5_ZzMat8BlepW3nLo-nZg,最后访问时间:2021年10月29日


END

声明:本微信文章仅为交流探讨之目的,不得视为广悦数据合规研究院或其律师出具的正式法律意见,任何仅依照本文的全部或部分内容而做出的行为及因此带来的后果均由行为人自行负责。如果您需要法律意见或有意就相关议题进一步交流,可以通过电子邮件与我们联系,E-mail:hlw@wjngh.cn 。

分享到:

  • 免责声明
  • 隐私保护
  • 网站地图

Copyright 2020 广东广悦律师事务所. All Rights Reserved. 粤ICP备13002423号-2 Designed by Wanhu