老哥学习网 - www.lg9.cn 2024年05月19日 17:59 星期日
当前位置 首页 >公文范文 > 公文大全 >

论算法差异性影响及评价机制的构建*

发布时间:2023-04-05 16:50:10 浏览数:

李 锦,刘 雷

(湘潭大学 法学院,湖南 湘潭 411105)

随着人工智能(AI)的再度复兴与规模应用,算法的触须渗透到社会方方面面,成为一种新型社会权力支配形态。在算法社会,公民的消费记录、信用状况、衣食住行等时刻处于记录和分析的状态,并经由算法的运行与决策,可能对公民的信贷消费、求职应聘、定罪量刑等产生潜在不利影响,如出现同物不同价、同罪不同刑等现象和问题,进而引发对算法权力之歧视风险及平等威胁的深刻担忧[1]32。为克服算法引发的风险和治理问题,研究者多从算法透明度、算法解释、算法审查、算法监管等方面开展富有教益的探讨,如聚焦“算法偏见”[2]55-66和“算法暴政”的问题,针对性提出了算法解释权的主张[3]51-60,尝试构建数据顾问和制度监测的二元算法监管机制[4]47-55,以探寻公平、透明、可责的多主体规制路径等[5]43-53。

上述研究虽为应对算法差异性影响及其风险规制奠定了基础,但其理论缺陷也较为明显,因为它所构想的法律规制前提是“算法差异性影响必将导致歧视风险发生”。而事实上,算法与歧视并无必然的内在关联,算法决策的结果具有技术中立的特性,算法决策产生差异化影响或后果,不必然具有歧视性,应视具体应用场景而论。值是之故,合理区分算法的差别性待遇与算法歧视,厘清算法“歧视”的内涵和认定,有赖于确立相应的算法影响评价机制,以准确识别算法应用所造成的差异影响并采取不同的法律规制措施。

(一)算法权力与差异性影响的生成

算法是计算科学概念,意指一种操作序列,通过向计算机系统提供分析输入数据的指令促使自动化决策的形成,具有逻辑、数学的特性[6]108。从发展历程来看,最初的算法仅仅是程序员设定的解决特定问题的运算步骤,由输入(lnput)和输出(Output)构成的运算机理,目的是将一些需要重复运用的问题和计算进行分类和编码,以减少运算的时间和人力成本,提升工作效率;
最终,所有为提高效率,解决类问题的模式化处理技术工具和计算机程序,均统称为“算法”[7]78。

在性质上,算法具有科技的中立性,其符号系统只有“0”和“1”的区别,本身并无偏向性或歧视性。然而,随着算法时代的降临,人类的行为和决策开始依赖算法对海量数据的分析和推荐,政府和社会逐步将自动化决策程序应用于行政决策和社会治理之中。与之相应,人们的求职和就业机会、征信资质评价、消费选择等受到算法的影响和控制。例如,在生活消费领域,互联网平台会根据用户浏览痕迹和消费记录,利用算法对用户的消费偏好和消费能力进行评价和判断,针对性向用户智能推介商品和服务;
在金融服务领域,金融机构可以程式化收集并分析信贷主体的资金状况、信用记录等信息,从而作出是否放贷和放贷数额、是否需要抵押和抵押方式等精准金融服务决定[8]26。随着算法决定的广泛渗透,算法成为一种新型的社会治理权力,成为人类创造的用于规范并影响自身行为和社会秩序的手段[1]124。

与此同时,算法自动化决策的深度融入和广泛影响,出现了备受诟病的“差别定价”或“区别放贷”等现象。而且,这种区别性对待具有一定隐秘性,难以被用户察觉。它以数据处理和程序推荐的客观性为幌子,貌似过程和结果的中立性,实则可能产生不公正的区别对待。例如,在美团会员歧视事件中,用户根据平台优惠提示开通会员资格,以期获得相应的会员优惠,结果在开通会员后,原本同一商户的同一商品的配送费用变相提高,因而用户并未因购买会员而享受实质的优惠待遇,反而因自身消费行为遭遇到区别对待的不利后果。这种因算法系统所致的“同物不同价”差异性的市场行为,正是平台逐利与算法合谋(collusion)的产物。

因此,作为一种新兴的社会权力形式,算法既能促进人类社会的进步发展,又会因技术缺陷、数据或信息偏见等因素而产生“大数据杀熟”、算法差异性影响等问题和挑战[9]111-122。很显然,“大数据杀熟”的行为不仅背离社会公平正义的价值理念,而且涉嫌违反平台垄断和不正当竞争法的规范性要求。但是,算法决策的区别对待产生的差异性影响必然是算法歧视吗?以区别对待为例,美国“巴克案”[10]447所确立的区别性录取措施虽然涉嫌侵犯白人学生的平等受教育权利,但根据美国联邦最高法院的认定,优待少数有色族裔学生的招生计划或措施并不违反美国宪法所规定的平等保护条款。同样地,如果算法自动化决策或算法治理产生诸如巴克案所例证的特殊群体的优待措施,显然也会具有相应的正当性理由和抗辩[11]35-67。

(二)算法差异性影响的歧视争议

算法歧视的实质是,算法决策所造成的差异性对待,主观上具有贬低人格尊严的意图,客观上造成不平等的处境。而且,这种不平等处境的理由不具有正当性,损害了个人或者一定社群的平等权利和选择机会[12]226-233。歧视的法律概念存在后果主义和意向主义两种理解[13]117-124:后果主义(1)与后果主义模式试图分离内在偏好和歧视行为之关联的做法不同,意向主义不仅承认两者的密切关系,而且意图根据内在偏好的不同性质来界定歧视的概念。这一定义模式捕捉到一个广泛接受的道德观念,即歧视所赖以存在的偏好或偏见,是与区别对待的道德理由不相关的。换句话说,如果一个行为是歧视性的,那么就有一个不得为之的道德责任。主要从客观发生的后果出发,将算法决策是否造成不公正的客观结果作为歧视的考量标准。算法决策歧视与否的评价只运用结果考量,会引发对算法决策者主观意图的重视度不足的问题,即决策者的主观偏见对算法决策所实际产生的后果不具决定性影响[9];
意向主义侧重于主观偏见或歧视意图,并认为这种缺乏正当性基础的意图和偏见本身令人反感和厌恶。后果主义缺乏对歧视主观偏见的道德正当性的关注,未能注意到差别对待对个体权益产生的正面意义,意向主义则未能充分重视造成差异性结果的场景性因素。

基于整全性的理解,算法歧视的认定应当综合不同维度的考量:一方面,人们需要对区别对待的意图进行判断,评价其主观方面是否具有正当性。根据形式正义的底线要求——等者等之,不等者不等之,如果两者是典型的不等者,则区别对待不仅是可欲的,而且是正当的;
另一方面,则需要考察算法决策结果的实质性差异影响,进而判断对不同群体的差异影响是否达到了不相干(disparate)的歧视性影响。也就是说,歧视性影响不应简单理解为结果的差异性分布,还应从社会公平视角广泛审视差异性分布对不同群体所造成的客观影响。

在算法决策是否构成歧视的认定问题上,还必须考虑算法时代所形成的独特社会结构和文化背景。在算法时代对算法歧视现象的质疑和非议,主要源于公共行政决策、大数据分析、互联网平台等领域广泛运用算法所造成的社会不平等现象。而且,其所产生的差异性影响和结果由于算法决策的特性,呈现出可复制、扩大化态势,具有重复性和系统性的特性。也就是说,算法决策一旦被认定歧视性的,其结果将是普遍性的“系统”歧视。与此同时,算法所固有的隐秘性特征,既让人无法知晓开发者在设计算法系统时是否具备歧视的主观意图,也难以窥测算法决策所造成的差异性结果是否算法自身的目的所在。

总之,区别对待或差异性影响本身不等于歧视。人权保障所反对的歧视或不平等,主要是采取不合理的标准进行区分[14]143-150。算法决策造成的差异性影响是否构成歧视,应根据合理或不合理的评价标准,对算法所引发的争议现象进行场景化评价,进而可以区分为对弱势群体不利影响、有利影响和对社会群体的合理差异性影响。

(一)算法歧视:对弱势群体的差异性不利影响

歧视的表象是不平等,实质是对特定弱势群体的不公平对待。在人类社会的发展过程中,因为历史、文化等因素的影响,先后出现性别、种族、缺陷等区别对待的不良现象。随着“法律面前人人平等”在近代上升为基本原则以来,禁止恣意地区别对待成为当代社会普遍的价值共识。算法决策所作出的区别对待,要构成法律上的歧视类型,必然需要符合平等原则的实质判断。

以网络平台的性别区别对待为例。根据卡内基·梅隆大学的研究所示,互联网平台所发布的60万次招聘广告,若以年收入20万美元的职位为搜索词条,可以发现接受实验的男性用户组共收到1852个岗位推荐,女性用户组仅收到318个推荐[15]。网路平台招聘的男女差异是一种典型的区别对待。从社会事实性的角度来看,这种男女求职时所存在的性别差异是特定社会偏见的产物和结果,它既是普遍存在的事实,也是显而易见的歧视,因为它在不相干的维度上贬损女性劳动者的价值,形成了对弱势群体的差异性不利影响。由此,算法决策产生的性别区别对待可以归属于歧视的范畴,因为差异对待缺乏正当性理由,且使得原本在社会就业方面处于相对弱势地位的女性处于更加不利的职业竞争处境,客观上加深了就业机会的实质不平等。

某种程度上,算法歧视是既有社会歧视的时代投影,更是算法与社会共谋的产物,集中体现了社会关系数据化对人的价值的严重威胁。算法程序的运行基础是对数据的批量收集和处理,通过人为的程序设计和编码,建立数据相关关系,以量化方式进行定性决策。在算法权力时代,人的主体价值被数据化处理,算法能够通过数据对人进行透视,将鲜活的人通过编码的手段以数据的形式分析、输入输出,“在物理和社会双语境中消解人的概念”,侵犯作为人类主体的尊严和平等权利[16]18-24。

(二)算法“反向歧视”:对弱势群体的差异性有利影响

尽管差别待遇有违平等的形式要求,但究其实质是对弱势群体的倾斜性保护,仍然符合平等保护的要求,并构成所谓的“反向歧视”。典型的反向歧视,如美国社会在招生就业领域所采用的优待措施(affirmation action),意指控制重要社会资源的主体给需要特殊对待的特定群体以优先待遇的行动或政策[17]1-96。美国联邦最高法院对此在1978年著名的“巴克案”裁定,考虑种族因素的招生优待措施并不违反美国宪法的平等保护条款[10]447-450,甚或它正是宪法平等原则所要求的差别待遇。

优待措施或反向歧视之所以符合平等原则,是因为其精神实质与社会公平正义的原则相一致。首先,依据罗尔斯正义诸原则,平等的观念体现为:一是基本权利和自由的优先性,二是公平的机会平等和差别原则[18]100-108。罗尔斯的差别原则主张通过再分配的方式补偿社会上处境最差的群体,缓解因先天或者社会因素造成的不利地位带来的不利影响。其次,它也符合德沃金所倡导的视人为平等者(to treatment as an equal),平等是减少不平等的政治目标。虽然优待或反向歧视在手段上是“差别”的,但其最终目标是为了弥合因社会和文明发展所积蓄的历史遗憾。例如,美国的种族歧视给黑人群体造成了系统性的不利后果,包括社会地位、享受教育资源等劣势。因此,相关优待措施给黑人学生带来更好的教育机会,让不同群体获得相应的发展,体现了多元性和社会公正[10]477-495。

算法决策所带来的差别待遇,如果在性质上对弱势群体构成合理的照顾,理应成为平等原则所容忍的“反向歧视”。例如,部分高校利用算法的数据分析功能,对学生的日常消费记录进行分析和处理,筛选出贫困学生并据此作出针对性的贫困生活补助措施。这一算法应用不仅准确识别被补助对象的实际处境,还有利于维护被补助对象的人格尊严。这种利用算法采取的针对性措施,实质构成了对大学生群体的差别对待,但它不应当视为不公平的区别对待,更不应评价为“算法歧视”。

(三)合理的差别对待:与算法合理关联的差异性影响

区别对待在两个层面可能是合理的:一是根据形式平等的原则,不等者,不等之,即实质上不同的群体,可以给予与之相关的不同处遇且不违反对弱势群体的不公平对待;
二是基于平等或公平审查标准,区别对待在实践中被认定为相关的而非不相关的、合理而非恣意的,可据此而容忍相关的区别对待。例如,在当代的政治实践中,从法律上合理区分公民与非公民的地位,并赋予其不同的法律权利和义务,正是第一种情形的显著例证。此外,在招生和就业领域中,广泛存在一种以身体健康为标准的区分标准,倘若特定身体健康状况确实不适于特定专业学习或从事特定行业,则相关的区别对待不仅是必要的,而且是合理的。

为此,算法决策所给出的区别对待可能是合理的。之所以如此,部分的区别对待是因为它符合形式平等的要求,而且不会产生对相对弱势群体的不公正。例如,在经济领域中,价格是由供求关系的市场规律所形成的,因此常易于变动,而且不同市场主体也会采用相对不同的定价策略,因此互联网平台在对不同主体采用的差别化定价在某种程度上是可以接受的,不能径行认定为价格歧视。实际上,目前大部分网络平台公司在会员和非会员的区分基础上,往往会对平台会员给予较多的价格折扣和优惠。这种区别对待之所以是合理的,因为它符合市场经济的供求规律。即使常为人所诟病的大数据“杀熟”行为,也存在一定相对合理性,因为平台为获取新用户而倾向于将获客成本用于补贴新用户,进而导致对旧用户的价格歧视。基于上述事实,利用算法对消费者群体进行必要的群体划分,进而设置差异性的销售价格或采取不同的销售模式,在不违反强制性法律规定的前提下,并不必然属于算法歧视的范畴。甚至,互联网平台利用算法所给出的区别定价,一定程度上有助于平衡社会资源[19]83-99,利用再分配方式减少社会地位的不平等,弥补相对弱势群体的不利地位。

此外,在追求合法目标的前提下,如果算法决策所给出的区别对待与合法目标之间具有合理的关联性,也可以认为是合理的区别对待而非“歧视”。例如在美国,算法数据分析系统越来越多地运用于刑事司法领域,如用算法评估刑事被告成为累犯的可能性,或者预测刑事犯罪的发生概率和可能性等。一般认为,如果犯罪风险识别、辅助量刑系统等算法系统未能充分考虑平等保护的原则要求,就有可能构成滥用或歧视的法律风险[20]165-184。事实上,尽管诸如COMPAS等量刑辅助系统的运用可能造成区别对待不同群体的效应,如对犯罪嫌疑人或被告的群体特征的画像和描述,将带来不一样的后果,但并不必然构成所谓“歧视”。以卢米斯案为例,尽管被告卢米斯认为运用COMPAS对其累犯的风险评估违反了正当程序的保护,但上诉法院均以COMPAS的判断是“科学而有效的”,而驳回了被告上诉,因为COMPAS评估模型的实质是在模拟司法实践中法官断案决策的基本过程[21],其相关考量具有合理性。

(一)构建算法影响评价机制的意义

“智能社会本质上是一个‘算法泛在’并由算法主导的社会。”[22]4-19算法以极快的发展速度渗透到社会发展各领域各方面,不仅成为智能社会的生产要素,而且对社会关系和国家治理产生重要影响。考虑到算法所产生的积极影响及其引发的质疑和挑战,有必要引入并构建算法影响评价机制[23]102-115。算法影响评价机制是指依据特定的评价标准,为预防并减少算法的风险或危害,对与之相关的自动化决策系统的内容、过程和结果进行系统评估的算法规制工具[24]。算法影响评价机制既是事前的预防机制,又是事后的规制手段,在智能社会的治理方面具有以下三个方面功用:

1.增强算法的可解释性,有助于强化算法监测

智能社会的突出问题是算法应用系统及权力支配的不透明性。算法作为一种新型治理工具,在公共领域逐渐具有社会法则的特征。只有让社会主体对算法运行机理及其实质影响有所了解,方能重构社会对算法系统的信任,让全体社会成员接受算法决策的运用。为此,算法的可透明性是负责任算法(accountable algorithms)的必然要求。然而囿于算法系统的复杂性和专业性,即使公开算法的代码及逻辑,除少数技术专家外,对算法一无所知的普通公众甚或部分设计人员可能都无法真正理解算法系统的运行原理及因果关系。

算法影响评价机制包含一定评价手段和救济方式,可以在算法系统设计及应用的事前、事中、事后等阶段要求设计和开发利用主体采用更通俗易懂的语言,以阐述算法决策的原理、结果及其正当性。为此,算法影响评价机制所确立的算法解释权,在解释内容上体现为实质化的要求,在可解释的维度上呈现出一体化、全过程和多层化优势。算法解释内容的实质化,不仅要求公开算法的技术性信息,对算法风险及影响进行描述性说明,而且强调对算法决策的合理性予以解释与论证,即论证其法律的正当性与合理性[25]4-17。算法影响评价机制具有一体化、全过程和多层化的优势,不局限于事前的监管,而是涵盖了算法系统的开发、设计、适用及其后续的监测,并包含“售后服务”“全周期监测”的内容。

2.凸显算法风险的可预防性,有利于增强算法规制

以算法为核心的智能社会存在“伦理风险、数字化风险、工具异化风险和规制风险等社会风险”[26]155-168,突出表现为机器与人伦道德的冲突、人类价值的编码化质疑和算法权力的异化。为此,应正视算法引发的社会风险事实,不能以社会风险作为抑制科技进步的理由,树立风险意识、加强风险预防,理性看待技术风险与科技发展的张力,积极构筑算法风险预防机制。

算法影响评价机制是一种典型的风险预防机制,可以通过前置的评估程序和专业化的评估能力,最大限度将算法系统的社会风险予以事前披露与警示,并为事后的算法规制奠定基础和前提,从而有效平衡算法治理与技术发展的关系。算法影响评价机制内嵌有风险预防的算法规制原则,其目标不是遏制算法的发展而是防患于未然,前提则是算法风险具有不确定性或盖然性。在不确定性前景下,社会治理主体不能置算法风险于不顾、不履责不尽责,更不能盲目阻滞技术发展和进步的可能性。算法影响评估机制可以在算法系统投入运营之前,即对其开发设计的理念、目的正当性、价值契合性等社会和个体影响进行风险评估[27]156-211,提供了算法负面影响的识别程序和信息。

3.实现社会权益平衡的场景化,有利于发挥算法治理成效

如前所述,算法决策造成差异性影响的认定具有场景化、情景化特征。算法系统的开发设计与数学、计算机专业领域紧密相连,依赖于计算模型的构建。这些技术化模型一般具有场景化特性,即针对不同的情境,构建特定的模型,随着情境的变化,需要对技术模型的参数进行调整[28]。传统算法规制的困境在于忽视了算法治理的场景性特征和情景化应用,因此算法公开、数据赋权、反算法歧视等规制方式均不足以有效规制算法的合理运用,预防和规制算法决策的社会风险。

算法系统不是一个固化的决策工具,而是人机交互的动态化技术系统,其机理和构造会随着适用场景和对象的不同而存在差异,因此“算法法律规制的原理必须建立在场景化的基础上”[29]138-159。在评判算法决策的歧视和偏见时,必须全面衡量算法决策对不同社会主体的差异性影响,并基于社会公平正义和平等原则,对其差异性影响给出恰如其分的评价。算法影响评价机制正是算法规制场景化的最佳载体——它从算法设计开发主体、自动化决策适用对象、数据处理限度以及风险问题等差异性面向出发,基于算法应用的具体场景和情境,实施“定制化”的影响评价,有助于厘清和权衡算法背后的社会主体利益纠葛,增进算法规制与社会治理的契合度,从而既能保障科技的发展和进步,又能维护社会主体的价值和利益诉求。

(二)算法影响评价机制的几点构想

1.坚持影响评价的全覆盖,构筑分类评价的程序设置

开展算法影响评价应当注重评价范围的全覆盖,并针对不同评价对象采取分级分类的评估方式(2)《互联网信息服务算法推荐管理规定》第二十三条规定:网信部门会同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理。。部分观点认为,算法影响评价应设置“豁免程序”,即主张设立“影响评价门槛”——那些负面影响轻微或很小的算法应用或算法决策项目无需开展影响评价[30]146-152。然而,无论是“豁免”还是“门槛”均含蕴了评价的意旨和精神,因此其结论的得出已经是算法影响评价的某种替代形式;
此外,即使算法决策的不利影响很小或者轻微,最好不要以事前的臆测来取代理性的分析和诊断。换言之,针对风险较小的算法应用,可以采取相对简化的影响评价方式,以务求全面掌握算法应用的影响与风险。

在坚持影响评价全覆盖的同时,有必要借鉴算法推荐管理的规定,设置分级分类的影响评价程序。首先,影响评价应当分级实施,即根据算法影响范围的不同而分设中央和地方两个层级的影响评价程序。原则上,影响评价主要实行属地管理,即由负责算法管理的地方主管部门实施评价;
当算法决策或应用具有跨地域的影响范围,且对社会利益或个人权益造成广泛影响的情况下,则相关评价应由中央主管部门所实施。其次,影响评价还应根据算法的应用领域及其对公民和社会的影响程度而采用不同的评价步骤和要求(3)See New Zealand Government,Algorithm charter for Aotearoa New Zealand,https://data.govt.nz/toolkit/data-ethics/government-algorithm-transparency-and-accountability/algorithm-charter/,2021-09-05.。算法影响越大、所涉领域越敏感、决策结果越不可逆,则应采取严格的评价程序:如要求召开必要的公众听证或专家论证会,必须编制算法影响评价报告书并向社会公开,强化影响评价报告书的社会约束力等。而至于影响较轻的,则只需要编制并提交算法影响报告表或者算法影响说明性文件即可。最后,无论何种类型的算法影响评价应是全过程的,即应涵括算法开发应用的事前、事中和事后等阶段,并成为算法歧视认定的关键一环。

2.保证评价机构的中立性,强化影响评价的价值引领

基于算法在智能社会的主导地位,为确保算法影响评价的公平公正,避免“球员兼任裁判”的法治悖论,有必要在评估管理主体之外,成立专门的影响评价机构或委托相对独立的第三方机构,具体负责影响评估的实施和评估报告的撰写,从而保证评估结论的科学性和中立性。此外,考虑算法影响评价既涉及计算机技术的应用,也牵扯社会利益的权衡,为充分实现评估的效能,应遴选多学科领域的专家学者,包括并不限于数学、计算机科学、哲学、经济学、公共管理、法学等专业,组建相应的评估专家库,供评估机构随机抽取并组建影响评价工作组,以实现评估主体的多元性和权威性。

与此同时,算法影响评价涉及对不同利益的权衡和考量,应强化社会价值对算法权力的引领和塑造。不仅算法的开发应用由开发设计者的价值观念所主导,而且算法影响本身取向于一定的评价标准。因此,包括法律价值在内的社会价值将对算法应用产生深层次的影响。例如,在是否构成算法歧视的评价上,评估者依赖于自身对平等价值的认知;
而对算法应用是否构成不当影响或不公平竞争,则须深入理解社会公平正义和经济效率等价值的意蕴。为此,在构建算法影响评价制度时,应当强化公平、公正、公开、平等、效率等价值在评价标准设定、评价程序建构中的引领和导向作用。

3.保障影响评价的公民参与,增强评价报告的规范效力

算法影响评价应坚持以人民为中心的立场,既赋予公民以一定的算法知情权,又向其提供必要的参与途径和便利条件,使之参与算法治理的全过程。知情和公开是民主的要求和体现。虽然算法具有高度的专业性和复杂性,普通公民难以知晓其原理,但当算法决策或应用侵犯其合法权益时,公民可以主张和要求相关主体对算法应用及其影响做出“解释”[31]64-70,即有权获知是否存在自动化决策、算法所涉逻辑原理和预期效果、是否构成歧视或不当影响等信息。在此,算法影响评价不仅应充分保障公众的知情权和参与权利,而且应拓宽公民参与的渠道和方式。例如,在开展事后的算法影响评价时,应当允许利益受影响或权益受侵害的公民依法向主管部门提出评价申请
或者在评价实施过程中,必须听取算法所针对社会群体的评测体验和意见,并实现最终用户与算法开发应用者的双向反馈与互动。

算法影响评价要编制相应的影响评价报告,其内容应包含一般性内容和评价结论两个部分:一般性内容涵括影响评价的基本情况、算法的技术信息和应用背景等,评价结论则应阐明算法对不同群体的社会影响并给出算法是否构成歧视或产生不当影响的评价性结论,或给出算法优化或矫正的法律措施或对策建议——例如,对算法可能产生的歧视风险提出相应的监测措施和解决方案
或分析算法基于数据整合功能所具有的辅助决策作用,利用算法的社会主体差异处境识别功能,进而提出可能的区别对待措施[18]60-65。为增强算法治理的效能,提升算法影响评价的效果,还应增强评估报告的规范效力。一方面,应由有关主管部门对影响评估报告作出备案和审查,并通过相应的程序设置使之具备规范性文件的法律地位;
另一方面,则应赋予评价结论以一定的法律效果——它既可以成为公民依法起诉并主张权益保障的合理基础,又可以成为执法部门严格执法和公正司法的事实依据。

在算法为底层架构的智能社会,人人处于算法的治理和规训之下。算法的规模化应用会造就产业升级、科技创新等益处,也可能造成技术、伦理和社会风险,既不应因眼前所见的好处和收益,就罔顾算法所潜在的危害;
也不能因为算法风险的潜在性和现实性,就放弃它所带来的技术和产业升级。算法的性质是技术中立的,其影响和风险往往取向于使用者的意图及其具体的应用场景。因此,算法不是造成歧视的真正根源,算法歧视的认定与否应视差别性待遇的价值衡量而论。基于算法歧视的场景认定与评价性需求,有必要构筑覆盖全面的算法影响评价机制,设立分级分类的评价程序,保障评价机构的独立性和中立性,强化评价的价值引领,赋予公民知情权和参与权,以增强评价结论的权威性和规范效力。

猜你喜欢 区别对待决策算法 哪种算法简便小学生学习指导(低年级)(2021年12期)2021-12-31为可持续决策提供依据纺织科学研究(2021年9期)2021-10-14Travellng thg World Full—time for Rree阅读与作文(英语初中版)(2019年8期)2019-08-27决策大数据决策(2018年8期)2018-12-10进位加法的两种算法小学生学习指导(低年级)(2018年11期)2018-12-03根据问题 确定算法小学生学习指导(低年级)(2018年11期)2018-12-03决策大数据决策(2018年11期)2018-11-28诸葛亮隆中决策小天使·四年级语数英综合(2018年1期)2018-07-04学校教育中区别对待的分析新教育时代·教师版(2016年45期)2017-03-02“区别对待”学生青春岁月(2016年22期)2016-12-23

推荐访问:差异性 算法 构建

相关文章:

Top