点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
【科学随笔】
近几年,人工智能在许多行业都有应用,成为人类的“好帮手”。但在这一过程中,也出现了各种各样的问题。其中,人工智能系统基于不良的数据来源和有缺陷的算法设计生成错误的“知识”,且没有对所输出内容进行价值判断的能力,无法承担相应认知责任,导致系统性的认知偏差,是一个比较突出的问题。
从科技伦理角度分析,这违背了认知正义的原则。所谓认知正义,是指在知识生成、传播和获取过程中,确保所有个体和群体的声音都能被公平地听取和理解,并且有平等的机会被转化为人类的公共知识。
过去,知识生成主要依赖人类个体的感知、记忆、推理和证词。然而,随着人工智能的超速迭代,尤其是会话式人工智能的广泛应用,传统的知识生成和传播方式正迎来重大转变。今天的人工智能不仅善于搜集信息和执行任务,更是一项能够生成和传播知识的“认知技术”,被用来处理认知内容(如命题、模型、数据)并执行认知操作(如统计分析、模式识别、预测、推理和模拟)。基于数据和算法的“机器知识”挑战了过去基于经验和专业判断的人类知识,导致认知“碎片化”,破坏了传统人类知识系统的认知正义。
如今,生成式人工智能已经开始全面嵌入到所有可能对认知、决策进行技术性替代的场景和社会过程之中。面对人工智能在知识生成中对认知正义的挑战,如何让人工智能更智能?如何让其成为提升认知的帮手,确保科技向善?
笔者认为,需从提升数据质量、改进算法设计、优化人机协同和加强伦理治理等维度着手。
负责任的算法设计是实现认知正义的核心架构。人工智能作为一种强大的认知技术,通过数据挖掘和统计分析来识别信息的模式和趋势,参与人类公共知识的生成。由于算法主要关注在训练数据中频繁出现的信息模式,而不够普遍或统计上不够强大的数据往往会被忽视和排除,从而无法得到算法的充分理解和适当响应。依赖于统计频率的算法设计构成了一种特定的“认知盲从”,进而导致部分群体的声音被系统性边缘化。这种设计上的缺陷不仅限制了算法的认知能力,也加剧了社会中的不平等和认知压迫,破坏认知正义。“盲从”行为背后的根源,是算法的设计和训练过程缺乏对不同群体文化背景的理解。因此,在我们常谈及的算法透明性和可解释性之外,符合认知正义要求的算法设计还应兼顾涉及不同社群的认知多样性。
有质量的数据供给是实现认知正义的基础设施。造成人工智能破坏认知正义的另一个重要诱因是数据质量。大数据是智能技术的认知基础和决策基础,可以更清晰直观地呈现人类社会生活各方面的特征和趋势,但与传统人类公共知识不同,数据不为人们普遍共享。具体来说,哪些数据可以被收集起来并用于分析,这些数据又将如何被分类提取,它们最终服务于谁,这些问题都变得模糊不清,导致数据质量参差不齐。算法的训练数据往往来源于互联网的大型数据库和社区,而这些数据很可能包含偏见和歧视。人工智能的知识生成,需确保数据的来源可靠、内容多样,对数据进行去偏处理,还需对数据保持持续监测和更新,以应对社会文化变化带来的新问题。有质量的数据供给,才能使人工智能系统在多元文化和复杂社会结构中提供更精准的知识和决策支持。
大范围的人机协作是实现认知正义的有效手段。从脑机接口中的信号转译,到智能医疗决策、AI for Science等人机联合行动,不同层面的人机协作都涉及人类知识与机器知识的传递、解释、融合等认知过程。鉴于人机各自典型的认知特征,大范围、合理化的“人机认知劳动分工”将有效避免更多的人机认知偏差。比如,在科学研究中可以如此分工:人类设定目标、提出假设和解释结果,并负责提供创造性思维、临场决策、伦理判断以及对非结构化问题的直觉理解;而人工智能处理大量结构化数据、进行模式识别和预测分析,提供未被注意的模式和关联。在这种协作中,人工智能更多地成为启发新想法的“伙伴”,而非生成错误知识的“机器”。
高水平的伦理治理是实现认知正义的制度支撑。认知正义要求多元的知识生成、平等的知识获取、无偏的知识传播和负责的知识使用,这些都需要高水平的人工智能伦理治理。于企业而言,应在算法设计中考虑不同社会群体的需求和视角,对算法进行持续风险监测和价值评估;还应探索人工智能伦理众包模式,鼓励不同背景的研究者和用户参与到人工智能伦理风险的研判中,及时化解伦理风险。于政府而言,应积极鼓励私人数据向公共数据转化,加快公共数据面向全社会开放共享,扩展数据多样性、强化数据可靠性;还应寻求应对人工智能潜在伦理风险的社会解决方案,建立涵盖前瞻性预见、实时性评估和系统性调整的敏捷治理机制。
(作者:白惠仁,系浙江大学哲学学院“百人计划”研究员、脑机智能全国重点实验室双聘研究员)