AI的“傲慢与偏见”
数据是AI的重要基石,然而数据往往掺杂着某些社会偏见,例如对特定国家、文化、种族、性别或年龄的偏见。使用带有偏见的数据训练AI模型,会导致AI系统在分析和预测中复刻甚至放大这些偏见。AI发展中暴露的第二个问题是:数据分析的“巨人”与理论建设的“矮子”。此外,AI在与社会科学的交汇中,还面临一系列社会伦理问题。
随着AI的快速发展,各种翻译工具应运而生,大幅提升了日常对话和简单文字的翻译效率,AI“取代”人工翻译的印象同时在社会中迅速蔓延,然而与业界人士的交流表明,AI在中高端翻译领域仍然难以完全取代人类。
与其纠结于“谁取代谁”的假设,不如聚焦AI发展中存在的问题及其解决方案,这显然更具现实意义。当务之急是学会利用AI这一超级工具,更快速、精准地解析人类社会现象,解决其发展过程中暴露的问题,并在此基础上推动人工智能朝着更加有利于人类生活的方向迈进。
责任编辑:姚忆江
在过去二三十年间,AI取得了飞速发展。1997年,计算机首次战胜国际象棋世界冠军;2016年,它又击败了韩国职业围棋选手李世乭;2017年,计算机连续三局战胜了世界排名第一的中国围棋九段选手柯洁。这些辉煌胜利大大提升了人们对AI的期望。
除了围棋等竞技项目,AI正被广泛应用于人类社会的各个领域,例如驰骋于战场上、由人工智能控制的无人机和机器狗,虚拟教师、虚拟翻译、虚拟心理咨询师、虚拟医生、虚拟理财顾问的涌现。一时间,人工智能全面取代人类智能的可能性似乎变得触手可及。AI的发展为人类社会带来了革命性的影响。掌握人工智能者,便掌握了未来世界的主动权。各国政府都在不遗余力地争夺这一技术制高点。
不过,本文想探讨的问题并不是如何抢占这些制高点,而是AI发展和应用过程中暴露出的一些问题。这些问题大致可以归纳为三类:AI的有限客观性、其理论贡献的局限性以及对人类社会伦理的挑战。
AI复刻甚至放大偏见
数据是AI的重要基石。作为AI模型成长发展的“粮食”,数据可能来自网络平台、社交媒体、历史档案、政策文件或学术著作等诸多渠道。然而,这些数据往往掺杂着某些社会偏见,例如对特定国家、文化、种族、性别或年龄的偏见。使用带有偏见的数据训练AI模型,会导致AI系统在分析和预测中复刻甚至放大这些偏见。
例如,AI工具在分析犯罪数据时,可能会无意中强化对某些少数群体的负面刻板印象,进而做出带有歧视性的预测,导致研究结果失真。
再如,现在许多跨国公司(如亚马逊和谷歌)利用AI评估和筛选求职简历。然而,这些AI系统往往已经受到了主流社会中对性别、种族和宗教等社会偏见的系统性影响。完全依赖这些系统可能会让偏见以更隐蔽的方式得到延续甚至强化,进一步扩大社会不平等。要纠正AI产生的偏见和歧视,就需要训练有素的社会科学家通过人工或人文识别的方式鉴别人工智能的分析结果,提出修正建议,以确保系统的公正和可靠。
与数据客观性紧密关联的另一个问题是,AI可能对公众舆论和社会情绪产生操控效应。通过数据分析和内容推荐
登录后获取更多权限
校对:星歌 吴依兰
期待美好😊
理性看待