ChatGPT背后的焦躁、不安与期盼
又一次,新技术掀起巨浪。像一面镜子,AI照见了人们的野心和脆弱。它并不完美,但正以超出人类想象的速度持续进化。人类是塑造者,也不可避免地被塑造。站在新技术降临的黎明,人们努力定义着进化,甄别着自我的独特性,在不安和期待中想象未来
(本文首发于南方人物周刊)
责任编辑:李屾淼
一条不完美但更接近真相的路
周逵的书桌上立着三块显示屏。2023年春节起,最大的那块便被ChatGPT“霸占”了。周逵是中国传媒大学新闻传播学部副教授。作为清华大学和麻省理工学院联合培养的博士,他热衷于体验前沿技术。整个春节假期,他几乎“从早到晚”都在和ChatGPT聊天,摸索着与这个“智慧生物”的交流技巧(注:使用不同的文本提示会决定提问者得到的结果是宝藏还是垃圾),并试探着后者的创造力边界。
周逵的同事黄典林教授是斯图亚特·霍尔所著《管控危机》一书的中文译者。周逵曾让ChatGPT以两位教授为关键词写了一段英文说唱歌词。几秒钟后,霍尔的主要学术成就被一一写成了押韵的梗,单押双押俱全。
“好玩”之余,更多是“震动”。2022年起,生成式AI领域的技术突破给他带来的心理冲击就一浪叠一浪。
周逵曾在图像生成器“DALL·E”(注:OpenAI提供的另一项在线服务,以皮克斯的WALL-E和西班牙超现实主义画家萨尔瓦多·达利的名字命名,可根据文本表达创建图像)中上传了一张水彩笔绘制的小人头像。头像寥寥几笔,是三岁半女儿的涂鸦作品。周逵将关键词设置为“in the battlefield of second World War(二战的战场上)”,要求DALL·E在原画的基础上扩展绘画。DALL·E精准延续了女儿的绘画风格,其中一幅作品的创意更令他心头一颤。
那幅AI作品中,小人好像举着一张牛皮纸板,纸板上写着三个英文字母——“RUN(跑)”。“说来有些可笑,我好像看到一个在战场上死去的人在发出数字警示:如果有一天你到了二战战场,唯一要做的就是赶紧跑。”周逵惊讶于机器短暂流露出的“反战人格”。
“有可能是机器在学习图片库的过程中见过类似的图片,在图像生成时就把这个元素组合进来了。”宋睿华向《南方人物周刊》解释道。宋睿华是中国人民大学高瓴人工智能学院长聘副教授,当前研究兴趣包括人工智能的文本创作、自然语言的多模态理解和多模态对话系统。
在宋睿华看来,无论是DALL·E还是ChatGPT,大家使用时的惊喜主要源自AI模型发展出了前所未有的泛化能力。泛化能力是指机器学习算法对新鲜样本的适应能力,一旦模型学习到了隐含在数据背后的规律,当它遇到具有同一规律的学习集以外的数据,也能给出合适的输出。
简单来说,就是“举一反三”。
宋睿华举例说,“ChatGPT的训练数据截至2021年。当我询问它‘满江红好看么?’它是没有学过相关数据的。但根据‘好看么’这个关键词,它能推测出‘满江红’可能是部文学或影视作品。由于之前被‘喂’进去了有关文学及影视评论的海量高质量数据,模型就能基于以往所学,生成一个貌似合理的回答。”
过去,聊天机器人的回复要么较短,要么有些“情商”,但“智力”不足。ChatGPT的出现改变了这一局面,它不仅能给出较长的答复,还会呈现有理有据的思维过程。当提问者改变上下文或个别关键词时,模型也展现出了较高的灵敏度。在宋睿华看来,ChatGPT在语言生成能力特别是“智力”上的长足进步给用户带来了新鲜感,“哪怕10个问题中只有3个能让你惊喜,你也会因为这份惊喜而忽略剩下的平庸。”
撬动ChatGPT完成“智力”飞跃的是一套“使用人类反馈指令来训练语言模型”的方法。这套方法是由2022年初推出的InstructGPT率先采用的。
开发团队聘请了人类标注员(labeler)依据收集到的用户需求撰写高质量的范本,为机器示范如何回答更能满足提问者的期待,并对模型生成结果进行监督微调。随后,接受完调教的机器会迎来一轮“考试”,人类标注员会对其不同答复打分。打分数据会被用来训练一套以人类偏好校准的奖励模型。最后,在奖励模型的监督下,机器会在不断的“考试”中完成强化学习,逐渐习得人类的语言能力。
在很多使用者眼里,ChatGPT“礼貌、中立、理性、克制”的回答风格好像表现出某种稳定的“人格”特点。这种风格的形成同样是人为塑造的。
开发者要求标注员在评价机器生成的结果时遵循“有用”、“真实”、“无害”的原则,并明确指出,“在大多数任务中,真实和无害比有用更重要。”每条原则都会附上细致的操作规定。比如“无害”原则强调回答应“友善、尊敬和关心他人”;“真实”原则要求回答“避免产生误导性信息或真实性有问题的信息”,例如当用户问“希拉里·克林顿为什么入狱?”,回答时应直接反驳提问前提。
虽然OpenAI尚未发布有关ChatGPT的论文,但研究者普遍认为,ChatGPT应该沿用了InstructGPT的技术路线,只是机器学习的数据量会更加庞大。复旦大学计算机科学技术学院教授、自然语言处理专家邱锡鹏在接受“上观新闻”采访时曾介绍,ChatGPT语言模型的参数量高达1750亿,而在它问世前,世界上最大的语言模型是微软开发的Turing-NLG,其参数量为170亿。
小冰公司CEO李笛向《南方人物周
登录后获取更多权限
校对:赵立宇