Hugging Face宣布最受欢迎的AI机构,开源模型ChatGLM-6B广受认可
近日,Hugging Face作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构,几乎囊括了全部国内外风头正盛的AI科技机构,Stability AI、Meta AI、Runway占据排名前三,大众熟知的OpenAI、谷歌、微软也榜上有名。
其中,国内唯一入选的机构则是今年凭借开源模型ChatGLM-6B上榜的KEG实验室。KEG实验室,全称为清华大学知识工程实验室,成立于1996年。据官网介绍,它自成立之初便致力于网络环境下知识工程理论、方法和应用研究。主要研究内容包括但不限于,社会网络分析与挖掘、新闻挖掘、语义Web、知识图谱构建等。
说起KEG实验室,就不得不提到其科研成果转化的明星项目智谱AI。此次备受关注的ChatGLM-6B也是由KEG实验室与智谱AI联合打造,是产学研结合的优秀案例。智谱AI成立于2019年,由现任CEO张鹏带队走出实验室,开始了商业化的道路。早在ChatGPT还未火遍大江南北之际,智谱AI已经开始投身到大模型领域,于2020年研发了GLM预训练架构,次年训练完成百亿参数模型GLM-10B,并利用MoE架构成功训练出收敛的万亿稀疏模型。
2022年,智谱AI也与KEG实验室联合发布了中英双语千亿级超大规模预训练模型GLM-130B。在当年斯坦福大学大模型中心对全球30个主流大模型进行的全方位评测中,GLM-130B 是亚洲唯一入选的大模型,测评结果显示,其准确性等关键指标与 OpenAI、谷歌大脑、微软和英伟达等公司的大模型接近或持平。据官方介绍,GLM-130B在全球已有70余个国家1000余家机构申请使用。因此,当智谱AI于今年3月宣布ChatGLM正式上线,并开源其6B尺寸模型时,已经受到了大家的广泛关注。
据了解,2023年3月14日ChatGLM-6B正式上线,成为国内首个开源的大模型之一,并于6月升级成ChatGLM2-6B,于10月升级成ChatGLM3-6B。自上线以来,ChatGLM-6B已在GitHub上获得了53,000stars以及7,300+forks;在Hugging Face上累计10,000,000+下载,四周趋势排行第一,并且已经产生了数百个基于ChatGLM-6B的项目或应用,如LoRA、P-Tuning、langchain等。此次,该开源模型上榜Hugging Face最受欢迎的AI机构,也是实至名归。
更开放、更快的技术迭代、更广泛的行业应用是大模型开源的意义所在。当前全球大模型的发展已经加速进入了下一赛段,中国的开发者们也已经凭借着强大实力和潜力跻身其中。回望过去这一年行业内勃勃生机的景象,相信中国大模型一定会在未来走向更加好用、易用的时代,为各行各业的发展赋能提效。