Hugging Face 上孕育出 100 万个 AI 模型

Hugging Face 引用社区驱动的定制作为多样化 AI 模型繁荣的动力。

Hugging Face 上孕育出 100 万个 AI 模型

人工智能托管平台 Hugging Face 的人工智能模型列表首次超过100 万个,标志着快速发展的机器学习领域的一个里程碑。人工智能模型是一种计算机程序(通常使用神经网络),经过数据训练以执行特定任务或做出预测。该平台于 2016 年作为聊天机器人应用程序开始,随后于 2020 年转型为人工智能模型的开源中心,现在为开发人员和研究人员提供了各种各样的工具。

机器学习领域代表着一个比大型语言模型 (LLM) 更大的世界,比如 ChatGPT 所采用的那种模型。在 X 的一篇文章中,Hugging Face 首席执行官 Clément Delangue写到,他的公司拥有许多备受瞩目的人工智能模型,如“Llama、Gemma、Phi、Flux、Mistral、Starcoder、Qwen、Stable transmission、Grok、Whisper、Olmo、Command、Zephyr、OpenELM、Jamba、Yi”,以及“其他 999,984 个模型”。输入您的电子邮件地址以获取 Ars Technica 新闻通讯

德朗格说,原因在于定制。他写道:“与‘一个模型统治一切’的谬论相反,针对您的用例、您的领域、您的语言、您的硬件以及您的约束条件进行小型专门定制的优化模型会更好。事实上,很少有人意识到,Hugging Face 上几乎有同样多的模型只对一个组织是私有的——供公司私下构建 AI,专门用于他们的用例。”

Hugging Face 提供的图表显示了随着时间的推移,每月添加到 Hugging Face 的 AI 模型数量。

Hugging Face 转型为一个主要的人工智能平台,这得益于整个科技行业人工智能研究和开发的加速。在短短几年内,随着人们对该领域的兴趣不断增加,网站上托管的模型数量也急剧增加。在 X 上,Hugging Face 产品工程师 Caleb Fahlgren发布了一张该平台每月创建的模型图表(以及其他图表的链接),并表示:“模型数量逐月呈指数级增长,而 9 月份甚至还没有结束。”

微调的力量

正如 Delangue 上文所暗示的,平台上模型数量之多源于平台的协作性质以及针对特定任务微调现有模型的实践。微调意味着采用现有模型并对其进行额外训练,以向其神经网络添加新概念并改变其产生输出的方式。来自世界各地的开发人员和研究人员贡献了他们的成果,从而形成了一个庞大的生态系统。

例如,该平台拥有 Meta 的开放权重Llama 模型的多种变体,这些模型代表原始基础模型的不同微调版本,每个版本都针对特定应用进行了优化。

Hugging Face 的存储库包含用于各种任务的模型。浏览其模型页面,在“多模式”部分下会显示图像转文本、视觉问答和文档问答等类别。在“计算机视觉”类别中,有深度估计、对象检测和图像生成等子类别。此外,还介绍了文本分类和问答等自然语言处理任务,以及音频、表格和强化学习 (RL) 模型。

Hugging Face 上孕育出 100 万个 AI 模型

按“下载次数最多”排序后,Hugging Face 模型列表揭示了人们认为哪些 AI 模型最有用的趋势。麻省理工学院的Audio Spectrogram Transformer以 1.63 亿次下载量遥遥领先,它可对语音、音乐和环境声音等音频内容进行分类。紧随其后的是谷歌的BERT ,下载次数为 5420 万次,这是一种 AI 语言模型,它通过预测掩蔽词和句子关系来学习理解英语,从而帮助完成各种语言任务。

排名前五的 AI 模型还包括all-MiniLM-L6-v2(将句子和段落映射到 384 维密集矢量表示,可用于语义搜索)、Vision Transformer(将图像处理为补丁序列以执行图像分类)和 OpenAICLIP(连接图像和文本,允许它使用自然语言对视觉内容进行分类或描述)。

无论模型或任务是什么,平台都在不断发展。“如今,HF 上每 10 秒就会创建一个新的存储库(模型、数据集或空间),”Delangue 写道。“最终,模型的数量将与代码存储库的数量一样多,我们将一直为此努力!”

原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/hugging-face-shang-yun-yu-chu-100-wan-ge-ai-mo-xing

Like (0)
点点的头像点点
Previous 2024年10月1日
Next 2024年10月1日

相关推荐

发表回复

Please Login to Comment