GPT-3.5 微调 API重磅发布:有史以来规模最大的 LoRA 即服务



本文为1390字,建议阅读4分钟‍
大家好,我是开源猫opencat‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
OpenAI 迎来重要的产品更新:GPT-3.5 微调 API。这将是有史以来规模最大的 LoRA 即服务。GPT-4 微调也将在几个月后推出

如果你是小白,建议先了解以下两个概念,如果你是开发人员直接忽略
Fine-tuning:微调,在深度学习中,微调是一种迁移学习方法,其中预训练模型的权重根据新数据进行训练。微调可以在整个神经网络上进行,也可以仅在其层的子集上进行,在这种情况下,未微调的层将被“冻结”。模型还可以使用由比原始模型少得多的参数组成的“适配器”进行增强,并通过调整适配器的权重并保持模型的其余权重冻结来以参数有效的方式进行微调
LoRA:英文全称Low-Rank Adaptation of Large Language Models,直译为大语言模型的低阶适应,这是微软的研究人员为了解决大语言模型微调而开发的一项技术。
比如,GPT-3有1750亿参数,为了让它能干特定领域的活儿,需要做微调,但是如果直接对GPT-3做微调,成本太高太麻烦了。
LoRA的做法是,冻结预训练好的模型权重参数,然后在每个Transformer(Transforme就是GPT的那个T)块里注入可训练的层,由于不需要对模型的权重参数重新计算梯度,所以,大大减少了需要训练的计算量。
研究发现,LoRA的微调质量与全模型微调相当
LoRA-as-a-service: LoRA 即服务。这种模式类似于“软件即服务”(Software-as-a-Service,SaaS)或其他类似的服务模式,其中用户不需要自行部署和管理软件或技术,而是通过云服务提供商获得对其功能和服务的访问权

OpenAI微调API解读
‍‍‍‍‍‍‍‍‍‍‍‍‍‍微调功能简介
1)个性化训练:微调允许开发者根据自己的数据训练模型,并在大规模下运行。
2)卓越性能:早期测试显示,微调后的 GPT-3.5 Turbo 可以在特定任务上与 GPT-4 相匹敌甚至超越。
3)隐私保障: 从微调API发送的数据归客户所有,OpenAI或任何其他组织都不会使用它来训练其他模型。
‍‍微调的优势
1)定制体验:每个业务和应用都有特定需求,微调确保开发者能调整 GPT 输出,提供真正差异化的体验。例如,开发人员可以使用微调来确保模型在提示使用该语言时始终以德语响应。
2)成本效益:有可能减少高达 90% 的提示大小,企业可以更快速、更经济地进行 API 调用。
3)扩展能力:新模型最多可以处理 4K 代币,对处理大数据集的开发者有利。
4)可靠的输出格式:微调可提高模型一致格式化响应的能力,这对于需要特定响应格式的应用程序(例如代码完成或撰写 API 调用)来说至关重要。开发人员可以使用微调来更可靠地将用户提示转换为可与自己的系统一起使用的高质量 JSON 代码段。
微调成本
训练:每 1K token $0.008
使用输入:每 1K token $0.012
使用输出:每 1K token $0.016
例如,100,000 代币的 gpt-3.5-turbo 微调工作,训练 3 个周期的预期成本为 $2.40。

微调步骤‍‍‍‍‍
Fine-tuning steps 微调步骤:
步骤 1:Prepare your data 准备数据

步骤 2:Upload files 上传文件

步骤 3:Create a fine-tuning job 创建微调作业

模型完成微调过程后,即可立即在生产中使用,并具有与基础模型相同的共享速率限制。
步骤 4:Use a fine-tuned model 使用微调模型

OpenAI在不久的将来推出微调 UI,这将使开发人员更容易访问有关正在进行的微调作业、已完成的模型快照等的信息
总之步骤非常简单,现在该各路大神各显身手了,可以开始大规模炼丹了

结束语
‍‍
GPT-3.5 微调 API发布将非常有助于将大模型炼丹这项事业普及化,简单化,低成本化,我已经听到一众创业公司的哀嚎了,OpenAI越来越懂站着挣钱了
作为个人研究来说也是极大利好,相当于低成本使用OpenAI服务器微调自己的一些研究数据,很快就可以看见效果,你手里的破电脑先别急着扔,哈哈哈哈‍‍‍‍‍‍‍‍‍‍

另外吴恩达老师推出了免费课程:微调大语言模型。想系统学习微调赶快去‍‍‍‍‍‍‍‍‍‍‍‍‍
课程地址:https://www.deeplearning.ai/short-courses/finetuning-large-language-models/

声明:错误在所难免,欢迎批评指正‍‍
⭐星标AI寒武纪,好内容不错过⭐
用你的赞和在看告诉我~

从今天开始炼丹👇👇
到顶部