年度最佳!LLMs大模型盘点!


大型语言模型,简称LLMs,现在可以说是无处不在了。今天,花哥我就来给大家介绍一下最火的LLMs大模型都有哪些!
2024年最佳LLMs
有几十个主要LLMs的,还有几百个可以说是重要的,因为某种原因。将它们全部列出几乎是不可能的,无论如何,由于开发速度太快LLMs,它会在几天内过时。
对“最佳”这个词持保留态度:我试图通过提供最重要、最有趣和最受欢迎的LLMs(和 LMM)列表来缩小范围,不一定是那些在基准测试中表现出色的(尽管其中大多数确实如此)。我主要关注LLMs实用的东西——而不是那些超级有趣的研究论文的主题——因为我们喜欢在这里保持实用。
如下面列表了解更多信息。

什么是LLM
LLM(大型语言模型)是一种通用的 AI 文本生成器。这是所有 AI 聊天机器人和 AI 写作生成器的幕后内容。
LLMs是增压自动完成的。去掉了花哨的界面和其他解决方法,他们所做的是接受提示并使用一串看似合理的后续文本生成答案。建立在之上LLMs的聊天机器人不会寻找关键字,因此它们可以用预设回复来回答——相反,它们会尽最大努力理解所问的内容并做出适当的回复。
这就是真正起飞的原因LLMs:相同的模型(有或没有一些额外的培训)可以用来回应客户的查询、编写营销材料、总结会议记录,以及做更多的事情。
大模型工作原理
早期LLMs,像 GPT-1 一样,会在几句话后分崩离析并开始产生废话,但今天的 LLMsGPT-4 可以生成数千个有意义的单词。
为了达到这一点,LLMs他们接受了大量数据的训练。具体细节因人LLMs而异——这取决于开发人员对完全获得他们所使用材料的权利的谨慎程度——但作为一般规则,你可以假设他们已经接受过相当于整个公共互联网和每本主要书籍的培训曾经出版过。这就是为什么可以生成在如此广泛的主题上听起来如此权威的LLMs文本。
从这些训练数据中,LLMs能够使用高维向量对不同单词(或者实际上称为标记的单词的一部分)之间的关系进行建模。这就是事情变得非常复杂和数学化的地方,但基本原理是每个单独的令牌最终都有一个唯一的 ID,并且类似的概念被组合在一起。然后,它被用来生成神经网络,这是一种基于人脑工作方式的多层算法,这是每个LLM.
神经网络有一个输入层、一个输出层和多个隐藏层,每个隐藏层都有多个节点。正是这些节点计算了输入中应该遵循的单词,并且不同的节点具有不同的权重。例如,如果输入字符串包含单词“Apple”,神经网络将不得不决定跟进“Mac”或“iPad”之类的内容,“pie”或“crumble”之类的内容,或者完全其他内容。当我们谈论一个LLM有多少参数时,我们基本上是在比较底层神经网络中有多少层和节点。通常,节点越多,模型能够理解和生成的文本就越复杂。
当然,在开放互联网上训练的人工智能模型几乎没有方向,听起来像是噩梦。而且它可能也不是很有用,所以在这一点上,接受进一步的培训和微调,LLMs以指导他们产生安全和有用的响应。其工作方式之一是调整不同节点的权重,尽管它还有其他方面。
一旦你对它们的工作原理有了一点了解,就很容易理解为什么它们如此擅长回答某些类型的问题。也很容易理解为什么他们倾向于编造(或产生幻觉)随机事物。
例如,以以下问题为例:
美国使用什么货币?
世界上最高的山是什么?
这些都很容易,LLMs因为他们训练的文本很可能已经生成了一个倾向于正确响应的神经网络。
然后看看这样的问题:
一吨羽毛还是一吨羽毛,什么更重?
你更有可能从中得到一些奇怪的东西。神经网络仍将生成后续文本,但由于问题棘手或不正确,因此不太可能是正确的。
可以LLMs用来做什么?
LLMs之所以强大,主要是因为它们能够推广到许多不同的情况和用途。同一个内核LLM(有时需要一些微调)可以用来执行数十种不同的任务。虽然他们所做的一切都是基于生成文本,但提示他们这样做的具体方式会改变他们似乎具有的功能。
以下是一些常用的任务LLMs:
通用聊天机器人(如 ChatGPT 和 Google Bard)
接受过企业文档和数据培训的客户服务聊天机器人
将文本从一种语言翻译成另一种语言
将文本转换为计算机代码,或将一种语言转换为另一种语言
生成社交媒体帖子、博客文章和其他营销文案
 情绪分析
 审核内容
更正和编辑写作
 数据分析
还有数百种其他东西。我们才刚刚处于当前人工智能革命的早期阶段。
但也有很多事情做LLMs不到,但其他类型的人工智能模型可以。举几个例子:
 解释图像
 生成图像
在不同格式之间转换文件
 搜索网络
执行数学运算和其他逻辑运算
当然,有些LLMs聊天机器人似乎可以做其中的一些事情。但在大多数情况下,还有另一个人工智能服务介入协助。当一个模型处理几种不同类型的输入时,它实际上不再被认为是一个大型语言模型,而变成了一个大型多模态模型(尽管在某种程度上,它只是语义)。
有了所有这些背景,让我们继续讨论LLMs他们自己。
2024年最佳LLMs
GPT
 开发商:OpenAI
参数:超过1750亿
 访问:API
OpenAI 的生成式预训练转换器 (GPT) 模型启动了最新的 AI 炒作周期。目前有两种主要型号可供选择:GPT-3.5-turbo 和 GPT-4。GPT 是一种LLM带有 API 的通用工具,它被各种公司(包括 Microsoft、Duolingo、Stripe、Descript、Dropbox 和 Zapier)用于为无数不同的工具提供支持。尽管如此,ChatGPT 可能是其功能最受欢迎的演示。
您还可以将 Zapier 连接到 GPT 或 ChatGPT,这样您就可以直接从技术堆栈中的其他应用程序使用 GPT。以下是有关如何自动化 ChatGPT 的更多信息,或者您可以开始使用这些预制工作流程之一。
 Google Gemini  
 开发商:Google
参数:Nano 有 18 亿和 32.5 亿版本;其他未知
 访问:API
Google Gemini 是 Google 的一系列 AI 模型。这三种型号——Gemini Nano、Gemini Pro 和 Gemini Ultra——旨在在不同的设备上运行,从智能手机到专用服务器。虽然能够生成像 LLM一样的文本,但 Gemini 模型本身也能够处理图像、音频、视频、代码和其他类型的信息。
Gemini Pro 现在为 Google 聊天机器人 Bard 上的一些查询提供支持,开发人员可以通过 Google AI Studio 或 Vertex AI 使用。Gemini Nano 和 Ultra 将于 2024 年推出。
 PaLM 2
 开发商:Google
 参数:3400亿
 访问:API
PaLM 2 是 Google 的产品LLM。它专为自然语言任务而设计,支持 Google Bard 上的大多数查询,以及 Google 在其应用程序中的许多其他 AI 功能,例如 Docs 和 Gmail。它也可以作为 API 提供给开发人员。
 Llama 2 

 开发商:Meta
参数:70 亿、130 亿和 700 亿
 访问:开源
Llama 2 是 Facebook 和 Instagram 的母公司 Meta 的开源LLMs系列。它是最流行和最强大的开源LLMs之一,您可以自己从 Github 下载源代码。因为它是免费用于研究和商业用途的,所以许多其他LLMs人使用 Llama 2 作为基础。
 Vicuna
 开发商:LMSYS Org
参数:70 亿、130 亿和 330 亿
 访问:开源
Vicuna 是一个基于 Meta 的 Llama LLM构建的开源聊天机器人。它被广泛用于人工智能研究,并作为 Chatbot Arena 的一部分,Chatbot Arena 是由 LMSYS 运营的聊天机器人基准测试。
Claude 2
 开发商:Anthropic
 参数:未知
 访问:API
Claude 2 可以说是 GPT 最重要的竞争对手之一。它旨在为企业客户提供有用、诚实、无害且至关重要的安全使用。因此,Slack、Notion 和 Zoom 等公司都与 Anthropic 合作。
像所有其他专有LLMs产品一样,Claude 2 仅作为 API 提供,尽管它可以根据您的数据进行进一步训练并进行微调以响应您的需求。您还可以将 Claude 连接到 Zapier,以便您可以从所有其他应用程序自动执行 Claude。
Stable Beluga 和 StableLM
 开发商:Stability AI
参数:70 亿、130 亿和 700 亿
 访问:开源
Stability AI 是 Stable Diffusion 背后的团队,Stable Diffusion 是最好的 AI 图像生成器之一。他们还发布了一些LLMs基于 Llama 的开源软件,包括 Stable Beluga 和 StableLM,尽管它们远不如图像生成器那么受欢迎。
  Coral LLM
 开发商:Cohere
 参数:未知
 访问:API
与 Claude 2 一样,Cohere 的 Coral LLM 是为企业用户设计的。它同样提供了一个API,并允许组织根据自己的数据训练其模型的版本,因此它可以准确地响应客户的查询。
 Falcon  
开发商:Technology Innovation Institute
参数:13亿、75亿、400亿、1800亿
 访问:开源
Falcon 是一个开源系列LLMs,在各种 AI 基准测试中一直表现良好。它拥有多达 1800 亿个参数的模型,在某些任务中可以胜过 PaLM 2、Llama 2 和 GPT-3.5。它是在宽松的 Apache 2.0 许可下发布的,因此适合商业和研究用途。
MPT
 开发商:Mosaic
参数:70亿、300亿
 访问:开源
Mosaic 的 MPT-7B 和 MPT-30B LLMs 是两个更强大、更受欢迎、市售LLMs的 .有趣的是,它们不是建立在 Meta 的 Llama 模型之上的,这与许多其他开源模型不同。MPT-30B 的性能优于原始的 GPT-3,并且像 Falcon 一样在 Apache 2.0 许可下发布。有几个不同的版本可用,针对聊天等内容进行微调,最有趣的是,一个 7B 版本经过微调,用于生成长篇小说作品。
Mistral 8x7B
 开发商:Mistral
 参数:467亿
 访问:开源
Mistral 的 Mixtral 8x7B 使用一系列子系统来有效地超越大型模型。尽管参数要少得多(因此能够在功能较弱的硬件上运行得更快),但它的性能能够胜过 Llama-70B 并匹配或击败 GPT-3.5。它也是在 Apache 2.0 许可下发布的。
 XGen-7B
 开发商:Salesforce
 参数:70亿
 访问:开源
Salesforce 的 XGen-7B 并不是一个特别强大或流行的开源模型——它的性能与其他具有 70 亿个参数的开源模型差不多。但我仍然认为它值得一提,因为它突出了有多少大型科技公司拥有人工智能和机器学习部门,可以开发和推出自己的LLMs部门。
 GROK
 开发商:xAI
 参数:未知
 访问:聊天机器人
Grok 是一个根据 X(前身为 Twitter)的数据进行训练的聊天机器人,就其本身的优点而言,它并不能真正保证在这个列表中占有一席之地,因为它没有被广泛使用,也不是特别好。不过,我在这里列出它,因为它是由埃隆·马斯克(Elon Musk)创立的人工智能公司xAI开发的。虽然它可能不会在人工智能领域掀起波澜,但它仍然得到了大量的媒体报道,所以值得知道它的存在。
为什么有这么多LLMs?
直到一两年前,LLMs还仅限于研究实验室和人工智能会议上的技术演示。现在,它们正在为无数的应用程序和聊天机器人提供动力,并且有数百种不同的模型可供您自己运行(如果您具有计算机技能)。我们是怎么走到这一步的?
嗯,有几个因素在起作用。一些大的有:
通过 GPT-3 和 ChatGPT,OpenAI 证明了人工智能研究已经达到了可以用来构建实用工具的地步——因此许多其他公司也开始这样做。
LLMs训练需要大量的计算能力,但可以在几周或几个月内完成。
有许多开源模型可以重新训练或改编为新模型,而无需开发一个全新的模型。
有很多钱被投入到人工智能公司,所以任何有技能和知识的人都有很大的动力去开发任何形式的LLM人工智能。
对未来的展望
我认为我们将在不久的将来看到更多LLMs,尤其是来自大型科技公司。亚马逊、IBM、英特尔和英伟达都在LLMs开发中,正在测试中,或可供客户使用。它们不像我上面列出的模型那样嗡嗡作响,普通人也不太可能直接使用它们,但我认为期望大型企业开始广泛部署它们是合理的。
我还认为,我们将看到更高效LLMs的定制功能,可以在智能手机和其他轻量级设备上运行。谷歌已经暗示了这一点 Gemini Nano,它在 Google Pixel Pro 8 上运行了一些功能。Mistral 的 Mixtral 8x7B 等开发展示了使小型LLMs产品能够有效地与大型产品竞争的技术。
即将到来的是,多模态模型或LMM。这些将文本生成与其他模式(如图像和音频)相结合,因此您可以向聊天机器人询问图像中发生了什么,或者让它用音频进行响应。GPT-4 Vision (GPT-4V) 和谷歌的 Gemini 模型是首批可能被广泛部署的两个 LMM,但我们肯定会看到更多。
除此之外,谁能说得清呢?三年前,我绝对不认为我们会免费提供像 ChatGPT 这样强大的 AI。也许几年后,我们将拥有通用人工智能(AGI)。
到顶部