LLMs
OpenAI 的 ChatGPT 大型语言模型(LLM)并未开源,这部分收录一些深度学习开源的 LLM 供感兴趣的同学学习参考。
Llama 2 系列 [2023.08.05 更新]
| 名称 |
Stars |
简介 |
备注 |
| llama 2 |
 |
Inference code for LLaMA models. |
llama 系列模型官方开源地址 |
| codellama |
 |
Inference code for CodeLlama models |
编程专用 llama 系列模型官方开源地址 |
| Llama 2中文社区 |
 |
- |
Llama中文社区,最好的中文Llama大模型,完全开源可商用 |
| ollama |
 |
Get up and running with Llama 2 and other large language models locally |
本地运行 llama |
| Firefly |
 |
- |
Firefly(流萤): 中文对话式大语言模型(全量微调+QLoRA),支持微调Llma2、Llama、Qwen、Baichuan、ChatGLM2、InternLM、Ziya、Bloom 等大模型 |
| Azure ChatGPT |
 |
🤖 Azure ChatGPT: Private & secure ChatGPT for internal enterprise use 💼 |
- |
| LLaMA2-Accessory |
 |
An Open-source Toolkit for LLM Development |
- |
大模型
| 名称 |
Stars |
简介 |
备注 |
| grok-1 |
 |
Grok open release. |
马斯克 X 开源大模型 |
| Mistral-7B |
 |
Reference implementation of Mistral AI 7B v0.1 model. |
Mistral-7B 开源模型,性能评价不错 |
| Alpaca |
 |
Code and documentation to train Stanford’s Alpaca models, and generate the data. |
- |
| WizardLM |
 |
Family of instruction-following LLMs powered by Evol-Instruct: WizardLM, WizardCoder and WizardMath. |
数学能力与 ChatGPT 相差无几的开源大模型 |
| BELLE |
 |
A 7B Large Language Model fine-tune by 34B Chinese Character Corpus, based on LLaMA and Alpaca. |
- |
| Bloom |
 |
BigScience Large Open-science Open-access Multilingual Language Model |
- |
| dolly |
 |
Databricks’ Dolly, a large language model trained on the Databricks Machine Learning Platform |
Databricks 发布的 Dolly 2.0 大语言模型。业内第一个开源、遵循指令的 LLM,它在透明且免费提供的数据集上进行了微调,该数据集也是开源的,可用于商业目的。这意味着 Dolly 2.0 可用于构建商业应用程序,无需支付 API 访问费用或与第三方共享数据。 |
| Falcon 40B |
|
Falcon-40B-Instruct is a 40B parameters causal decoder-only model built by TII based on Falcon-40B and finetuned on a mixture of Baize. It is made available under the Apache 2.0 license. |
- |
| FastChat (Vicuna) |
 |
An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5. |
继草泥马(Alpaca)后,斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马(Vicuna),仅需300美元就能实现ChatGPT 90%的性能。 |
| GLM-130B (ChatGLM) |
 |
An Open Bilingual Pre-Trained Model (ICLR 2023) |
| GPT-NeoX |
 |
An implementation of model parallel autoregressive transformers on GPUs, based on the DeepSpeed library. |
| Luotuo |
 |
An Instruction-following Chinese Language model, LoRA tuning on LLaMA |
骆驼,中文大语言模型开源项目,包含了一系列语言模型。 |
| minGPT |
 |
A minimal PyTorch re-implementation of the OpenAI GPT (Generative Pretrained Transformer) training。 |
karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。 |
| ChatGLM-6B |
 |
ChatGLM-6B: An Open Bilingual Dialogue Language Model |
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。 |
| li-plus/chatglm.cpp |
 |
C++ implementation of ChatGLM-6B & ChatGLM2-6B |
ChatGLM-6B & ChatGLM2-6B 模型的 C++ 高效实现 |
| Open-Assistant |
 |
- |
知名 AI 机构 LAION-AI 开源的聊天助手,聊天能力很强,目前中文能力较差。 |
| llama.cpp |
 |
- |
实现在MacBook上运行模型。 |
| EasyLM |
 |
在羊驼基础上改进的新的聊天机器人考拉。 |
介绍页 |
| FreedomGPT |
 |
- |
自由无限制的可以在 windows 和 mac 上本地运行的 GPT,基于 Alpaca Lora 模型。 |
| FinGPT |
 |
Data-Centric FinGPT. Open-source for open finance! Revolutionize 🔥 We’ll soon release the trained model. |
金融领域大模型 |
| baichuan-7B |
 |
A large-scale 7B pretraining language model developed by Baichuan |
baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威 benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。 |
| baichuan-inc/Baichuan-13B |
 |
A 13B large language model developed by Baichuan Intelligent Technology |
- |
| open_llama |
 |
OpenLLaMA, a permissively licensed open source reproduction of Meta AI’s LLaMA 7B trained on the RedPajama dataset. |
OpenLLaMA,允许开源复制Meta AI的LLaMA-7B 模型,在red睡衣数据集上训练得到。 |
| Chinese-LLaMA-Alpaca |
 |
中文LLaMA模型和经过指令精调的Alpaca大模型。 |
- |
| gemma.cpp |
 |
用于 Google Gemma 模型的轻量级独立 C++ 推理引擎。 |
- |
| gemma_pytorch |
 |
Google Gemma 模型的官方 PyTorch 实现。 |
- |
大模型训练和微调
| 名称 |
Stars |
简介 |
备注 |
| transformers |
 |
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. |
HuggingFace 经典之作, Transformers 模型必用库 |
| peft |
 |
PEFT: State-of-the-art Parameter-Efficient Fine-Tuning. |
HuggingFace 出品——PEFT:最先进的参数高效微调。 |
| OpenLLM |
 |
An open platform for operating large language models (LLMs) in production. Fine-tune, serve, deploy, and monitor any LLMs with ease. |
微调,服务,部署和监控所有LLMS。用于运营大型语言模型(LLM)的开放平台。 |
| MLC LLM |
 |
Enable everyone to develop, optimize and deploy AI models natively on everyone’s devices. |
陈天奇大佬力作——MLC LLM,在各类硬件上原生部署任意大型语言模型。可将大模型应用于移动端(例如 iPhone)、消费级电脑端(例如 Mac)和 Web 浏览器。 |
| languagemodels |
 |
Explore large language models on any computer with 512MB of RAM. |
在512MB RAM的计算机上探索大型语言模型使用 |
| ChatGLM-Efficient-Tuning |
 |
Fine-tuning ChatGLM-6B with PEFT |
基于 PEFT 的高效 ChatGLM 微调 |
| LLaMA-Efficient-Tuning |
 |
Fine-tuning LLaMA with PEFT (PT+SFT+RLHF with QLoRA) |
支持多种模型 LLaMA (7B/13B/33B/65B) ,BLOOM & BLOOMZ (560M/1.1B/1.7B/3B/7.1B/176B),baichuan (7B),支持多种微调方式LoRA,QLoRA |
| 微调中文数据集 COIG |
 |
Chinese Open Instruction Generalist (COIG) project aims to maintain a harmless, helpful, and diverse set of Chinese instruction corpora. |
中文开放教学通才(COIG)项目旨在维护一套无害、有用和多样化的中文教学语料库。 |
| LLaMA-Adapter🚀 |
 |
- |
高效微调一个聊天机器人 |
| ⚡ Lit-LLaMA |
 |
- |
Lightning-AI 基于nanoGPT的LLaMA语言模型的实现。支持量化,LoRA微调,预训练。 |
| Intel® Extension for Transformers |
 |
⚡ Build your chatbot within minutes on your favorite device; offer SOTA compression techniques for LLMs; run LLMs efficiently on Intel Platforms⚡ |
在Intel平台上高效运行llm。 |
更多模型列表