type
status
data
slug
summary
tags
category
password
icon
和ChatGPT相关的对话模型
ChatGPT 并非首创,事实上很多组织在 OpenAI 之前就发布了自己的语言模型对话代理 (dialog agents),包括 Meta 的 BlenderBot,Google 的 LaMDA,DeepMind 的 Sparrow,以及 Anthropic 的 Assistant (Anthropic 的 Claude 就是部分基于 Assistant 继续开发而得的)。
语言模型对话代理产品论文链接:
- Meta 的 BlenderBot:https://arxiv.org/abs/2208.03188
- Google 的 LaMDA:https://arxiv.org/abs/2201.08239
- DeepMind 的 Sparrow:https://arxiv.org/abs/2209.14375
- Anthropic 的 Assistant:https://arxiv.org/abs/2204.05862
LaMDA | BlenderBot 3 | Sparrow | ChatGPT / InstructGPT | Assistant | |
组织 | Google | Meta | DeepMind | OpenAI | Anthropic |
能否公开访问 | 否 | 能 | 否 | 有限 | 否 |
大小 | 137B | 175B | 70B | 175B | 52B |
预训练基础模型 | 未知 | OPT | Chinchilla | GPT-3.5 | 未知 |
预训练语料库大小 (词数) | 2.81T | 180B | 1.4T | 未知 | 400B |
模型是否可以访问网络 | ✔ | ✔ | ✔ | ✖️ | ✖️ |
有监督微调 | ✔ | ✔ | ✔ | ✔ | ✔ |
微调数据大小 | 质量:6.4K安全性:8K真实性:4KIR:49K | 大小从 18K 到 1.2M 不等的 20 个 NLP 数据集 | 未知 | 12.7K (此为 InstructGPT,ChatGPT 可能更多) | 150K+ LM 生成的数据 |
RLHF | ✖️ | ✖️ | ✔ | ✔ | ✔ |
人为制定的安全规则 | ✔ | ✖️ | ✔ | ✖️ | ✔ |
评价标准 | 1、质量 (合情性、具体性、趣味性)2、安全性 (偏见) 3、真实性 | 1、质量 (参与度、知识运用)2、安全性 (毒性、偏见) | 1、校直 (有帮助,无害,正确)2、证据 (来自网络)3、是否违反规则4、偏见和刻板印象5、诚信度 | 1、 校直 (有帮助、无害、真实)2、偏见 | 1、校直 (有帮助、无害、诚实)2、偏见 |
用于数据标注的众包平台 | 美国供应商 | 亚马逊 MTurk | 未知 | Upwork 和 Scale AI | Surge AI、Amazon MTurk 和 Upwork |