来源:https://console.anthropic.com/docs
翻译:Claude
校对:ALLinLLM
翻译进度:31%
什么是 Claude
Claude 是由 Anthropic 创建的大型语言模型(LLM),经过训练可以以会话方式成为一位有帮助的助手。
与 Claude 交互的方式有多种:
Web - 通过 Anthropic 的控制台,您可以通过聊天界面与 Claude 进行对话。
API - 允许将 Claude 集成到您的产品中,为客户提供服务。无论您使用哪种接口,与 Claude 的交互方式大致相同,这使得您可以轻松地在控制台中尝试提示,并将其迁移到基于 API 的系统中。
获取 Claude 访问权限
Anthropic 正在谨慎推出 Claude,以确保其安全性和可扩展性,这与公司的价值观一致。我们正在与选定的合作伙伴合作在其产品中推出 Claude。如果您有兴趣成为合作伙伴之一,我们正在接受申请。请注意,由于收到的极大兴趣,回复可能需要一些时间。
如果您已通过某种接口(例如 Claude in Slack)与 Claude 进行交互,并希望转移到另一种接口(例如 API 访问),您可以分别重新申请访问每个产品。
与 Claude 的第一次聊天
Claude 拥有许多功能,其响应效果可能取决于您提出问题的方式。无论通过 Slack 还是网页界面,这里有一些建议供您参考:
把 Claude 当作外包员工一样交谈
与 Claude 交谈时,像对待外包员工一样,而不是简单的文本补全 API。例如:
写一篇专家级的激光光学技术摘要。
Claude “记得” 整个线程
通过 Slack 或网页界面与 Claude 交互时,它可以看到您在该线程中写的任何其他内容。它无法记住此线程之前您说过的任何内容(例如其他线程,即使同时进行),它在线程之间清除记忆。
需要记住的限制
🎭 Claude 正在“扮演”一个有帮助的助手角色,可能会错误地报告自己的能力,或声称“更新记忆”,实际上它对先前的谈话没有任何记忆。
➗ Claude 在复杂的算术和推理方面经常出错,有时在更基本的任务上也会出错。
👻 Claude 有时会产生幻觉或编造信息和细节。
🌐 Claude 阅读了互联网上的许多资料,但无法访问互联网。
⏳ Claude 的训练数据可能早于 2 年前。
📅 Claude 不知道今天的日期,也不知道当前事件。
🔨 它无法在现实世界中采取行动,但可以建议采取行动。
📇 它无法查阅信息,但可以建议查阅什么信息。
术语词典
以下是一些相关概念的简要总结:
上下文窗口
“上下文窗口”是指语言模型在生成文本时可以回顾和参考的文本量。
微调
微调是指使用额外的数据进一步训练预训练语言模型的过程。Claude 已经被微调为一款有用的助手。
HHH
这三个 H 代表 Anthropic 确保 Claude 有益于社会的目标:
一个有帮助的 AI 会尽力执行提出的任务或回答提出的问题。
一个诚实的 AI 会提供准确的信息,而不是幻想或虚构。
一个无害的 AI 不会冒犯或歧视,并在被要求协助危险行为时,礼貌地拒绝。
LLM
大型语言模型(LLM)是具有许多参数的 AI 语言模型,能够执行各种有用任务。Claude 是一个基于大型语言模型的会话助手。
RLHF
人工反馈强化学习是一种方法,可以鼓励预训练语言模型表现出与人类偏好一致的方式。
温度
温度是一个控制模型预测随机性的参数。更高的温度会产生更有创造力的样本,而较低的温度会产生更保守的样本。
Token
Token 是语言模型的最小个别“原子”,可以对应单词、词根、字符,甚至在 Unicode 的情况下对应到单个字节。
Claude 经过训练成为一名有帮助的助手,习惯于对话,您可以用标准英语指示它。把 Claude 想象成一名新雇佣的承包商,给它非常具体的说明。
提示词
您给 Claude 的文本旨在引发或“提示”相关响应。提示通常采取问题或指示的形式。例如:
人类:为什么天空是蓝色的?
助手:
通过 API 发送的提示必须包含 人类: 和 助手: 作为说话人的信号。
Claude 通过使用像这样的 人类: 和 助手: 数据进行 RLHF 方法训练和微调。
响应
Claude 响应的文本称为“响应”。
“把内容喂到 Claude 的嘴里”
提示样式有几个有用的功能,允许通过向 Claude 发送它以前说过的话进行持续的对话。
人类:请选择一个随机水果。
助手:这里是我为您随机选择的水果:
番石榴。
人类:这种水果的颜色是什么?
助手:
提示长度
Claude 可以看到的最大提示长度为其上下文窗口,当前为 6500 个单词/8000 个 token/28000 个 Unicode 字符。
与某人交谈时,很容易忽略他们可能缺乏您脑海中的上下文。为了减少误解的风险,我们需要明确说明并消除任何歧义。
明确描述需求
为了避免歧义,保持提示词的精确,具备完整的主谓宾定状补。例如:
反例:纽约有多大?
正例:相比其他州,纽约州的面积和人口有多大?
提供示例
在提示中包含几个示例可以大大提高准确性。这被称为少样本,而不是单样本回答。
人类:想一个护士的有趣集体名词。
助手:
当您提供的说明很复杂时,可以考虑一些额外的技术。
编写子任务
Claude 在由几个子任务组成的“复杂”任务中的表现较差。您可以通过将提示分解为步骤来帮助 Claude。
人类:告诉我工蜂如何维护巢穴,用英语,但在您的答案中将“蜜蜂”的任何实例替换为德语单词,并将其放入 标签中。
检查 Claude 是否理解您的提示词
确定 Claude 是否理解您的指示词的最佳方式是询问 Claude。
人类:我将给您一个句子,您需要告诉我它包含单词“苹果”的次数。
迭代扩展提示是指使用 Claude 的响应来提高后续提示的可靠性。
重复说明
在检查 Claude 的理解之后,可以包括来自 Claude 的响应,以加固模型对新请求说明的理解。
人类:这里有一个句子:
我吃了一个苹果,然后我吃了另一个苹果。
您的答案是什么?