大型语言模型 (LLM) 模块¶
AI 结构化响应生成器¶
是什么¶
一个使用大型语言模型 (LLM) 生成结构化响应的模块。
有什么用¶
它接收提示和其他参数,将其发送给 LLM,并以指定格式返回结构化响应。
工作原理¶
该模块将输入提示连同任何系统提示和预期响应格式发送给选定的 LLM。然后它处理 LLM 的响应,确保其匹配预期格式,并返回结构化数据。
输入¶
输入 | 描述 |
---|---|
提示 | 发送给 LLM 的主要文本提示 |
预期格式 | 指定所需响应结构的字典 |
模型 | 要使用的特定 LLM(例如,GPT-4 Turbo,Claude 3) |
API 密钥 | 访问 LLM 服务的密钥 |
系统提示 | 用于引导 LLM 行为的可选提示 |
重试 | 尝试生成有效响应的次数 |
提示值 | 用于填充提示模板的值字典 |
输出¶
输出 | 描述 |
---|---|
响应 | 来自 LLM 的结构化响应 |
错误 | 如果过程失败,则显示任何错误消息 |
可能的用例¶
从非结构化文本中提取特定信息,例如从冗长的产品评论中生成带有预定义字段(名称、特性、价格)的产品描述。
AI 文本生成器¶
是什么¶
一个使用大型语言模型 (LLM) 生成文本响应的模块。
有什么用¶
它接收提示和其他参数,将其发送给 LLM,并返回文本响应。
工作原理¶
该模块将输入提示发送给选定的 LLM,处理响应,并返回生成的文本。
输入¶
输入 | 描述 |
---|---|
提示 | 发送给 LLM 的主要文本提示 |
模型 | 要使用的特定 LLM(例如,GPT-4 Turbo,Claude 3) |
API 密钥 | 访问 LLM 服务的密钥 |
系统提示 | 用于引导 LLM 行为的可选提示 |
重试 | 尝试生成有效响应的次数 |
提示值 | 用于填充提示模板的值字典 |
输出¶
输出 | 描述 |
---|---|
响应 | 来自 LLM 的文本响应 |
错误 | 如果过程失败,则显示任何错误消息 |
可能的用例¶
根据给定的主题或起始句生成创意写作,例如短篇故事或诗歌。
AI 文本摘要器¶
是什么¶
一个使用大型语言模型 (LLM) 摘要长文本的模块。
有什么用¶
它接收长文本,将其分成可处理的块,摘要每个块,然后将这些摘要组合成最终摘要。
工作原理¶
该模块将输入文本分割成较小的块,将每个块发送给 LLM 进行摘要,然后组合这些摘要。如果组合后的摘要仍然太长,它会重复此过程,直到达到简洁的摘要。
输入¶
输入 | 描述 |
---|---|
文本 | 要摘要的长文本 |
模型 | 用于摘要的特定 LLM |
焦点 | 摘要中要关注的主要主题或方面 |
风格 | 期望的摘要风格(例如,简洁、详细、要点) |
API 密钥 | 访问 LLM 服务的密钥 |
最大 Token 数 | 每个块的最大 token 数 |
块重叠 | 块之间重叠的 token 数 |
输出¶
输出 | 描述 |
---|---|
摘要 | 最终摘要文本 |
错误 | 如果过程失败,则显示任何错误消息 |
可能的用例¶
摘要冗长的研究论文或文章,以快速掌握主要观点和关键发现。
AI 对话¶
是什么¶
一个使用大型语言模型 (LLM) 促进多轮对话的模块。
有什么用¶
它接收对话消息列表,将其发送给 LLM,并返回模型的响应以继续对话。
工作原理¶
该模块将整个对话历史(包括系统消息、用户输入和之前响应)发送给选定的 LLM。然后它返回 LLM 的响应作为对话的下一部分。
输入¶
输入 | 描述 |
---|---|
消息 | 对话中的先前消息列表 |
模型 | 用于对话的特定 LLM |
API 密钥 | 访问 LLM 服务的密钥 |
最大 Token 数 | 响应中生成的最大 token 数 |
输出¶
输出 | 描述 |
---|---|
响应 | LLM 的响应以继续对话 |
错误 | 如果过程失败,则显示任何错误消息 |
可能的用例¶
创建可以维护多轮交流上下文的交互式聊天机器人,例如客户服务助手或语言学习伙伴。
AI 列表生成器¶
是什么¶
一个使用大型语言模型 (LLM) 根据给定提示或源数据生成列表的模块。
有什么用¶
它接收焦点或源数据,将其发送给 LLM,并根据输入返回生成的列表。
工作原理¶
该模块根据给定的焦点或源数据构建提示,将其发送给选定的 LLM,然后处理响应以确保其是有效的 Python 列表。如果初始尝试失败,它可以重试多次。
输入¶
输入 | 描述 |
---|---|
焦点 | 要生成的列表的主要主题 |
源数据 | 用于列表生成的可选数据 |
模型 | 用于列表生成的特定 LLM |
API 密钥 | 访问 LLM 服务的密钥 |
最大重试次数 | 尝试生成有效列表的最大次数 |
输出¶
输出 | 描述 |
---|---|
生成的列表 | LLM 生成的完整列表 |
列表项 | 生成的列表中的每个单独项 |
错误 | 如果过程失败,则显示任何错误消息 |
可能的用例¶
从冗长的会议记录中自动生成关键点或行动项列表,或摘要一系列文档中讨论的主要主题。
提供商¶
AutoGPT 用户可以使用多种提供商来运行 LLM 模型推理。
Llama API¶
Llama API 是一个由 Meta 托管的 API 服务,可帮助您快速高效地集成 Llama 模型。使用 OpenAI 兼容的端点,您可以轻松访问 Llama 模型的强大功能,无需复杂的设置或配置!
加入候补名单以获取访问权限!
通过从上面提到的 AI 模块中选择以下任一 LLM 模型名称来尝试 Llama API 提供商: - Llama-4-Scout-17B-16E-Instruct-FP8 - Llama-4-Maverick-17B-128E-Instruct-FP8 - Llama-3.3-8B-Instruct - Llama-3-70B-Instruct