今天,宣布[Meta 的 Llama 3 模型在 Amazon Bedrock 全面上市。 Meta Llama 3 专为构建、实验和负责任地扩展生成式人工智能(AI) 应用程序而设计。新的 Llama 3 模型最有能力支持广泛的用例,并在推理、代码生成和指令方面进行了改进。更多免费试用产品链接
根据Meta 的 Llama 3 公告,Llama 3 模型系列是一组经过预训练和指令调整的大型语言模型 (LLM),参数大小为 8B 和 70B。这些模型已经过超过 15 万亿个令牌的数据训练,训练数据集比Llama 2 模型使用的训练数据集大七倍,包括四倍多的代码,支持 8K 上下文长度,使 Llama 2 的容量增加了一倍。
现在可以在Amazon Bedrock中使用两种新的 Llama 3 模型,进一步增加 Amazon Bedrock 中的模型选择。这些模型使能够轻松试验和评估适合的用例的更多顶级基础模型 (FM):
Meta 目前还在训练额外的 Llama 3 模型,参数大小超过 400B。这些 400B 模型将具有新功能,包括多模态、多语言支持和更长的上下文窗口。发布后,这些模型将非常适合内容创建、对话式 AI、语言理解、研发 (R&D) 和企业应用程序。
如果不熟悉使用元模型,请转到Amazon Bedrock 控制台并选择左下窗格中的模型访问。要从 Meta 访问最新的 Llama 3 模型,请单独请求访问Llama 3 8B Instruct或Llama 3 70B Instruct。
要在 Amazon Bedrock 控制台中测试 Meta Llama 3 模型,请选择左侧菜单窗格中Playgrounds下的文本或聊天。然后选择选择模型并选择Meta作为类别,选择Llama 8B Instruct或Llama 3 70B Instruct作为模型。
通过选择View API request ,还可以使用命令行界面 (亚马逊云科技 CLI)和 亚马逊云科技开发工具包中的代码示例访问模型。可以使用模型 ID,例如meta.llama3-8b-instruct-v1
或meta.llama3-70b-instruct-v1
。
以下是 亚马逊云科技 CLI 命令的示例:
可以使用亚马逊云科技 开发工具包使用Amazon Bedrock 的代码示例来使用各种编程语言构建应用程序。以下 Python 代码示例展示了如何调用 Amazon Bedrock 中的 Llama 3 Chat 模型来生成文本。
可以使用这些 Llama 3 模型执行各种任务,例如问答、语言翻译、情感分析等。以下是 Llama 3 模型的示例,其中提供了模型可用的训练样本,其中包含少量上下文学习。
还可以使用针对对话用例优化的 Llama 3 指令模型。指令模型端点的输入是聊天助手和用户之间的先前历史记录。因此,可以提出与目前已发生的对话相关的问题,并提供系统配置,例如角色,它按以下格式定义聊天助理的行为:
在以下示例中,用户与助理就巴黎的旅游景点进行对话。然后,用户查询聊天助手推荐的第一个选项。
Meta Llama 3 基础模型可通过 Amazon SageMaker JumpStart来部署和运行推理。 Llama 3 模型是预先训练和微调的生成文本模型的集合。
在这篇文章中,将介绍如何通过 SageMaker JumpStart 发现和部署 Llama 3 模型。
Llama 3 有两种参数大小 - 8B 和 70B,上下文长度为 8k - 可以支持广泛的用例,并在推理、代码生成和指令跟踪方面进行改进。 Llama 3 使用仅解码器的转换器架构和新的分词器,以 128k 大小提供改进的模型性能。此外,Meta 改进了训练后程序,大大降低了错误拒绝率,改善了对齐,并增加了模型响应的多样性。现在,可以通过 Amazon SageMaker 功能(例如 SageMaker Pipelines、SageMaker Debugger 或容器日志)获得 Llama 3 性能和 MLOps 控制的综合优势。此外,该模型将部署在的 VPC 控制下的 亚马逊云科技 安全环境中,帮助提供数据安全。
借助 SageMaker JumpStart,可以从多种公开可用的基础模型中进行选择。 ML 从业者可以将基础模型从网络隔离环境部署到专用 SageMaker 实例,并使用 SageMaker 自定义模型以进行模型训练和部署。现在,只需在Amazon SageMaker Studio中单击几下或通过 SageMaker Python SDK 以编程方式发现和部署 Llama 3 模型 ,即可使用SageMaker Pipelines、SageMaker Debugger或容器日志等 SageMaker 功能获得模型性能和 MLOps 控制。该模型部署在 亚马逊云科技 安全环境中并受的 VPC 控制,有助于提供数据安全。 Llama 3 模型现已推出,可在us-east-1
(弗吉尼亚北部)、us-east-2
(俄亥俄)、us-west-2
(俄勒冈)、eu-west-1
(爱尔兰)和ap-northeast-1
(东京)亚马逊云科技 区域的 Amazon SageMaker Studio 中进行部署和推理。
可以通过 SageMaker Studio UI 和 SageMaker Python SDK 中的 SageMaker JumpStart 访问基础模型。在本节中,将介绍如何在 SageMaker Studio 中发现模型。
SageMaker Studio 是一个集成开发环境 (IDE),提供基于 Web 的单一可视化界面,可以在其中访问专用工具来执行所有 ML 开发步骤,从准备数据到构建、训练和部署 ML 模型。有关如何开始和设置 SageMaker Studio 的更多详细信息,请参阅Amazon SageMaker Studio。
在 SageMaker Studio 中,可以访问 SageMaker JumpStart,其中包含预训练模型、笔记本和预构建解决方案,位于预构建和自动化解决方案下。
在 SageMaker JumpStart 登录页面中,可以通过浏览以模型提供商命名的不同中心轻松发现各种模型。可以在 Meta hub 中找到 Llama 3 模型。如果没有看到 Llama 3 模型,请通过关闭并重新启动来更新的 SageMaker Studio 版本。有关更多信息,请参阅关闭和更新 Studio 经典应用程序。
可以通过在左上角的搜索框中搜索“Meta-llama-3”来找到 Llama 3 型号。
可以通过单击 Meta 中心发现 SageMaker JumpStart 中可用的所有 Meta 模型。
单击模型卡片将打开相应的模型详细信息页面,可以从中轻松部署模型。
当选择部署并确认 EULA 条款时,部署将开始。
可以在单击“部署”按钮后显示的页面上监控部署进度。
或者,可以选择**“打开笔记本”**以通过示例笔记本进行部署。该示例笔记本提供了有关如何部署模型进行推理和清理资源的端到端指导。
要使用笔记本进行部署,首先要选择适当的模型,由 model_id
.可以使用以下代码在 SageMaker 上部署任何选定的模型。
默认 accept_eula
设置为False
。需要手动接受 EULA 才能成功部署端点。这样做即表示接受用户许可协议和可接受的使用策略。还可以在 Llama 网站上找到许可协议 。这会使用默认配置(包括默认实例类型和默认 VPC 配置)在 SageMaker 上部署模型。可以通过在 中指定非默认值来更改这些配置JumpStartModel
。要了解更多信息,请参阅以下 文档。
下表列出了 SageMaker JumpStart 中可用的所有 Llama 3 模型,以及 model_ids
每个模型支持的默认实例类型和最大总令牌数(输入令牌数和生成令牌数的总和)。
型号名称 | 型号编号 | 最大总代币数 | 默认实例类型 |
---|---|---|---|
元骆驼-3-8B | 元文本生成-llama-3-8b | 8192 | ml.g5.12xlarge |
Meta-Llama-3-8B-指令 | 元文本生成-llama-3-8b-指令 | 8192 | ml.g5.12xlarge |
元羊驼-3-70B | 元文本生成-llama-3-70b | 8192 | ml.p4d.24xlarge |
Meta-Llama-3-70B-指令 | 元文本生成-llama-3-70b-指令 | 8192 | ml.p4d.24xlarge |
部署模型后,可以通过 SageMaker 预测器对部署的终端节点运行推理。经过微调的指令模型(Llama 3:8B Instruct 和 70B Instruct)接受用户和聊天助理之间的聊天历史记录,并生成后续聊天。预训练模型(Llama 3:8B 和 70B)需要字符串提示并根据提供的提示执行文本完成。
推理参数控制端点处的文本生成过程。 Max 新标记控制模型生成的输出的大小。这与单词数不同,因为模型的词汇与英语词汇不同,并且每个标记可能不是英语单词。温度参数控制输出的随机性。较高的温度会产生更多的创造性和幻觉输出。所有推理参数都是可选的。
可以使用 Llama 3 模型完成任何文本片段的文本补全。通过文本生成,可以执行各种任务,例如问答、语言翻译和情感分析等。端点的输入有效负载类似于以下代码:
以下是一些示例提示和模型生成的文本。所有输出都是使用推理参数生成的 {"max_new_tokens":64, "top_p":0.9, "temperature":0.6}
。
在下一个示例中,将展示如何使用 Llama 3 模型进行少量镜头上下文学习,其中为模型提供可用的训练样本。仅对已部署的模型进行推理,在此过程中,模型权重不会改变。
通过针对对话用例进行优化的 Llama 3 指令模型,指令模型端点的输入是聊天助手和用户之间的先前历史记录。可以提出与目前所发生的对话相关的问题。还可以提供系统配置,例如定义聊天助理行为的角色。虽然输入有效负载格式与基本预训练模型相同,但输入文本应按以下方式格式化:
在此说明模板中,可以选择从一个system
角色开始,并在回合历史记录中包含所需数量的交替角色。最后的角色应该始终assistant
以两个新的换行符结束。
接下来,考虑模型的一些示例提示和响应。在以下示例中,用户向助理询问一个简单的问题。
在以下示例中,用户与助理就巴黎的旅游景点进行对话。然后用户询问聊天助手推荐的第一个选项。
在以下示例中,设置系统的配置。
运行完笔记本后,请确保删除在此过程中创建的所有资源,以便停止计费。使用以下代码:
在这篇文章中,向展示了如何在 SageMaker Studio 中开始使用 Llama 3 模型。现在可以访问四个包含数十亿个参数的 Llama 3 基础模型。由于基础模型是经过预训练的,因此它们还可以帮助降低培训和基础设施成本,并支持针对的用例进行定制。立即查看SageMaker Studio 中的SageMaker JumpStart以开始使用。