发布于: Mar 1, 2024
Mistral AI 的 Mixtral 8x7B 和 Mistral 7B 基础模型现已在 Amazon Bedrock 中全面推出。 除了 AI21 Labs、Anthropic、Cohere、Meta、Stability AI 和 Amazon 等其他领先的 AI 公司外,Amazon Bedrock 目前也提供 Mistral AI 模型。现在,您可以通过单个 API 在 Amazon Bedrock 中选择更多高性能模型,因此您可以选择最佳模型来构建具有安全、隐私和负责任的 AI 的生成式人工智能应用程序。
Mistral AI 的 Mixtral 8x7B 和 Mistral 7B 模型将公开发布的模型提升到最先进的性能。Mixtral 8x7B 是一款热门的高质量稀疏化混合专家 (MoE) 模型,非常适合文本摘要、问答、文本分类、文本完成和代码生成。Mistral 7B 是 Mistral 推出的第一个基础模型。它支持具有自然编码能力的英语文本生成任务,并且可以快速轻松地使用您的自定义数据进行微调,以处理特定任务。该模型针对低延迟进行了优化,具有低内存需求和高吞吐量。Mistral 7B 是一个强大的模型,支持从文本摘要和分类到文本完成和代码补全等各种使用案例。
Amazon Bedrock 中 Mixtral AI 的 Mixtral 8x7B 和 Mistral 7B 模型现已在美国西部(俄勒冈州)AWS 区域推出。 要了解更多信息,请阅读 AWS 新闻发布博客、Amazon Bedrock 上的 Mistral AI 产品页面和文档。要开始在 Amazon Bedrock 中使用 Mistral AI,请访问 Amazon Bedrock 控制台。