Visão geral
O Generative AI Application Builder on AWS facilita o desenvolvimento, a rápida experimentação e a implantação de aplicações de inteligência artificial generativa (IA) sem exigir uma profunda experiência em IA. Esta solução da AWS acelera o desenvolvimento e simplifica a experimentação ao auxiliar você a ingerir dados e documentos específicos da sua empresa, avaliar e comparar o desempenho de grandes modelos de linguagem (LLMs), criar aplicações extensíveis com rapidez e implantá-las com uma arquitetura de nível empresarial.
O Generative AI Application Builder on AWS inclui integrações com o Amazon Bedrock e os LLMs inclusos, e com os LLMs implantados no Amazon SageMaker. Além disso, essa solução tem conectores desenvolvidos previamente para provedores como o Anthropic e o Hugging Face, possibilitando conexões com o modelo de sua escolha ao usar o LangChain ou o AWS Lambda. Comece com o assistente de implantação sem código para criar aplicações de IA generativa para pesquisa conversacional, chatbots com base em IA generativa, geração de texto e resumo de texto.
Benefícios
Essa solução permite que os usuários façam experimentos rapidamente, eliminando o trabalho pesado necessário para implantar várias instâncias com configurações diferentes e comparar os resultados e o desempenho. Experimente várias configurações de vários LLMs, engenharia de prompt, bases de conhecimento corporativas e outros parâmetros.
Com conectores pré-construídos para uma variedade de LLMs, como modelos disponíveis pelo Amazon Bedrock e pelos fornecedores externos Anthropic e Hugging Face, essa solução oferece a flexibilidade de implantar o modelo de sua escolha, bem como os principais serviços de FM e da AWS de sua preferência.
Criada com os princípios de projeto do AWS Well-Architected, essa solução oferece segurança e escalabilidade em nível empresarial com alta disponibilidade e baixa latência, garantindo uma integração perfeita em suas aplicações com altos padrões de desempenho.
Estenda a funcionalidade dessa solução integrando seus projetos existentes ou conectando serviços adicionais da AWS nativamente. Como essa é uma aplicação de código aberto, você pode usar a camada de orquestração do LangChain incluída ou as funções do Lambda para se conectar a serviços de sua escolha.
Detalhes técnicos
Você pode implantar automaticamente essa arquitetura usando o guia de implementação e o modelo do AWS CloudFormation que o acompanha, que implanta duas arquiteturas separadas:
- Painel de implantação — O Painel de implantação é uma interface de usuário (UI) da web que serve como um console de gerenciamento para os usuários administradores visualizarem, gerenciarem e criarem seus casos de uso. Esse painel permite que os clientes experimentem, iterem e implantem aplicações de IA generativa rapidamente, usando várias configurações de LLMs e dados.
- Caso de uso de texto — O Caso de uso de texto permite que os usuários experimentem uma interface de linguagem natural usando IA generativa. Esse caso de uso pode ser integrado a aplicações novas ou existentes e pode ser implantado por meio do Painel de Implantação ou de forma independente por meio de um URL fornecido.
-
Painel de implantação
-
Caso de uso de texto
-
Painel de implantação
-
Etapa 1
Os usuários administradores fazem login na interface de usuário do Painel de implantação.
Etapa 2
O Amazon CloudFront fornece a interface de usuário da Web, que está hospedada em um bucket do Amazon Simple Storage Service (Amazon S3).Etapa 3
O AWS WAF protege as APIs contra ataques. Essa solução configura um conjunto de regras, chamado de lista de controle de acesso da Web (ACL da Web) que permite, bloqueia ou conta solicitações da Web com base em regras e condições de segurança da Web configuráveis e definidas pelo usuário.
Etapa 4
A interface de usuário da Web utiliza um conjunto de APIs REST que são expostas usando o Amazon API Gateway.
Etapa 5
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway.
Etapa 6
O AWS Lambda fornece a lógica de negócios para os endpoints REST. Essa função do Lambda de apoio gerencia e cria os recursos necessários para realizar implantações de casos de uso usando o AWS CloudFormation.Etapa 7
O Amazon DynamoDB atua como um repositório de configuração para os detalhes da implantação.Etapa 8
Quando um novo caso de uso é criado pelo usuário administrador, a função do Lambda de apoio inicia um evento de criação de pilha do CloudFormation para o caso de uso solicitado.Etapa 9
Se a implantação configurada usar um LLM acessado fora da AWS, será necessária uma chave de API e um segredo será criado no AWS Secrets Manager para armazenar a chave de API.Etapa 10
Todas as opções de configuração do LLM fornecidas pelo usuário administrador no assistente de implantação são salvas no Parameter Store, um recurso do AWS Systems Manager. A implantação usa este Parameter Store para configurar o LLM em runtime.Etapa 11
Usando o Amazon CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da solução.
-
Caso de uso de texto
-
Etapa 1
Os usuários administradores implantam o caso de uso no Painel de implantação. Os usuários corporativos fazem login na interface de usuário do caso de uso.
Etapa 2
O CloudFront fornece a IU da Web hospedada em um bucket do S3.Etapa 3
A interface de usuário da Web utiliza uma integração WebSocket criada com o uso do API Gateway. O API Gateway tem o suporte de uma função do Lambda Authorizer, que retorna a política apropriada do AWS Identity and Access Management (IAM) com base no grupo do Amazon Cognito do qual o usuário autenticador faz parte.Etapa 4
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway.
Etapa 5
O LangChain Orchestrator é uma coleção de funções e camadas do Lambda que fornecem a lógica de negócios para atender a solicitações do usuário corporativo.
Etapa 6
O LangChain Orchestrator usa o Parameter Store e o DynamoDB para obter as opções configuradas de LLMs e as informações de sessão necessárias, como o histórico de chats.Etapa 7
Se a implantação tiver a base de conhecimento habilitada, o LangChain Orchestrator utilizará o Amazon Kendra para executar uma consulta de pesquisa para recuperar trechos de documentos.Etapa 8
Ao usar o histórico de chat, a consulta e o contexto do Amazon Kendra, o orquestrador do LangChain cria a mensagem final e envia a solicitação ao LLM hospedado no Amazon Bedrock ou no Amazon SageMaker.Etapa 9
Se estiver usando um LLM acessado fora da AWS, a chave da API é armazenada no Secrets Manager. Essa chave de API deve ser obtida antes de fazer a chamada de API para o provedor de modelo.Etapa 10
Quando a resposta retorna do LLM, o LangChain Orchestrator a transmite de volta por meio do WebSocket do API Gateway para que ela seja consumida pela aplicação cliente.
Etapa 11
Usando o CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da implantação.
- Data de publicação
Conteúdo relacionado
A maneira mais fácil de criar e escalar aplicações de IA generativa com modelos de base.
Esta orientação demonstra como implantar um modelo de inteligência artificial (IA) generativa fornecido pelo Amazon SageMaker JumpStart para criar um endpoint assíncrono do SageMaker com a facilidade do AWS Cloud Development Kit (AWS CDK).
Esta orientação demonstra como criar uma aplicação que permite aos usuários fazer perguntas diretamente em bancos de dados relacionais usando consultas em linguagem natural (NLQ).
Aumente a produtividade, crie experiências diferenciadas e inove mais rapidamente com a AWS.