콘텐츠 언어
현재 모든 콘텐츠가 번역되지는 않습니다.

Proto가 Amazon Bedrock을 통해 최첨단 아바타에 생명을 불어넣는 방법

이 콘텐츠는 어떠셨나요?

호주에 있는 환자가 영국에 있는 의사에게 긴급하게 전문 진료를 받아야 합니다. 한 로봇 회사는 기계를 운반하는 번거로움 없이 잠재적 투자자에게 최신 발명품을 시연해야 합니다. 새로운 호텔은 최고급 경험을 제공하여 고객들을 놀라게 하고자 합니다. Proto생성형 AI로 구동되는 홀로그램을 통해 이 모든 일뿐만 아니라 그 이상을 가능하게 합니다.

Proto는 생성형 인공 지능을 활용하여 사실적인 아바타를 만들어냅니다. 이 아바타는 인상적인 7피트 홀로그램 머신으로 전송되어 실제 대화에 참여하고, 정보를 제공하며, 작업을 지원하고, 엔터테인먼트를 즐길 수 있습니다. 이 아바타들은 이미 광고 및 소매, 엔터테인먼트, 운송, 숙박업, 교육, 훈련, 의료 등의 업계에 진출하여 Fortune 500대 기업과 세계에서 가장 유명한 스포츠팀 및 유명인에게 서비스를 제공하고 있습니다.

따라서 긴급 치료가 필요한 환자가 수천 마일 떨어진 곳에 있는 전문가에게 원격으로 진료를 받을 수 있습니다. 로봇 회사는 값비싼 키트를 수출하는 데 드는 비용과 복잡성에 대한 부담 없이 최신 제품을 선보일 수 있습니다. 또한 호텔은 실물 크기의 챗봇으로 고객을 맞이하고 맞춤형 디지털 컨시어지 서비스를 제공하여 경쟁 업체와 차별화된 비즈니스를 할 수 있습니다.

이러한 각 사용 사례에는 특성(예: 비용, 지연 시간, 정확도)이 있으므로 다른 모델보다 파운데이션 모델(FM)을 먼저 선택해야 합니다. 따라서 Proto는 특정 사용 사례에 따라 AI 강화 아바타의 실험, 테스트 및 적용을 용이하게 하는 솔루션이 필요했습니다. Amazon Bedrock으로 마이그레이션하면서 이 솔루션이 제공되어 Proto는 평가, 실험, 배포 및 사용자 지정이 용이한 다양한 FM을 활용할 수 있게 되었습니다.

Amazon Bedrock을 통한 개선 및 간소화

Proto는 해당 분야의 선두 주자였지만, 지연 시간을 줄이고 현실감을 높이며 참여의 정확도를 높이려는 시장의 요구에 부응하기 위해 AI 아바타를 개선할 방법을 찾고 있었습니다. Proto의 아바타는 수천 명의 시청자에게 방송하거나 한 사람에게 맞춤화하거나, 실시간 정보를 전달하거나, 높은 수준의 교육을 제공할 수 있습니다. 용도나 분야가 무엇이든, 사용 사례에 적합한 아바타 페르소나를 제공하는 동시에 정교한 수준의 현실감, 정확성 및 보안을 제공해야 합니다. 예를 들어 가상 호텔 컨시어지는 고객의 경험을 향상시키기 위해 세밀한 조정이 필요한 반면, 가상 미술 교사는 언어를 그림으로 처리할 수 있는 유연성이 필요합니다.

결정적으로 Proto는 애플리케이션 구축 및 관리 프로세스를 간소화하고자 했습니다. 과거에 Proto는 다양한 서비스와 도구를 사용했기 때문에 문제가 복잡해졌습니다. 즉, AWS 서비스 제품군을 사용했지만 다른 공급자를 이용하여 구축했습니다.

생성형 AI는 빠르게 진화하는 분야이므로 까다로운 기업들은 계속해서 제품을 혁신하고 고객에게 최상의 서비스를 제공합니다. 이를 위해서는 인적 자원과 시간이 필요하며, 어려운 작업을 처리할 수 있는 유연한 도구의 도움이 필요합니다. Proto의 레거시 환경은 여러 솔루션에 분산되어 있어 기존 AWS 서비스를 관리하고 새 서비스를 배포하기가 어려웠습니다. Amazon Bedrock 기반 접근 방식을 통해 Proto는 아바타를 지속적으로 반복하고 실시간 사용자 상호 작용에 따라 아바타를 조정할 수 있습니다. 이를 통해 콘텐츠가 항상 특정 상황에 적합하도록 만들 수 있습니다. 예를 들어 Proto는 특정 주제가 적합한지 아닌지를 즉시 판단하고 이러한 참여를 안전하게 유지하기 위해 상호 작용 중간에 가이드라인(가드레일이라고 함)을 설정할 수 있습니다.

Proto는 이러한 요인과 최신 생성형 AI 도구의 필요성 때문에 Amazon Bedrock의 Anthropic Claude로 마이그레이션하기로 결정했습니다. 이를 통해 회사는 AI 아바타와 이를 만드는 데 사용되는 프로세스를 개선할 수 있었습니다.

Amazon Bedrock을 사용해야 하는 이유

Amazon Bedrock은 단일 API를 통해 고성능 파운데이션 모델 중에서 선택할 수 있고, 스타트업이 보안, 프라이버시, 책임 있는 AI 원칙이 적용된 생성형 AI 애플리케이션을 구축할 수 있도록 지원하는 다양한 기능 세트를 함께 제공하는 완전관리형 서비스입니다.

Amazon Bedrock을 사용하면 사용자가 다양한 사용 사례에 맞게 상위 FM을 쉽게 실험 및 평가하고, 미세 조정 및 검색 증강 생성(RAG)과 같은 기술을 사용하여 자체 데이터로 비공개로 사용자 지정하고, 자체 엔터프라이즈 시스템 및 데이터 소스를 사용하여 작업을 실행하는 에이전트를 구축할 수 있습니다.

또한 Amazon Bedrock은 서버리스이므로 스타트업이 인프라를 관리할 필요가 없으며, 이미 익숙한 AWS 서비스를 사용하여 생성형 AI 기능을 애플리케이션에 안전하게 통합하고 배포할 수 있습니다.

마이그레이션의 역학

Proto는 Amazon Bedrock으로 마이그레이션하고 주요 컨퍼런스에서 대화형 아바타를 시연하기 위해 Amazon Bedrock에서 사용할 수 있는 FM인 Anthropic의 Claude Instant를 선택했습니다. AI 아바타를 최적화하기 위해 이 모델을 미세 조정하고, 환경, 청중, 상황에 맞게 상호 작용이 적절하게 이루어지도록 가드레일을 마련했습니다.

Amazon Bedrock을 통해 Proto는 다음 개발 단계로 진행하기 전에 다양한 FM의 성능을 테스트할 수 있었습니다. 즉, 각 사용 사례에 가장 비용 효율적인 솔루션을 선택할 수 있었습니다. 이는 간단한 프로세스였기 때문에 워크플로나 배포 파이프라인에 영향을 주지 않았습니다. 둘 다 AI 개발의 선두에 서고자 하는 스타트업에게 매우 중요했습니다. Proto의 Chief Product and AI Officer인 Raffi Kryszek은 “Amazon Bedrock을 사용하면 코드 한 줄만 변경하여 다양한 파운데이션 모델을 사용한 아바타의 성능을 테스트할 수 있었습니다.”라고 설명합니다.

Proto는 또한 텍스트를 실제와 같은 음성으로 변환하는 클라우드 서비스인 Amazon Polly와 음성을 텍스트로 자동 변환하는 음성 인식 서비스인 Amazon Transcribe를 배포했습니다. 이를 통해 Proto는 일본어, 한국어, 스페인어와 같은 다양한 언어로 대화를 지원하도록 솔루션을 조정할 수 있는 민첩성을 확보할 수 있습니다.

제공되는 서비스 범위 외에도 Amazon Bedrock의 특정 기능 덕분에 마이그레이션 과정이 원활해졌으며 Proto는 규모가 커짐에 따라 최신 생성형 AI 도구를 빠르게 적용하고 활용할 수 있었습니다.

마이그레이션의 난제는 API 재구성에 초점을 맞췄습니다. 이를 위해서는 Proto의 사용자 인터페이스와 Amazon Bedrock 서비스 간의 원활한 통신을 보장하기 위해 두 시스템의 내부 작동 방식을 심층적으로 분석해야 했습니다. Proto의 기술팀은 Amazon Bedrock API를 사용하여 코드를 빠르게 리팩터링할 수 있었고, Claude의 특정 프롬프트 형식 지정 기술을 사용하여 아바타 응답의 품질을 높였습니다.

마이그레이션은 모델의 응답을 제어하기 위해 파라미터를 조정하는 추론 파라미터 사용자 지정에 대한 Proto의 접근 방식이 중추적으로 바뀌었다는 신호였습니다. 이 프로세스에는 Amazon Bedrock의 API 기능을 포괄적으로 사용했으며, 팀은 광범위한 구성 옵션을 활용하여 응답 생성을 미세 조정했습니다. 여기에는 온도 및 상위 K 설정이 포함되었습니다.

온도를 더 잘 다루면 창의성과 충실도를 더 잘 제어할 수 있습니다. 의료 회사에서 의료 정보를 제공하는 데 사용하는 것과 같은 정보용 AI 아바타의 경우 Proto는 정확성과 관련성을 우선시하여 더 낮은 온도 설정을 선택할 수 있습니다. 이러한 방식으로 온도를 조절할 수 있다는 것은 Proto가 다양한 종류의 AI 아바타를 배포하는 다양한 고객의 요구를 충족하기 위해 보다 미묘한 차이가 있는 접근 방식을 취할 수 있다는 것을 의미합니다. 중요한 것은 Amazon Bedrock이 사용자에게 요구되는 기술적 부담을 줄여주기 때문에 팀이 과거보다 훨씬 빠르고 쉽게 이 작업을 수행할 수 있다는 것입니다.

Proto는 또한 상위 K 설정을 제어할 때 보정 프로세스를 더 정밀하게 수행할 수 있습니다. 온도와 마찬가지로 상위 K 설정도 모델 응답을 제한하거나 영향을 주도록 조정할 수 있는 추론 파라미터의 또 다른 범주입니다.

상위 K는 모델이 시퀀스의 다음 토큰에 대해 고려할 가능성이 가장 높은 옵션의 수입니다. 이는 문장의 다음 단어일 수 있습니다. 따라서 텍스트 생성을 제어하고 텍스트의 일관성과 정확성을 보장하기 위해서는 상위 K 설정이 매우 중요합니다. 값을 낮추면 모델이 선택할 수 있는 옵션 풀의 크기가 가장 가능성이 높은 옵션까지 줄어듭니다. 이는 기술 문서와 같이 보다 예측 가능하고 집중적인 출력에 사용될 수 있습니다. 값이 클수록 이 풀의 크기가 커지므로 모델이 가능성이 낮은 옵션을 고려할 수 있습니다. 이는 서술의 풍부함과 예측 불가능성을 높이기 위해 다양한 단어를 선택하는 것이 바람직한 창의적인 스토리텔링에 사용될 수 있습니다.

Proto는 이 기능을 활용하여 사용 사례에 따라 다양한 AI 아바타의 출력을 신중하게 사용자 정의하여 성능과 품질을 최적화할 수 있었습니다.

마지막으로 Proto는 Claude의 프롬프트 엔지니어링 역량을 활용했습니다. 팀은 파라미터 튜닝을 위한 일련의 모범 사례를 개발하여 AI의 응답성과 관련성을 향상시켰습니다. 이러한 맞춤형 접근 방식은 기본 AI 모델의 기능 및 제약 조건을 이해하는 것이 중요하다는 것을 보여줍니다. 이를 통해 개발자는 배포 중인 AI 아바타의 특정 요건, 대상 및 요구 사항을 충족하기 위해 기술을 충분히 활용할 수 있습니다.

수준 높은 아키텍처 구현

Proto는 Amazon Bedrock을 사용하여 AI 아바타가 사용자 쿼리에 응답하는 방식을 개선할 수 있었습니다. 아키텍처는 사용자가 질문하는 것으로 시작하여 Amazon Bedrock으로 전달됩니다. RAG 프로세스는 실시간 사용자 입력을 Proto의 독점 데이터 및 외부 데이터 리포지토리에서 얻은 심층 인사이트와 병합합니다. 이를 통해 정확하고 관련성이 높은 프롬프트를 생성할 수 있어 질문한 사용자를 위한 맞춤형 대화를 할 수 있습니다.

Proto는 임베딩의 청크 크기를 선택할 수 있어 AI 아바타가 제공하는 응답에 정보를 더 많이 또는 더 적게 사용할 수 있었습니다. 개인 비서와 같은 애플리케이션에는 작은 임베딩이 가장 적합하므로 프롬프트에 많은 메모리를 추가할 수 있습니다. 반면, 정보가 여기저기 흩어지지 않도록 문서를 분리할 때는 임베딩이 클수록 더 유용합니다.

프롬프트가 증강되면 Claude를 비롯한 다양한 고급 AI 모델에 의해 처리됩니다. 각 Proto 애플리케이션 내에서 고유한 아바타 ID가 이러한 쿼리를 전달하므로 적절한 데이터베이스를 참조하여 상황에 맞게 정확한 응답을 할 수 있습니다.

그런 다음 응답이 Amazon Polly로 전송되어 아바타가 말하는 각 단어가 입모양에 정확하게 맞도록 시각적으로 표현될 뿐만 아니라 빠른 속도로 전달되어 시각적으로나 대화식으로 원활하게 응답할 수 있습니다. AI 아바타는 사용자와 대화할 때 더 사람처럼 보이고 대화는 최대한 실시간에 가깝게 진행됩니다.

결론

마이그레이션의 결과로 Proto는 이제 최첨단 생성형 AI 도구를 사용하여 고객에게 가장 혁신적인 생성형 AI 애플리케이션을 제공하고 있습니다. 완전관리형 서비스인 Amazon Bedrock으로 전환하면서 Proto 팀은 여러 파운데이션 모델을 지원하기 위해 솔루션을 다시 설계하는 데 시간을 허비할 필요가 없었습니다. 이제 팀은 최종 사용자의 요구에 맞게 제품을 구축, 확장 및 최적화하여 결과적으로 스타트업을 성장시키는 일과 같은 중요한 일에 집중할 수 있게 되었습니다.

이러한 제품의 최적화는 이미 명확합니다. Proto는 관리형 마이그레이션의 일환으로 API 재구성에 집중함으로써 아바타의 기능을 향상시켜 아바타가 대화형 AI 기술의 최전선에 설 수 있도록 했습니다. 이를 다양한 부문에 맞게 조정하고 속도를 높임으로써 Proto는 광범위한 고객 기반에 더 나은 서비스를 제공하고 경쟁력 있는 속도로 여러 산업으로 범위를 확장할 수 있습니다.

워크로드와 애플리케이션을 AWS로 마이그레이션하는 것은 시작에 불과합니다. Proto는 한 단계 더 나아가 AWS의 생성형 AI 기능을 조정하고 활용했습니다. 이제 이 분야의 리더들이 제공하는 도구를 손보는 것부터 고객에게 의미 있는 참여를 이끌어내는 기술을 배포하는 것까지, 워크플로 전반에 이러한 기능을 사용하고 있습니다.

AWS로 마이그레이션하면서 팀의 (기술적) 부담을 줄이고 창의적 역량을 확장했으며 보안, 개인정보 보호 및 책임 있는 AI가 적용된 자체 생성형 AI 애플리케이션을 더 쉽게 구축, 확장 및 배포할 수 있게 되었습니다. 생성형 AI로 여정을 시작하려는 스타트업이든, 현재 워크플로와 제품을 최적화하고 개선하려는 기업이든, AWS Migration Acceleration Program을 통해 옵션을 탐색하고 Amazon Bedrock이 어떻게 도움이 되는지 자세히 알아볼 수 있습니다.

Shaun Wang 및 Tony Gabriel Silva 작성

Aymen Saidi

Aymen Saidi

Aymen is a Principal Solutions Architect in the AWS EC2 team, where he specializes in cloud transformation, service automation, network analytics, and 5G architecture. He’s passionate about developing new capabilities for customers to help them be at the forefront of emerging technologies. In particular, Aymen enjoys exploring applications of AI/ML to drive greater automation, efficiency, and insights. By leveraging AWS's AI/ML services, he works with customers on innovative solutions that utilize these advanced techniques to transform their network and business operations.

Hrushikesh Gangur

Hrushikesh Gangur

Hrushikesh Gangur는 AWS 기계 학습과 네트워킹 서비스 모두에 대한 전문 지식을 갖춘, AI/ML Startups를 위한 수석 솔루션스 아키텍트입니다. 그는 생성형 AI, 자율 주행 자동차 및 ML 플랫폼을 구축하는 Startups가 AWS에서 효율적이고 효과적으로 비즈니스를 운영할 수 있도록 지원합니다.

Nolan Cassidy

Nolan Cassidy

Nolan Cassidy is the Lead R & D Engineer at Proto Hologram, specializing in holographic spatial technology. His pioneering work integrates AI and advanced communication systems to develop low-latency, highly interactive experiences, enabling users to feel present in one location while physically being in another.

이 콘텐츠는 어떠셨나요?