Amazon Web Services 한국 블로그

AWS 기반 생성 AI를 위한 새로운 도구 발표 – Amazon Bedrock, Titan 기반 모델 미리보기 및 EC2 Trn1n, Inf2 인스턴스, CodeWhisperer 정식 출시

기계 학습(Machine Learning) 패러다임 전환의 씨앗은 수십 년 동안 존재해 왔지만, 확장 가능한 컴퓨팅 용량의 가용성과 데이터의 대량 확산, 그리고 ML 기술의 급속한 발전으로 업계 전반의 고객이 비즈니스를 변화시키고 있습니다. 최근에 ChatGPT와 같은 생성 AI(Generative AI) 애플리케이션이 광범위한 관심과 상상력을 사로잡았습니다. 우리는 진정으로 ML의 광범위한 채택에서 흥미로운 변곡점에 있으며 대부분의 고객 경험과 애플리케이션이 생성 AI로 재창조될 것이라고 믿습니다.

인공 지능(AI)와 ML은 20년 넘게 Amazon의 주력 분야였으며, 현재 고객이 사용하는 많은 기능은 ML을 기반으로 합니다. 저희의 전자상거래 추천 엔진은 ML에 의해 구동됩니다. 또한, 주문 처리 센터에서 로봇 피킹 경로를 최적화하는 경로는 ML에 의해 구동됩니다. 물류 공급망, 예측 및 용량 계획은 ML에 의해 만들어집니다. Amazon Prime Air (무인 운송 드론) 및 Amazon Go (계산대 없는 상점)의 컴퓨터 비전 기술은 딥 러닝(Deep Learning)을 사용합니다. 30개 이상의 서로 다른 ML 시스템으로 구동되는 Alexa는 매주 수십억 번 고객이 스마트 홈을 관리하고, 쇼핑하고, 정보 및 엔터테인먼트를 얻는 등의 작업을 수행하도록 돕습니다. Amazon에는 ML에 전념하는 수천 명의 엔지니어가 있으며 이는 우리의 유산, 현재 정신 및 미래의 큰 부분입니다.

AWS에서 우리는 ML을 민주화하고 모든 규모와 산업의 수십만 이상의 고객을 포함하여 모든 사람이 ML에 액세스할 수 있도록 하는 데 중요한 역할을 했습니다. AWS는 세 가지 계층 모두에서 가장 광범위하고 심층적인 AI 및 ML 서비스 포트폴리오를 보유하고 있습니다. 우리는 비용 효율적인 ML 훈련 및 추론을 위한 가장 성능이 뛰어나고 확장 가능한 인프라를 제공하기 위해 투자하고 혁신했습니다.

모든 개발자가 모델을 구축, 교육 및 배포하는 가장 쉬운 방법인 Amazon SageMaker를 개발했습니다. AWS 고객은 간단한 API 호출로 애플리케이션에 이미지 인식, 예측 및 지능형 검색과 같은 AI 기능을 추가할 수 있는 다양한 서비스를 출시했습니다. 이것이 바로 Intuit, Thomson Reuters, AstraZeneca, Ferrari, Bundesliga, 3M, BMW와 같은 고객과 전 세계 수천 개의 신생 기업 및 정부 기관이 ML을 통해 자신, 산업 및 임무를 혁신하고 있는 이유입니다.

우리는 생성 AI에 대해 동일한 민주화 접근 방식을 취합니다. 우리는 생성 AI 기술 연구 및 실험 영역에서 제외하고, 소수의 스타트업과 자금이 풍부한 대규모 기술 회사를 훨씬 넘어 가용성을 확장하기 위해 노력합니다. 그렇기 때문에 오늘 고객이 비즈니스에서 제너레이티브 AI를 쉽고 실용적으로 사용할 수 있도록 하는 몇 가지 새로운 혁신을 발표하게 되었습니다.

AWS에서 제너레이티브 AI로 구축

생성 AI 및 기반 모델

생성 AI는 대화, 스토리, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 생성할 수 있는 AI 유형입니다. 모든 AI와 마찬가지로 생성 AI는 방대한 양의 데이터에 대해 사전 훈련되고 일반적으로 기반 모델(Foundation Model)이라고 하는 거대 ML 모델에 의해 구동됩니다. 최근 ML의 발전, 특히 변환기(Transformer) 기반 신경망 아키텍처의 발명으로 인해 수십억 개의 매개변수 또는 변수를 포함하는 모델이 등장했습니다.

이러한 규모의 변화에 ​​대한 감각을 제공하기 위해 2019년에 가장 큰 사전 훈련된 모델은 330M 매개변수였습니다. 이제 가장 큰 모델은 500B 이상의 매개변수로 불과 몇 년 만에 크기가 1,600배 증가했습니다. 대규모 언어 모델(Large Language Model, LLM)인 GPT3.5 또는 BLOOM과 Stability AI의 텍스트-이미지 모델 Stable Diffusion과 같은 오늘날의 기반 모델은 게시물 작성, 이미지, 수학 문제 풀기, 대화 참여, 문서를 기반으로 한 질문에 답하기. 기반 모델의 크기와 범용성으로 인해 일반적으로 감정에 대한 텍스트 분석, 이미지 분류 및 추세 예측과 같은 특정 작업을 수행하는 기존 ML 모델과 다릅니다.

기반 모델은 복잡한 개념을 학습할 수 있는 많은 매개변수를 포함하고 있기 때문에 훨씬 더 많은 작업을 수행할 수 있습니다. 그리고 모든 다양한 형태와 무수한 패턴의 인터넷 규모 데이터에 대한 사전 훈련을 통해 기반 모델은 광범위한 맥락에서 지식을 적용하는 방법을 학습합니다. 사전 훈련된 기반 모델의 기능과 그로 인한 가능성은 놀랍지만, 고객들이 이러한 일반적으로 가능한 모델을 커스터마이징하여 비즈니스를 차별화하는 도메인별 기능을 수행할 수 있다는 점은 놀랍습니다. 맞춤형 기반 모델은 은행, 여행 및 의료와 같은 다양한 소비자 산업에 걸쳐 회사의 목소리, 스타일 및 서비스를 구현하는 고유한 고객 경험을 생성할 수 있습니다. 예를 들어, 모든 관련 거래를 사용하여 내부 순환을 위해 일일 활동 보고서를 자동 생성해야 하는 금융 회사는 과거 보고서를 포함하는 독점 데이터로 모델을 사용자 정의할 수 있습니다. 이러한 맞춤형 기반 모델은 기존 보고서를 어떻게 읽고 무엇을 읽어야 하는지 학습하고, 새로운 보고서와 데이터를 생성하는 데 사용할 수 있습니다.

최근 기반 모델의 잠재력은 놀라울 정도로 흥미진진합니다. 그러나 우리는 아직 초기 단계에 있습니다. ChatGPT는 고객의 관심을 끌 수 있는 최초의 광범위한 생성 AI 사용자 서비스이었지만, 생성 AI를 연구하는 대부분의 사람들은 여러 회사가 수년간 기반 모델 작업을 해왔고 사용할 수 있는 여러 기반 모델이 있다는 사실을 알고 있습니다. 빠르게 움직이는 인공 지능 기술과 ML의 진화에서 수년 동안 보아왔듯이 상황은 빠르게 변화합니다. AWS는 미래에 새로운 아키텍처가 등장할 것으로 기대하며 이러한 기반 모델의 다양성은 혁신의 물결을 일으킬 것입니다. 우리는 이미 이전에는 볼 수 없었던 새로운 애플리케이션 경험을 보고 있습니다. AWS 고객은 현재 존재하는 것과 미래에 제공될 가능성이 있는 것을 신속하게 활용하여, 비즈니스 및 조직 내에서 기반 모델 및 생성 AI를 신속하게 사용하여 새로운 수준의 생산성을 촉진하고 제품을 혁신할 수 있게 해달라는 피드백을 계속 주셨습니다.

Amazon Bedrock 및 Amazon Titan 모델 발표

우선 AWS 고객들은 현재 생성 AI를 구축하는데 몇 가지 큰 문제가 있다고 말했습니다. 첫째, 뛰어난 결과를 제공하고 목적에 가장 적합한 고성능 기반 모델을 찾고 접근할 수 있는 간단한 방법이 필요합니다. 둘째, AWS 고객은 대규모 인프라 클러스터를 관리하거나 큰 비용을 들이지 않고도 애플리케이션에 원활하게 통합되기를 원합니다. 마지막으로 고객은 기반 모델을 쉽게 사용하고 자신의 데이터 양과 관계 없이 차별화된 생성 AI 애플리케이션을 구축하기를 원합니다. 고객이 맞춤형으로 사용하려는 데이터는 매우 귀중한 지적 자산이므로 해당 프로세스 동안 완전히 보호되고 보안이 유지되고 비공개로 유지되어야 하며 데이터 공유 및 사용 방법을 제어하기를 원하고 있습니다.

Amazon Bedrock은 AI21 Labs, Anthropic, Stability AI 및 Amazon이 제공하는 기반 모델에 접근할 수 있는 새로운 서비스 입니다. Amazon Bedrock은 고객이 기반 모델을 사용하여 생성 AI 기반 애플리케이션을 구축 및 확장할 수 있는 가장 쉬운 방법을 제공하고, 텍스트 및 이미지를 위한 다양한 강력한 기반 모델을 사용할 수 있는 기능을 제공합니다.

Amazon Titan은 Bedrock에서 사용할 수 있는 두개의 새로운 거대 언어 모델(LLM)로서 Bedrock의 서버리스 경험을 통해 고객은 수행하려는 작업에 적합한 모델을 쉽게 찾고, 신속하게 시작하고, 자체 데이터로 기반 모델을 비공개로 사용자 지정하고, AWS 도구 및 기능을 사용하여 애플리케이션에 쉽게 통합 및 배포할 수 있습니다.

이제 생성 AI을 위한 인프라를 관리할 필요 없이 다른 모델을 테스트하기 위한 실험 및 기반 모델을 대규모로 관리하기 위한 파이프라인과 같은 Amazon SageMaker ML 기능과 통합됩니다.

Bedrock 고객은 현재 사용 가능한 가장 최첨단 기반 모델 중 일부를 선택할 수 있습니다. 여기에는 스페인어, 프랑스어, 독일어, 포르투갈어, 이탈리아어 및 네덜란드어로 텍스트를 생성하기 위해 자연어 생성을 지원하는 AI21 Labs의 Jurassic-2 다국어 LLM 제품군이 포함됩니다. Anthropic의 LLM인 Claude는 다양한 대화 및 텍스트 처리 작업을 수행할 수 있으며 정직하고 책임감 있는 AI 시스템 교육에 대한 Anthropic의 광범위한 연구를 기반으로 합니다. 또한 Bedrock은 독특하고 사실적인 고품질 이미지, 예술, 로고 및 디자인 등도 생성할 수 있습니다.

Bedrock의 가장 중요한 기능 중 하나는 맞춤형 모델을  쉽게 만드는 것입니다. AWS 고객은 Amazon S3에서 레이블이 지정된 몇 가지 데이터를 Bedrock에 가리키기만 하면 서비스가 대량의 데이터에 주석을 달지 않고도 특정 작업에 대한 모델을 미세 조정할 수 있습니다(20개 미만의 데이터면 충분함).

예를 들어, 선도적인 패션 소매업체에서 근무하는 콘텐츠 마케팅 관리자가 곧 출시될 새로운 핸드백 라인을 위한 신선하고 타겟팅된 광고 및 캠페인 카피를 개발해야 한다고 상상해 보십시오. 이를 위해 Bedrock에 관련 제품 설명과 함께 과거 캠페인에서 가장 실적이 좋은 태그 라인의 몇 가지 레이블이 지정된 예를 제공하면, 새 핸드백에 대한 효과적인 소셜 미디어, 디스플레이 광고 및 웹 카피를 자동으로 생성할 수 있습니다.

AWS 고객의 데이터는 기반 모델을 훈련하는 데 절대로 사용되지 않으며 모든 데이터가 암호화되고 고객의 Virtual Private Cloud (VPC)를 떠나지 않기 때문에 고객은 데이터가 비공개 및 기밀로 유지된다는 것을 신뢰할 수 있습니다.

Bedrock은 현재 제한된 미리 보기 상태이지만, 이미 몇몇 고객이 함께 테스트를 하고 있습니다. 예를 들어, Coda의 공동 창립자이자 CEO인 Shishir Mehrotra는 다음과 같이 이야기하였습니다.

오랫동안 AWS 고객으로서 Amazon Bedrock이 어떻게 Coda AI에 품질, 확장성 및 성능을 제공할 수 있는지에 대해 기쁘게 생각합니다. 모든 데이터가 이미 AWS에 있으므로 Bedrock을 사용하여 제너레이티브 AI를 신속하게 통합할 수 있으며 데이터 내장을 보호하는 데 필요한 모든 보안 및 개인 정보 보호 기능을 제공합니다. Uber, New York Times, Square와 같은 대규모 팀을 포함하여 수만 개가 넘는 팀이 Coda에서 실행되고 있으므로 안정성과 확장성이 정말 중요합니다.

우리는 앞으로 몇 달 안에 더 광범위하게  본 서비스를 사용할 수 있게 하기 전에 몇몇 고객과 함께 두개의 Amazon Titan 모델을 미리 테스트 하였습니다. 첫째는 텍스트 요약 및 생성(예: 블로그 게시물 작성), 분류, 개방형 Q&A 및 정보 추출과 같은 작업을 위한 생성 언어 모델입니다. 두 번째는 텍스트 입력(단어, 구문 또는 가능한 큰 텍스트 단위)과 텍스트의 의미론적 의미를 포함하는 숫자 표현(임베딩이라고 함)으로 변환하는 임베딩 언어 모델입니다. 이 LLM은 텍스트를 생성하지 않지만 임베딩을 비교하여 모델이 단어 일치보다 더 관련성 있고 상황에 맞는 응답을 생성할 수 있기 때문에 개인화 및 검색과 같은 애플리케이션에 유용합니다.

실제로 Amazon.com의 제품 검색 기능은 다른 제품 중에서 유사한 임베딩 모델을 사용하여 고객이 원하는 제품을 찾을 수 있도록 도와줍니다. 책임 있는 AI 사용에 대한 모범 사례를 계속 지원하기 위해 Titan 기반 모델은 고객이 제공하는 데이터에서 (증오심 표현, 욕설, 폭력 등) 유해한 콘텐츠를 탐지 및 제거하고, 사용자 입력에서 부적절한 콘텐츠를 거부하고, 부적절한 콘텐츠가 포함된 모델의 출력을 필터링하도록 구축되었습니다.

Bedrock은 모든 규모의 회사에서 기반 모델의 기능에 접근할 수 있도록 하여 모든 개발자가 쉽게 사용할 수 있으므로, 기업 조직 전체에서 ML 사용을 가속화하고 자체 생성 AI 애플리케이션을 구축할 수 있습니다. 우리는 Bedrock이 기반 모델을 민주화하는 데 큰 진전이 될 것이라고 생각하며 Accenture, Deloitte, Infosys 및 Slalom 과 같은 파트너들이 생성 AI로 더 빨리 도달할 수 있도록 지원하는 방식을 구축하고 있습니다. 및 Pega 와 같은 ISV(독립 소프트웨어 공급업체)는 C3 AI Bedrock을 활용하여 AWS에서 기대하는 모든 보안, 개인 정보 보호 및 안정성을 갖춘 다양한 FM에 쉽게 액세스할 수 있게 되어 기쁩니다.

Amazon EC2 Trn1n 및 Inf2 인스턴스 정식 출시

AWS 고객이 기반 모델로 무엇을 하려고 하든지 ML을 위해 특별히 구축된 가장 성능이 뛰어나고 비용 효율적인 인프라가 필요합니다. 지난 5년 동안 AWS는 ML 훈련 및 추론과 같은 까다로운 워크로드를 위한 성능 및 가격 대비 성능의 한계를 뛰어넘기 위해 자체 맞춤형 실리콘 개발에 투자해 왔으며 AWS Trainium 및 AWS Inferentia 칩은 모델 교육 및 추론 실행에 가장 저렴한 비용을 제공합니다. 클라우드에서 최적의 ML 인프라를 선택하여 성능을 극대화하고 비용을 제어할 수 있기 때문에, AI21 Labs, Anthropic, Cohere, Grammarly, Hugging Face, Runway 및 Stability AI와 같은 선도적인 AI 스타트업이 AWS를 선택하고 있습니다.

AWS Trainium으로 구동되는 Trn1 인스턴스는 다른 모든 EC2 인스턴스에 비해 모델 훈련 비용을 최대 50% 절감할 수 있으며 800Gbps의 2세대 EFA (Elastic Fabric Adapter) 네트워킹으로 연결된 여러 서버에 모델 훈련을 배포하도록 최적화되어 있습니다. AWS 고객은 페타비트 규모의 네트워킹을 통해 동일한 AWS 가용 영역에 위치한 최대 30,000개의 Trainium 칩(컴퓨팅의 6엑사플롭 이상)까지 확장할 수 있는 UltraClusters에 Trn1 인스턴스를 배포할 수 있습니다. Helixon, Money Forward 및 Amazon Search 팀을 비롯한 많은 AWS 고객은 Amazon EC2 Trn1 인스턴스를 사용하여 최대 규모의 딥 러닝 모델을 훈련하는 데 필요한 시간을 몇 달에서 몇 주 또는 며칠로 줄이는 동시에 비용을 절감합니다. 기존의 800Gbps는 많은 대역폭이지만 우리는 더 많은 것을 제공하기 위해 지속적으로 혁신해 왔습니다.

Amazon EC2 Trn1n 인스턴스를 정식 출시 합니다. 이제 1600Gbps의 네트워크 대역폭을 제공하고 20% 더 높은 대역폭을 제공하도록 설계된 네트워크에 대규모 모델 훈련이가능합니다.

현재 기반 모델에 사용되는 대부분의 시간과 비용은 모델 훈련에 사용됩니다. 이는 많은 고객이 이제 막 기반 모델을 프로덕션에 배포하기 시작했기 때문입니다. 그러나 미래에 기반 모델이 대규모로 배포되면 대부분의 비용은 모델 실행 및 추론 수행과 관련될 것입니다. 일반적으로 모델을 주기적으로 훈련하는 동안 프로덕션 애플리케이션은 추론이라고 하는 예측을 지속적으로 생성하여 잠재적으로 시간당 수백만을 생성할 수 있습니다. 그리고 이러한 예측은 실시간으로 이루어져야 하며, 이를 위해서는 매우 짧은 대기 시간과 높은 처리량의 네트워킹이 필요합니다. Amazon Alexa는 모든 컴퓨팅 비용의 40%를 차지하는 매분 수백만 건의 요청이 들어오는 좋은 예입니다.

우리는 미래의 ML 비용의 대부분이 추론 실행에서 나온다는 것을 알고 있었기 때문에 몇 년 전 새로운 칩에 투자하기 시작했을 때 추론에 최적화된 맞춤형 실리콘을 우선 개발했습니다. 2018년에 우리는 추론을 위해 특별히 제작된 최초의 칩인 AWS Inferentia를 발표했습니다. 매년 Inferentia는 Amazon이 수조 건의 추론을 실행하도록 돕고 Amazon과 같은 회사는 이미 1억 달러 이상의 자본 비용을 절감했습니다. 그 결과는 인상적이며 더 많은 고객이 제너레이티브 AI를 애플리케이션에 통합함에 따라 워크로드의 크기와 복잡성만 증가하므로 혁신을 계속할 수 있는 많은 기회를 볼 수 있습니다.

AWS Inferentia 2 칩셋을 기반한 Amazon EC2 Inf2 인스턴스를 정식 출시합니다. 수천억 개의 매개변수가 포함된 기반 모델을 사용하는 대규모 생성 AI 애플리케이션에 최적화되어 있습니다.

EC2 Inf2 인스턴스는 이전 세대 Inferentia 기반 인스턴스에 비해 최대 4배 높은 처리량과 최대 10배 낮은 지연 시간을 제공합니다. 또한 대규모 분산 추론을 지원하기 위해 가속기 간에 초고속 연결성을 갖추고 있습니다. 이러한 기능은 다른 유사 Amazon EC2 인스턴스보다 최대 40% 더 나은 추론 가격 성능을 제공하고 클라우드에서 가장 낮은 추론 비용을 제공합니다. Runway와 같은 고객은 Inf2를 사용하여 일부 모델에서 비슷한 Amazon EC2 인스턴스보다 최대 2배 더 높은 처리량을 경험하고 있습니다. 이 고성능 저비용 추론을 통해 Runway는 더 많은 기능을 도입하고 더 복잡한 모델을 배포하며 궁극적으로 Runway를 사용하는 수백만 명의 크리에이터에게 더 나은 경험을 제공할 수 있습니다.

Amazon CodeWhisperer 정식 출시

최적의 기반모델을 구축하고 가장 성능이 뛰어난 클라우드 인프라에서 대규모로 생성 AI 애플리케이션을 실행하는 것이 모든 고객에게 혁신이 될 것입니다. 새로운 경험과 새로운 물결은 사용자에게도 변화를 가져올 것입니다. 생성 AI를 통해 사용자는 애플리케이션 및 시스템과 보다 자연스럽고 원활한 상호 작용을 할 수 있습니다. 이를 가능하게 하는 강력한 ML 모델에 대해 굳이 알 필요 없이 손쉽게 사용하는 것도 필요합니다.

생성 AI의 사용이 빠르게 증가할 것으로 예상되는 한 분야는 프로그래밍 영역입니다. 오늘날 소프트웨어 개발자는 매우 간단하고 차별화되지 않은 코드를 작성하는 데 상당한 시간을 할애합니다. 그들은 또한 복잡하고 끊임없이 변화하는 도구와 기술 환경을 따라잡기 위해 많은 시간을 보냅니다. 이 모든 것이 개발자가 새롭고 혁신적인 기능과 서비스를 개발할 시간을 줄여줍니다. 개발자는 웹에서 코드 스니펫을 복사 및 수정하여 이를 극복하려고 합니다. 이로 인해 작동하지 않는 코드, 보안 취약점이 포함된 코드 또는 오픈 소스 소프트웨어의 사용을 추적하지 않는 코드가 실수로 복사될 수 있습니다. 그리고 궁극적으로 검색 및 복사는 좋은 자료에서 여전히 시간을 빼앗아 갑니다.

생성 AI는 차별화되지 않은 프로그램 코드의 대부분을 “작성”해 주는 작업을 수행할 수 있으므로, 개발자는 코딩의 보다 창의적인 측면에 집중할 수 있도록 할 수 있습니다. 그렇기 때문에 작년에 우리는 Amazon CodeWhisperer라는 소프트웨어 개발을 도와주는 생성 AI 서비스를 미리보기로 출시하였습니다. 기반 모델 사용하여 자연어 및 이전 코드에 대한 개발자의 의견을 기반으로 실시간으로 코드 제안을 생성함으로써 개발자 생산성을 크게 향상시키는 AI 코딩 동반자입니다.

CodeWhisperer를 사용하면, 통합 개발 환경(IDE)에서 개발자가 “CSV 가반의 음악 곡명 문자열 구문 분석”과 같은 작업을 수행하도록 지시하고 아티스트, 제목 및 최고 차트 순위와 같은 값을 기반으로 구조화된 목록을 반환하도록 요청할 수 있습니다. CodeWhisperer는 문자열을 구문 분석하고 지정된 대로 목록을 반환하는 전체 함수를 생성하여 생산성 향상을 제공합니다. 지난 미리 보기 기간 동안 개발자의 반응은 압도적으로 긍정적이었고 우리는 개발자의 코드 작성을 돕는 것이 결국 우리가 앞으로 보게 될 가장 강력한 생성 AI 사용 중 하나가 될 수 있다고 계속 믿고 있습니다.  미리 보기 기간 동안 우리는 개발자 생산성 콘테스트를 실행했으며 CodeWhisperer를 사용한 참가자는 CodeWhisperer를 사용하지 않은 참가자보다 평균 57% 더 빠르게 작업을 완료했으며 성공적으로 완료할 가능성이 27% 더 높았습니다. 이것은 개발자 생산성의 큰 도약이며 우리는 이것이 단지 시작일 뿐이라고 믿습니다.

오늘 Amazon CodeWhisperer를 정식 출시합니다. 기존의 Python, Java, JavaScript, TypeScript 및 C#과 함께 Go, Kotlin, Rust, PHP 및 SQL을 포함한 10개의 새로운 언어를 확대하고, AWS 가입 여부와 관계없이 모든 개인 사용자에게 무료로 제공합니다.

CodeWhisperer는 VS Code, IntelliJ IDEA, AWS Cloud9 등과 같은 IDE에서 AWS Toolkit IDE 확장을 통해 액세스할 수 있습니다. CodeWhisperer는 AWS Lambda 콘솔에서도 사용할 수 있습니다. 공개적으로 사용 가능한 수십억 줄의 프로그램 코드에서 학습하는 것 외에도 CodeWhisperer는 Amazon 내부의 AWS 활용을 위한 다양한 소스코드를 학습했습니다. 이제 CodeWhisperer가 Amazon EC2, AWS Lambda 및 Amazon S3를 비롯한 AWS 서비스용 코드를 생성하는 가장 정확하고 빠르고 안전한 방법이라고 생각합니다.

생성 AI 도구가 제안한 코드에 숨겨진 보안 취약성이 포함되어 있거나 책임감 있게 오픈 소스를 처리하지 못하는 경우 개발자는 진정으로 생산성을 높일 수 없습니다. CodeWhisperer는 상위 10위 OWASP (Open Worldwide Application Security Project)에 포함된 취약점과 같이 감지하기 어려운 취약점에 대한 해결 방법을 찾고 제안하기 위해 보안 스캐닝(자동 추론 기반)이 내장된 유일한 AI 코딩 동반자입니다. 개발자가 책임감 있게 코딩할 수 있도록 CodeWhisperer는 편향되거나 불공정하다고 간주될 수 있는 코드 제안을 필터링하고 CodeWhisperer는 고객이 참조하거나 사용을 위해 라이선스를 원할 수 있는 오픈 소스 코드와 유사한 코드 제안을 필터링하고 플래그를 지정할 수 있는 유일한 코딩 동반자입니다.

우리는 생성 AI가 개발자를 위해 판도를 바꿀 것이라는 것을 알고 있으며 가능한 한 많은 사람들에게 유용하기를 바랍니다. 이것이 CodeWhisperer가 코드 생성에 대한 자격이나 시간 제한 없이 모든 개인 사용자에게 무료인 이유입니다! 누구나 이메일 계정으로 CodeWhisperer에 가입하고 몇 분 안에 생산성을 높일 수 있습니다. AWS 계정이 없어도 됩니다. 비즈니스 사용자를 위해 AWS Identity and Access Management (IAM) 통합을 통한 SSO (Single Sign-On)와 같은 관리 기능과 더 높은 보안 검색 제한을 포함하는 CodeWhisperer Professional Tier를 제공하고 있습니다.

CodeWhisperer와 같은 강력한 애플리케이션을 구축하는 것은 개발자와 모든 고객에게 혁신적인 일이 될 것니다. 앞으로도 더 많은 기능이 제공될 예정이며 AWS에서 생성 AI를 사용하여 고객들이 무엇을 구축하게 될지 매우 기대됩니다. 우리의 임무는 모든 기술 수준의 개발자와 모든 규모의 조직이 생성 AI를 사용하여 혁신할 수 있도록 하는 것입니다. 이것은 새로운 가능성을 제공하는 ML의 다음 물결이 될 것이라고 믿고있습니다.

학습 자원

AWS의 생성 AI 및 이러한 발표에 대해 자세히 알아보려면 다음 리소스를 확인하십시오.

– Swami Sivasubramanian, VP of Amazon AI

이 글은 AWS Machine Learning Blog에 게재된 Announcing New Tools for Building with Generative AI on AWS의 한국어 번역본입니다.