AWS Türkçe Blog

AWS’te Üretken Yapay Zeka ile Geliştirmeye Yönelik Yeni Araçlar Duyuruyoruz

Orijinal makale: Link (Swami Sivasubramanian)

Makine öğrenimi (ML) paradigma değişiminin tohumları onlarca yıldır mevcuttu, ancak ölçeklenebilir bilgi işlem kapasitesinin hazır olması, verilerin muazzam bir şekilde çoğalması ve ML teknolojilerinin hızla ilerlemesiyle, farklı sektörlerdeki müşteriler işlerini dönüştürüyor. Kısa bir süre önce ChatGPT gibi üretken yapay zeka uygulamaları geniş çapta ilgi ve hayal gücü oluşturdu. Makine öğreniminin yaygın olarak benimsenmesinde gerçekten heyacan verici bir dönüm noktasındayız ve çoğu müşteri deneyimi ve uygulamalarının üretken yapay zeka ile yeniden keşfedileceğine inanıyoruz.

Yapay zeka ve makine öğrenimi 20 yılı aşkın bir süredir Amazon’un oda noktası oldu ve müşterilerin Amazon ile kullandığı özelliklerin birçoğu makine öğrenimi ile yönlendiriliyor. E-ticaret öneri motorumuz makine öğrenimi tarafından yürütülür; sipariş karşılama merkezlerimizde robotik toplama rotalarını optimize eden yollar makine öğrenimi tarafından yönlendirilir; ve tedarik zincirimiz, tahminlemelerimiz ve kapasite planlamamız makine öğrenimi tarafından beslenir. Prime Air (dronlarımız) ve Amazon Go’daki bilgisayarla görme teknolojisi (tüketicilerin raftan ürünleri seçip kontrol ettirmek zorunda kalmadan mağazadan ayrılmalarına olanak tanıyan fiziksel perakende deneyimimiz) derin öğrenmeyi kullanıyor. 30’dan fazla farklı makine öğrenimi sistemiyle desteklenen Alexa, her hafta milyarlarca kez müşterilerin akıllı evleri yönetmesine, alışveriş yapmasına, bilgi ve eğlence servislerini alması ve daha fazlasına yardımcı oluyor. Amazon’da makine öğrenimine adamış binlerce mühendisimiz var ve bu, mirasımızın, mevcut değer yardımızın ve geleceğimizin büyük bir parçası.

AWS’te makine öğreniminin demokratikleştirilmesinde ve her büyüklükte ve sektördeki 100000’den fazla müşteri dahil olmak üzere makine öğrenimi kullanmak isteyen herkes için erişilebilir hale getirilmesinde kilit bir rol oynadık. AWS her üç uygulama katmanında da en geniş ve en derin yapay zeka ve makine öğrenimi hizmetleri portföyüne sahiptir. Uygun maliyetli makine öğrenimi eğitimi ve çıkarımı için en performanslı, ölçeklenebilir altyapıyı sunmak için yatırım ve inovasyon yaptık; tüm geliştiriciler için model oluşturma, eğitim ve devreye almanın en kolay yolu olan Amazon SageMaker’ı geliştirdik ve müşterilerin basit bir API çağrısıyla uygulamalara görüntü tanıma, tahminleme ve akıllı arama gibi yapay zeka yetenekleri eklemesine olanak tanıyan çok çeşitli hizmetler yayınladık. Bu nedenle Intuit, Thomson Reuters, AstraZeneca, Ferrari, Bundesliga, 3M ve BMW gibi müşterilerin yanı sıra dünya çapında binlerce startup ve devlet kurumu kendilerini, sektörlerini ve misyonlarını ML ile dönüştürüyor. Üretken yapay zeka için de aynı demokratikleştirici yaklaşımı benimsiyoruz: bu teknolojileri araştırma ve deney alanından çıkarmak ve kullanılabilirliklerini bir avuç startup ve büyük boyutlu, iyi finanse edilen teknoloji şirketlerinin çok daha ötesine genişletmek için çalışıyoruz. Bu nedenle bugün, müşterilerimizin iş alanlarında üretken yapay zeka kullanmasını kolay ve pratik hale getirecek birkaç yeni inovasyonu duyurmaktan heyecan duyuyorum.

Building with Generative AI on AWS

AWS’te Üretken Yapay Zeka ile Geliştirme

Üretken Yapay Zeka ve temel modeller

Üretken Yapay Zeka, konuşmalar, hikayeler, resimler, videolar ve müzik dahil olmak üzere yeni içerik ve fikirler oluşturabilen bir yapay zeka türüdür. Tüm yapay zeka türü gibi, üretken yapay zeka da makine öğrenimi modelleri (çok büyük miktarda veri ile önceden eğitilmiş ve genellikle Temel Modeller (Foundation Models – FM) olarak adlandırılan çok büyük modeller) tarafından desteklenir. Makine öğrenimindeki son gelişmeler (özellikle transformatör tabanlı sinir ağı mimarisinin icadı) milyarlarca parametre veya değişken içeren modellerin yükselişine yol açmıştır. Ölçekteki değişikliği anlamak için; 2019’daki en büyük önceden eğitilmiş model 330M parametreydi. Şimdi, en büyük modeller 500 milyardan fazla parametreden oluşuyor; bu yalnızca birkaç yıl içinde 1.600 katlık bir boyut artışı demek. Günümüzün FM’leri -GPT3.5 veya BLOOM gibi büyük dil modelleri ve Stability AI’a ait metinden görüntüye çevirim modeli olan Stable Diffusion- blog gönderileri yazma, görüntü oluşturma, matematik problemleri çözme, diyalog kurma ve bir dokümana dayalı soruları yanıtlama gibi birden çok alanı kapsayan çok çeşitli görevleri gerçekleştirebilir. FM’lerin boyutu ve genel amaçlı doğaları onları genel olarak duyarlılık için metin analize, görüntü sınıflandırma ve trend tahmini gibi belirli görevleri yerine getiren geleneksel makine öğrenimi modellerinden farklı kılar.

FM’ler karmaşık kavramları öğrenmelerini sağlayan çok sayıda parametre içerdikleri için çok daha fazla görevi gerçekleştirebilirler. FM’ler, çeşitli biçimlerde ve sayısız modelde internet ölçeğindeki verilere eğitim öncesi maruz kalmaları sayesinde, bilgilerini çok çeşitli bağlamlarda uygulamayı öğrenirler. Önceden eğitilmiş bir FM’nin yetenekleri ve sonuçta ortaya çıkan olasılıkların şaşırtıcı olmasının yanı sıra genel olarak yetenekli olan bu modeller, sıfırdan bir modeli eğitmek için gereken verilerin ve hesaplamanın yalnızca küçük bir kısmını kullanarak, müşterilerin iş alanları için farklılaştırıcı olan alana özgü işlevleri yerine getirmek üzere özelleştirilebilmesi nedeniyle müşterileri gerçekten heyacanlandırıyor. Özelleştirilmiş FM’ler, şirketin sesini, tarzını ve hizmetlerini bankacılık, seyahat ve sağlık gibi çok çeşitli tüketici sektörlerinde somutlaştırarak benzersiz bir müşteri deneyimi yaratabilir. Örneğin, ilgili tüm işlemleri kullanarak dahili dolaşım için otomatik olarak günlük bir faaliyet raporu oluşturması gereken bir finans şirketi, modeli geçmiş raporları da içerecek şekilde özel verilerle özelleştirebilir, böylece FM bu raporların nasıl okunması gerektiğini ve bunları oluşturmak için hangi verilerin kullanıldığını öğrenir.

FM’lerin potansiyeli inanılmaz derecede heyecan verici. Ancak, henüz çok erken günlerdeyiz. ChatGPT müşterilerin dikkatini çeken ilk geniş kapsamlı üretken yapay zeka deneyimi olsa da, üretken yapay zeka üzerine çalışan çoğu kişi, birçok şirketin yıllardır FM’ler üzerinde çalıştığını ve her biri benzersiz güçlere ve özelliklere sahip birkaç farklı FM’nin mevcut olduğunu kısa sürede fark etti. Yıllar içinde hızlı gelişen teknolojilerde ve makine öğreniminin evriminde gördüğümüz gibi, her şey hızla değişiyor. Gelecekte yeni mimarilerin ortaya çıkmasını bekliyoruz ve FM’lerdeki bu çeşitlilik bir inovasyon dalgası başlatacak. Şimdiden daha önce hiç görülmemiş yeni uygulama deneyimleri görüyoruz. AWS müşterileri bize bugün var olanlardan (ve muhtemelen yarın olacaklardan) nasıl hızlı bir şekilde yararlanabileceklerini ve yeni üretkenlik düzeyleri sağlamak ve sundukları olanakları dönüştürmek için işletmelerinde ve kuruluşlarında FM’leri ve üretken yapay zekayı nasıl hızlı bir şekilde kullanmaya başlayabileceklerini sordular.

FM’lerle üretken yapay zeka uygulamaları oluşturmanın ve ölçeklendirmenin en kolay yolu olan Amazon Bedrock ve Amazon Titan modellerini duyuruyoruz

Müşteriler bize bugün önlerinde birkaç büyük engel olduğunu söylediler. İlk olarak, olağanüstü sonuçlar veren ve amaçları için en uygun olan yüksek performanslı FM’leri bulmak ve bunlara erişmek için basit bir yola ihtiyaçları var. İkincisi, müşteriler büyük altyapı kümelerini yönetmek veya büyük maliyetlere katlanmak zorunda kalmadan uygulamalara entegrasyonun sorunsuz olmasını istiyor. Son olarak, müşteriler temel FM’i almanın ve kendi verilerini (az veri veya çok veri) kullanarak farklılaştırılmış uygulamalar oluşturmanın kolay olmasını istiyor. Müşterilerin özelleştirme için kullanmak istedikleri veriler son derece değerli fikri mülkiyet verileri olduğundan, bu süreç boyunca tamamen korunmaları, güvende ve gizli kalmaları gerekir ve verilerinin nasıl paylaşılacağı ve kullanılacağı üzerinde müşteriler kontrol sahibi olmak istiyor.

Müşterilerimizden gelen tüm bu geri bildirimleri dikkate aldık ve bugün AI21 Labs, Anthropic, Stability AI ve Amazon’un FM’lerini bir API aracılığıyla erişilebilir kılan yeni bir hizmet olan Amazon Bedrock‘u duyurmaktan heyecan duyuyoruz. Bedrock, müşterilerin FM’leri kullanarak üretken yapay zeka tabanlı uygulamalar oluşturması ve ölçeklendirmesi için en kolay yoldur ve tüm geliştiriciler için erişimi demokratikleştirir. Bedrock, bugün duyurduğumuz iki yeni LLM’den oluşan Amazon’un Titan FM‘leri de dahil olmak üzere metin ve görüntüler için bir dizi güçlü FM’e ölçeklenebilir, güvenilir ve güvenli bir AWS yönetilen hizmeti aracılığıyla erişme olanağı sunacak. Bedrock’un sunucusuz deneyimi sayesinde müşteriler, herhangi bir altyapıyı yönetmek zorunda kalmadan, yapmaya çalıştıkları şey için doğru modeli kolayca bulabilir, hızlı bir şekilde başlayabilir, FM’leri kendi verileriyle gizlilik içinde özelleştirebilir ve aşina oldukları AWS araçlarını ve yeteneklerini (farklı modelleri test etmek için Experiments ve FM’lerini geniş ölçekte yönetmek için Pipelines gibi Amazon SageMaker ML özellikleriyle entegrasyonlar dahil) kullanarak bunları uygulamalarına kolayca entegre edip dağıtabilirler.

Bedrock müşterileri bugün mevcut olan en modern FM’lerden bazılarını seçebilirler. Doğal dil talimatlarını takip ederek İspanyolca, Fransızca, Almanca, Portekizce, İtalyanca ve Hollandaca dillerinde metin üretebilen AI21 Labs’in Jurassic-2 çok dilli LLM ailesi de buna dahil. Anthropic’in LLM’i Claude, çok çeşitli konuşma ve metin işleme görevlerini yerine getirebilir ve Anthropic’in dürüst ve sorumlu yapay zeka sistemlerini eğitmeye yönelik kapsamlı araştırmalarına dayanır. Bedrock ayrıca Stability AI’nın benzersiz, gerçekçi, yüksek kaliteli görüntüler, sanat eserleri, logolar ve tasarımlar üretebilen Stable Diffusion (türünün en popüler örneği) da dahil olmak üzere metinden görüntüye temel model paketine erişimi kolaylaştırıyor.

Bedrock’un en önemli özelliklerinden biri, bir modeli özelleştirmenin ne kadar kolay olduğudur. Müşterilerin Bedrock’u Amazon S3’teki birkaç etiketli örneğe yönlendirmesi yeterlidir ve servis, büyük hacimli verilere açıklama eklemek zorunda kalmadan (20 kadar az örnek bile yeterlidir) belirli bir görev için modele ince ayar yapabilir. Önde gelen bir moda perakendecisinde çalışan ve yeni çıkacak bir el çantası serisi için yeni, hedefe yönelik reklam ve kampanya metni geliştirmesi gereken bir içerik pazarlama yöneticisi düşünün. Bunu yapmak için, Bedrock’a geçmiş kampanyalardan en iyi performans gösteren sloganlarının birkaç etiketli örneğini ve ilgili ürün açıklamalarını sağlarlar ve Bedrock otomatik olarak yeni el çantaları için etkili sosyal medya, görüntülü reklam ve web metni oluşturmaya başlar. Temel modelleri eğitmek için müşterinin hiçbir verisi kullanılmaz ve tüm veriler şifrelendiği ve müşterinin Virtual Private Cloud (VPC) ortamından ayrılmadığı için müşteriler verilerinin gizli ve özel kalacağına güvenebilirler.

Bedrock şu anda sınırlı önizleme aşamasında ve Coda gibi müşteriler, geliştirme ekiplerinin ne kadar hızlı çalışmaya başladıkları konusunda heyecan duyuyorlar. Coda’nın kurucu ortağı ve CEO’su Shishir Mehrotra şunları söylüyor: “Uzun süredir mutlu bir AWS müşterisi olarak, Amazon Bedrock’un Coda AI’ya nasıl kalite, ölçeklenebilirlik ve performans getirebileceği konusunda heyecanlıyız. Tüm verilerimiz zaten AWS’te olduğundan, verilerimizi korumak için ihtiyaç duyduğumuz tüm güvenlik ve gizliliği yerleşik olarak sunan Bedrock’u kullanarak üretken yapay zekayı hızlı bir şekilde dahil edebiliyoruz. Uber, New York Times ve Square gibi büyük ekipler de dahil olmak üzere Coda üzerinde çalışan on binden fazla ekiple güvenilirlik ve ölçeklenebilirlik gerçekten çok önemli.”

Amazon’un yeni Titan FM’lerini önümüzdeki aylarda daha geniş bir şekilde kullanıma sunmadan önce birkaç müşterimizle önizleme yapıyoruz. Başlangıçta iki Titan modelimiz olacak. İlki özetleme, metin oluşturma (örneğin bir blog yazısı oluşturma), sınıflandırma, açık uçlu soru-cevap ve bilgi çıkarma gibi görevler için üretken bir LLM. İkincisi ise metin girdilerini (kelimeler, ifadeler veya muhtemelen büyük metin birimleri) metnin anlamsal anlamını içeren sayısal temsillere (yerleştirme olarak bilinir) çeviren bir yerleştirme LLM’idir. Bu LLM metin üretmeyecek olsa da, kişiselleştirme ve arama gibi uygulamalar için kullanışlıdır çünkü model, yerleştirmeleri karşılaştırarak, kelime eşleştirmeden daha alakalı ve bağlamsal yanıtlar üretecektir. Aslında, Amazon.com’un ürün arama özelliği, müşterilerin aradıkları ürünleri bulmalarına yardımcı olmak için diğerleri arasında benzer bir yerleştirme modeli kullanır. Yapay zekanın sorumlu kullanımında en iyi uygulamaları desteklemeye devam etmek için Titan FM’ler, verilerdeki zararlı içeriği tespit etmek ve kaldırmak, kullanıcı girdisindeki uygunsuz içeriği reddetmek ve modellerin uygunsuz içerik (nefret söylemi, küfür ve şiddet gibi) içeren çıktılarını filtrelemek için oluşturulmuştur.

Bedrock, FM’lerin gücünü her büyüklükteki şirket için erişilebilir kılmakla şirketlerin kuruluşlarında ML kullanımını hızlandırabilir ve tüm geliştiriciler için kolay olması nedeniyle kendi üretken AI uygulamalarını oluşturabilirler. Bedrock’un FM’lerin demokratikleştirilmesinde büyük bir adım olacağını düşünüyoruz ve Accenture, Deloitte, Infosys ve Slalom gibi ortaklarımız, işletmelerin üretken yapay zeka ile daha hızlı ilerlemelerine yardımcı olacak uygulamalar geliştiriyor. C3 AI ve Pega gibi Independent Software Vendor’lar (ISV’ler), AWS’ten bekledikleri tüm güvenlik, gizlilik ve güvenilirlikle birlikte harika FM seçeneklerine kolay erişim için Bedrock’tan yararlanmaktan heyecan duyuyor.

Üretken yapay zeka için en uygun maliyetli bulut altyapısı olan, AWS Trainium tarafından desteklenen Amazon EC2 Trn1n bulut sunucuları ve AWS Inferentia2 tarafından desteklenen Amazon EC2 Inf2 bulut sunucularının genel kullanıma sunulduğunu duyuruyoruz

Müşteriler FM’lerle ne yapmaya çalışırlarsa çalışsınlar – bunları çalıştırmak, geliştirmek, özelleştirmek – ML için özel olarak oluşturulmuş en performanslı, uygun maliyetli altyapıya ihtiyaç duyarlar. Son beş yıldır AWS olarak, makine öğrenimi eğitimi ve çıkarım gibi zorlu iş yüklerinde performans ve fiyat konusunda sınırları zorlamak için kendi silikonumuza yatırım yapıyor ve AWS Trainium ve AWS Inferentia yongalarımız, bulutta model eğitimi ve çıkarım çalıştırma için en düşük maliyeti sunuyor. Optimum makine öğrenimi altyapısını seçerek performansı en üst düzeye çıkarma ve maliyetleri kontrol etme yeteneği, AI21 Labs, Anthropic, Cohere, Grammarly, Hugging Face, Runway ve Stability AI gibi önde gelen yapay zeka girişimlerinin AWS üzerinde çalışmasının nedenidir.

Trainium tarafından desteklenen Trn1 bulut sunucular, diğer tüm EC2 örneklerine kıyasla eğitim maliyetlerinde %50’ye varan tasarruf sağlayabilirken eğitimi 800 Gbps ikinci nesil Elastic Fabric Adapter (EFA) ağına bağlı birden fazla sunucuya dağıtmak için optimize edilmiştir. Müşteriler Trn1 bulut sunucularını, petabit ölçekli ağ ile aynı AWS Erişilebilirlik Alanında bulunan 30.000 Trainium yongasına (6 exaflop’tan fazla işlem) kadar ölçeklenebilen UltraCluster’larda dağıtabilirler. Helixon, Money Forward ve Amazon Search ekibi de dahil olmak üzere birçok AWS müşterisi, maliyetlerini düşürürken en büyük ölçekli derin öğrenme modellerini eğitmek için gereken süreyi aylardan haftalara hatta günlere indirmeye yardımcı olmak için Trn1 bulut sunucularını kullanıyor. 800 Gbps çok fazla bant genişliğidir, ancak daha fazlasını sunmak için yenilik yapmaya devam ettik ve bugün 1600 Gbps ağ bant genişliği sunan ve büyük, ağ yoğun modeller için Trn1’e göre %20 daha yüksek performans sağlamak üzere tasarlanan yeni, ağ için optimize edilmiş Trn1n bulut sunucularının genel kullanıma sunulduğunu duyuruyoruz.

Günümüzde FM’ler için harcanan zaman ve paranın çoğu onları eğitmek için harcanıyor. Bunun nedeni, birçok müşterinin FM’leri üretime yeni yeni dağıtmaya başlamasıdır. Ancak gelecekte, FM’ler geniş ölçekte dağıtıldığında, maliyetlerin çoğu modelleri çalıştırmak ve çıkarım yapmakla ilişkilendirilecektir. Bir modeli genellikle periyodik olarak eğitebilirken, canlıdaki bir uygulama sürekli olarak çıkarım olarak bilinen tahminler üretebilir ve bu potansiyel olarak saatte milyonlarca gerçekleşebilir. Ve bu tahminlerin gerçek zamanlı olarak yapılması gerekir, bu da çok düşük gecikme süresi ve yüksek verimli ağ gerektirir. Alexa, her dakika gelen milyonlarca istekle harika bir örnektir ve tüm işlem maliyetlerinin %40’ını oluşturur.

Gelecekteki makine öğrenimi maliyetlerinin çoğunun çıkarımları çalıştırmaktan kaynaklanacağını bildiğimiz için, birkaç yıl önce yeni çiplere yatırım yapmaya başladığımızda çıkarım için optimize edilmiş silikona öncelik verdik. 2018 yılında, çıkarım için özel olarak üretilmiş ilk çip olan Inferentia’yı duyurduk. Inferentia her yıl Amazon’un trilyonlarca çıkarım yapmasına yardımcı oluyor ve Amazon gibi şirketlere şimdiden yüz milyon doların üzerinde sermaye tasarrufu sağladı. Sonuçlar etkileyici ve daha fazla müşteri üretken yapay zekayı uygulamalarına entegre ettikçe iş yüklerinin boyutu ve karmaşıklığı artacağından yenilik yapmaya devam etmek için birçok fırsat görüyoruz.

Bu nedenle bugün, AWS Inferentia2 tarafından desteklenen ve yüz milyarlarca parametre içeren modellere sahip büyük ölçekli üretken yapay zeka uygulamaları için özel olarak optimize edilen Inf2 bulut sunucularının genel kullanıma sunulduğunu duyuruyoruz. Inf2 bulut sunucuları, önceki nesil Inferentia tabanlı örneklere kıyasla 4 kata kadar daha yüksek verim ve 10 kata kadar daha düşük gecikme süresi sunuyor. Ayrıca, büyük ölçekli dağıtılmış çıkarımı desteklemek için hızlandırıcılar arasında çok yüksek hızlı bağlantıya sahiptirler. Bu özellikler, diğer karşılaştırılabilir Amazon EC2 bulut sunucularına göre %40’a kadar daha iyi çıkarım fiyatı performansı ve bulutta çıkarım için en düşük maliyeti sağlıyor. Runway gibi müşteriler, bazı modelleri için Inf2 ile karşılaştırılabilir Amazon EC2 bulut sunucularına göre 2 kata kadar daha yüksek verim elde ediyor. Bu yüksek performanslı, düşük maliyetli çıkarım, Runway’in daha fazla özellik sunmasını, daha karmaşık modeller dağıtmasını ve nihayetinde Runway’i kullanan milyonlarca içerik oluşturucu için daha iyi bir deneyim sunmasını sağlayacaktır.

Bireysel geliştiriciler için ücretsiz olan Amazon CodeWhisperer servisinin genel kullanıma sunulduğunu duyuruyoruz

Doğru FM’lerle geliştirmenin ve Üretken Yapay Zeka uygulamalarını en yüksek performanslı bulut altyapısında büyük ölçekte çalıştırmanın müşteriler için dönüştürücü olacağını biliyoruz. Yeni deneyim dalgası kullanıcılar için de dönüştürücü olacak. Yerleşik yapay zeka sayesinde kullanıcılar uygulamalar ve sistemlerle daha doğal ve sorunsuz etkileşimler kurabilecek. Bu özelliği mümkün kılan güçlü makine öğrenimi modelleri hakkında hiçbir şey bilmemize gerek kalmadan cep telefonlarımızın kilidini sadece onlara bakarak nasıl açabildiğimizi düşünün.

Üretken yapay zekanın kullanımının hızla artacağını öngördüğümüz alanlardan birisi de kod yazma alanıdır. Günümüzde yazılım geliştiriciler zamanlarının önemli bir kısmını oldukça basit ve farklılaşmamış kodlar yazarak geçiriyor. Ayrıca karmaşık ve sürekli değişen araç ve teknoloji ortamına ayak uydurmaya çalışmak için de çok zaman harcıyorlar. Tüm bunlar geliştiricilere yeni, inovatif yetenekler ve hizmetler geliştirmek için daha az zaman bırakıyor. Geliştiriciler bunun üstesinden web’den kod parçacıklarını kopyalayarak ve değiştirerek gelmeye çalışıyor, bu da yanlışlıkla çalışmayan, güvenlik açıkları içeren veya açık kaynaklı yazılım kullanımını takip etmeyen kodların kopyalanmasına neden olabiliyor. Ve sonuçta, arama ve kopyalama hala iyi işlerden zaman çalıyor.

Üretken yapay zeka, farklılaştırılmamış kodun çoğunu “yazarak” denklemin bu ağır yükünü ortadan kaldırabilir ve geliştiricilerin kodlamanın daha yaratıcı yönlerine odaklanmaları için onları serbest bırakırken daha hızlı geliştirme yapmalarına olanak tanır. Bu nedenle geçtiğimiz yıl, geliştiricilerin doğal dildeki yorumlarına ve Entegre Geliştirme Ortamlarındaki (IDE) önceki kodlarına dayalı olarak gerçek zamanlı kod önerileri oluşturarak geliştirici üretkenliğini radikal bir şekilde artırmak için altyapıda bir FM kullanan yapay zeka kodlama yardımcısı olan Amazon CodeWhisperer‘ın önizlemesini duyurduk. Geliştiriciler CodeWhisperer’a basitçe “şarkıların CSV dizesini ayrıştır” gibi bir görev söyleyebilir ve sanatçı, başlık ve en yüksek liste sıralaması gibi değerlere dayalı yapılandırılmış bir liste döndürmesini isteyebilir. CodeWhisperer, dizeyi ayrıştıran ve listeyi belirtildiği gibi döndüren bir işlevin tamamını oluşturarak üretkenlik artışı sağlar. Geliştiricilerin önizlemeye tepkisi son derece olumluydu ve geliştiricilerin kod yazmasına yardımcı olmanın, önümüzdeki yıllarda göreceğimiz üretken yapay zekanın en güçlü kullanımlarından biri olabileceğine inanmaya devam ediyoruz. Ön izleme sırasında bir üretkenlik yarışması düzenledik ve CodeWhisperer kullanan katılımcılar, CodeWhisperer kullanmayanlara kıyasla görevleri ortalama %57 daha hızlı ve %27 daha başarılı bir şekilde tamamladı. Bu, geliştirici üretkenliğinde ileriye doğru dev bir adımdır ve bunun yalnızca bir başlangıç olduğuna inanıyoruz.

Bugün, Python, Java, JavaScript, TypeScript ve C#’ın yanı sıra Go, Kotlin, Rust, PHP ve SQL dahil olmak üzere on yeni dil için Amazon CodeWhisperer’ın genel kullanıma sunulduğunu duyurmaktan heyecan duyuyoruz. CodeWhisperer’a VS Code, IntelliJ IDEA, AWS Cloud9 gibi IDE’lerden ve AWS Toolkit IDE uzantıları aracılığıyla çok daha fazlasından erişilebilir. CodeWhisperer AWS Lambda konsolunda da kullanılabilir. CodeWhisperer, herkese açık milyarlarca satır koddan öğrenmenin yanı sıra Amazon kodu üzerinde de eğitilmiştir. CodeWhisperer’ın artık Amazon EC2, AWS Lambda ve Amazon S3 dahil olmak üzere AWS hizmetleri için kod oluşturmanın en doğru, en hızlı ve en güvenli yolu olduğuna inanıyoruz.

Geliştiriciler, üretken yapay zeka araçları tarafından önerilen kod gizli güvenlik açıkları içeriyorsa veya açık kaynağı sorumlu bir şekilde ele almıyorsa, gerçekten daha üretken olmayacaklardır. CodeWhisperer, ilk on Open Worldwide Application Security Project (OWASP) listesinde yer alan, kripto kitaplığındaki en iyi uygulamalara uymayan ve diğerleri gibi tespit edilmesi zor güvenlik zafiyetlerini bulmak ve düzeltmek için yerleşik güvenlik taramasına (otomatik gerekçelendirme ile desteklenen) sahip tek yapay zeka kodlama yardımcısıdır. CodeWhisperer, geliştiricilerin sorumlu bir şekilde kod yazmalarına yardımcı olmak için taraflı veya olumsuz olarak değerlendirilebilecek kod önerilerini filtreler ve müşterilerin referans vermek veya kullanım için lisanslamak isteyebileceği açık kaynak koduna benzeyen kod önerilerini filtreleyebilen ve işaretleyebilen tek kodlama yardımcısıdır.

Üretken yapay zekanın geliştiriciler için oyunu değiştireceğini biliyoruz ve mümkün olduğunca çok kişi için faydalı olmasını istiyoruz. Bu nedenle CodeWhisperer, kod üretmek için herhangi bir nitelik veya zaman sınırlaması olmaksızın tüm bireysel kullanıcılar için ücretsiz! CodeWhisperer’a herkes sadece bir e-posta hesabıyla kayıt olabilir ve dakikalar içinde daha üretken hale gelebilir. Bir AWS hesabınızın olması bile gerekmiyor. Kurumsal kullanıcılar için, AWS Kimlik ve Erişim Yönetimi (IAM) entegrasyonu ile çoklu oturum açma (SSO) gibi yönetim özelliklerinin yanı sıra güvenlik taramasında daha yüksek limitler içeren bir CodeWhisperer Profesyonel Tier sunuyoruz.

CodeWhisperer gibi güçlü uygulamalar oluşturmak, geliştiriciler ve tüm müşterilerimiz için dönüştürücüdür. Bundan çok daha fazlası gelecek ve AWS’te üretken yapay zeka ile inşa edecekleriniz için heyecanlıyız. Misyonumuz, tüm beceri seviyelerindeki geliştiricilerin ve her büyüklükteki kuruluşun üretken yapay zeka kullanarak yenilik yapmasını mümkün kılmaktır. Bu, sizin için yeni olasılıklara güç veren bir sonraki makine öğrenimi dalgası olacağına inandığımız şeyin sadece başlangıcı.

Kaynaklar

AWS’te üretken yapay zeka ve bu duyurular hakkında daha fazla bilgi edinmek için aşağıdaki kaynaklara göz atın: