Sviluppo dell'intelligenza artificiale in modo responsabile in AWS
La rapida crescita dell'IA generativa porta nuove innovazioni promettenti e allo stesso tempo pone nuove sfide. In AWS ci impegniamo a sviluppare l'intelligenza artificiale in modo responsabile, adottando un approccio incentrato sulle persone che dà priorità all'istruzione, alla scienza e ai nostri clienti, per integrare l'IA responsabile in tutto il ciclo di vita dell'IA end-to-end.
Dimensioni fondamentali dell'IA responsabile
Equità
Valutare gli impatti sui diversi gruppi di stakeholder
Spiegabilità
Comprendere e valutare i risultati del sistema
Privacy e sicurezza
Ottenere, utilizzare e proteggere dati e modelli in modo adeguato
Sicurezza
Prevenire l'output dannoso e l'uso improprio del sistema
Controllabilità
Disporre di meccanismi per monitorare e guidare il comportamento del sistema di IA
Veridicità e robustezza
Ottenere output di sistema corretti, anche con input imprevisti o contraddittori
Governance
Incorporare le best practice nella catena di approvvigionamento dell'IA, inclusi fornitori e implementatori
Trasparenza
Consentire agli stakeholder di fare scelte informate sul loro coinvolgimento con un sistema di IA
Dimensioni fondamentali dell'IA responsabile
Equità
Valutare gli impatti sui diversi gruppi di stakeholder
Spiegabilità
Comprendere e valutare i risultati del sistema
Privacy e sicurezza
Ottenere, utilizzare e proteggere dati e modelli in modo adeguato
Sicurezza
Prevenire l'output dannoso e l'uso improprio del sistema
Controllabilità
Disporre di meccanismi per monitorare e guidare il comportamento del sistema di IA
Veridicità e robustezza
Ottenere output di sistema corretti, anche con input imprevisti o contraddittori
Governance
Incorporare le best practice nella catena di approvvigionamento dell'IA, inclusi fornitori e implementatori
Trasparenza
Consentire agli stakeholder di fare scelte informate sul loro coinvolgimento con un sistema di IA
Servizi e strumenti
AWS offre servizi e strumenti per aiutarti a progettare, creare e gestire i sistemi di intelligenza artificiale in modo responsabile.
Implementazione di misure di sicurezza nell'IA generativa
I guardrail per Amazon Bedrock ti aiutano a implementare misure di protezione per le tue applicazioni di IA generativa personalizzate e in linea alle policy di IA responsabile. I guardrail forniscono protezioni aggiuntive personalizzabili in aggiunta alle protezioni native dei modelli di fondazione (FM), offrendo protezioni di sicurezza tra le migliori del settore poiché:
- Blocca fino all'85% in più di contenuti dannosi
- Filtra oltre il 75% delle risposte caratterizzate da allucinazione dell'IA per i carichi di lavoro RAG e di sintesi
- Consente ai clienti di personalizzare e applicare le protezioni di sicurezza, privacy e veridicità in un'unica soluzione
Valutazioni dei modelli di fondazione (FM)
La valutazione dei modelli su Amazon Bedrock ti aiuta a valutare, confrontare e selezionare i migliori FM per il tuo caso d'uso specifico in base a parametri personalizzati, come precisione, robustezza e tossicità. Puoi anche utilizzare Amazon SageMaker Clarify e fmeval per la valutazione dei modelli.
Rilevare i bias e spiegare le previsioni
I bias sono distorsioni nei dati o disparità nelle prestazioni di un modello tra gruppi diversi. Amazon SageMaker Clarify consente di limitare i bias rilevandone l'eventuale presenza durante la preparazione dei dati, dopo l'addestramento dei modelli e nel modello implementato, attraverso l'analisi di attributi specifici.
Conoscere il comportamento di un modello è importante per sviluppare modelli più accurati e prendere decisioni migliori. Amazon SageMaker Clarify offre una maggiore visibilità sul comportamento del modello, in modo da garantire trasparenza agli stakeholder, informare le persone che prendono decisioni e verificare se un modello funziona come previsto.
Monitoraggio e revisione umana
Il monitoraggio è importante per mantenere modelli di machine learning (ML) di alta qualità e contribuire a garantire previsioni accurate. Amazon SageMaker Model Monitor rileva e segnala automaticamente le previsioni imprecise dei modelli implementati. E con Amazon SageMaker Ground Truth puoi applicare il feedback umano in tutto il ciclo di vita del machine learning per migliorare l'accuratezza e la pertinenza dei modelli.
Miglioramento della governance
Governance del ML di Amazon SageMaker fornisce strumenti su misura per migliorare la governance dei tuoi progetti ML offrendoti un controllo e una visibilità più stretti sui tuoi modelli di ML. Puoi acquisire e condividere facilmente le informazioni sul modello e ottenere aggiornamenti sul comportamento del modello, come i bias, in un unico posto.
Schede di servizio IA di AWS
Le schede dei servizi IA sono una risorsa per migliorare la trasparenza fornendo un unico posto dove trovare informazioni sui casi d'uso e le limitazioni previsti, sulle scelte di progettazione dell'IA responsabile e sulle best practice di ottimizzazione delle prestazioni per i nostri servizi e modelli di intelligenza artificiale.