Guardrail per Amazon Bedrock
Implementa misure di protezione personalizzate in base ai requisiti delle tue applicazioni e alle politiche di IA responsabileCrea applicazioni di intelligenza artificiale responsabili con Guardrails for Amazon Bedrock
Guarda le demo su come creare e applicare guardrail personalizzati con i modelli di fondazione (FM) per implementare policy di utilizzo responsabile dell'IA all'interno delle tue applicazioni di IA generativa.
Offri un livello costante di sicurezza dell'IA in tutte le tue applicazioni
Guardrails per Amazon Bedrock valuta gli input degli utenti e le risposte FM in base a politiche specifiche dei casi d'uso, fornendo un ulteriore livello di protezione indipendentemente dal FM sottostante. I guardrail possono essere applicati a tutti i modelli linguistici di grandi dimensioni (LLM) su Amazon Bedrock, compresi i modelli ottimizzati. I clienti possono creare più guardrail, ognuno configurato con una diversa combinazione di controlli, e utilizzare questi guardrail in diverse applicazioni e casi d'uso.
Blocca argomenti indesiderati nelle tue applicazioni di IA generativa
Le organizzazioni riconoscono la necessità di gestire le interazioni all'interno delle applicazioni di IA generativa per un'esperienza utente pertinente e sicura. Desiderano personalizzare ulteriormente le interazioni, per rimanere su argomenti pertinenti alla loro attività e allinearsi alle politiche aziendali. Utilizzando una breve descrizione in linguaggio naturale, Guardrails per Amazon Bedrock ti consente di definire una serie di argomenti da evitare nel contesto della tua applicazione. Guardrails rileva e blocca gli input dell'utente e le risposte FM che rientrano negli argomenti riservati. Ad esempio, un assistente bancario può essere progettato per evitare argomenti relativi alla consulenza in materia di investimenti.
Filtra i contenuti dannosi in base alle tue politiche di intelligenza artificiale responsabili
Guardrails per Amazon Bedrock fornisce filtri dotati di soglie configurabili per filtrare i contenuti dannosi in varie categorie come odio, insulti, sesso, violenza, comportamenti scorretti (inclusa l'attività criminale) e attacchi tramite prompt (prompt injection e jailbreak). La maggior parte degli FM fornisce già protezioni integrate per prevenire la generazione di risposte dannose. Oltre a queste protezioni, Guardrails consente di configurare le soglie tra le diverse categorie, per filtrare le interazioni dannose. L'aumento della resistenza del filtro intensifica l'aggressività del processo di filtraggio. I guardrail valutano automaticamente sia le richieste degli utenti, sia le risposte FM, per rilevare e aiutare a prevenire i contenuti che rientrano in categorie soggette a restrizioni. Ad esempio, un sito di e-commerce può progettare il proprio assistente online per evitare l'uso di un linguaggio inappropriato, come incitamento all'odio o insulti.
Redazione delle Informazioni di identificazione personale (PII) per proteggere la privacy
Guardrails per Amazon Bedrock consente di rilevare contenuti sensibili come Informazioni di identificazione personale (PII) negli input degli utenti e nelle risposte FM. È possibile selezionare da un elenco di Informazioni di identificazione personale (PII) o definire un tipo di informazioni sensibili personalizzato utilizzando espressioni regolari (RegEx). In base al caso d'uso, è possibile rifiutare selettivamente gli input contenenti PII oppure oscurare le PII nelle risposte FM. Ad esempio, puoi oscurare le informazioni personali degli utenti mentre generi riepiloghi delle trascrizioni delle conversazioni con clienti e agenti in un call center.
Blocca i contenuti inappropriati con un filtro personalizzato per il linguaggio
Guardrails per Amazon Bedrock permette di configurare un set di parole o frasi personalizzate che si desidera rilevare e bloccare nell'interazione tra gli utenti e le applicazioni di IA generativa. Ciò consentirà anche di rilevare e bloccare eventuali parolacce e parole personalizzate specifiche come i nomi dei concorrenti o altre parole offensive.