Barreras de protección de Amazon Bedrock

Implemente medidas de seguridad personalizadas según los requisitos de su aplicación y las políticas de IA responsables

Creación de aplicaciones de IA responsables con barreras de protección

Las barreras de protección de Amazon Bedrock proporcionan protecciones configurables para ayudar a crear aplicaciones de IA generativa a escala y de forma segura. Las barreras de protección ofrecen soluciones de seguridad líderes en la industria con un enfoque uniforme y estándar utilizado en todos los modelos fundacionales (FM) compatibles:

  • Utiliza el razonamiento automatizado para ayudar a prevenir los errores fácticos derivados de las alucinaciones, siendo la primera y única protección de IA generativa que lo hace
  • Bloqueo de hasta un 85 % más de contenido indeseable y dañino
  • Filtra más del 75 % de las respuestas alucinadas de los modelos para los casos de uso de la generación aumentada por recuperación (RAG) y resumen

Establecimiento de un nivel uniforme de seguridad en todas las aplicaciones de IA generativa

Las barreras de protección son la única capacidad de IA responsable que ofrece un importante proveedor de servicios en la nube que ayuda a crear y personalizar las protecciones de seguridad, privacidad y veracidad para las aplicaciones de IA generativa en una única solución. Las barreras de protección ayudan a evaluar las entradas de los usuarios y las respuestas del modelo según las políticas específicas para cada caso práctico, y ofrecen una capa adicional de protección además de las proporcionadas de forma nativa por los modelos fundacionales (FM). Las barreras de protección funcionan con una amplia gama de modelos, incluidos los FM compatibles con Amazon Bedrock, los modelos afinados y los modelos autoalojados fuera de Amazon Bedrock. Las entradas de los usuarios y las salidas del modelo se pueden evaluar de forma independiente para modelos de terceros y autoalojados mediante la API ApplyGuardrail.  Las barreras de protección también se pueden integrar en los agentes y las bases de conocimiento de Amazon Bedrock para crear aplicaciones de IA generativa más seguras y protegidas alineadas con políticas de IA responsable.

Captura de pantalla de la UI

Detección de alucinaciones en respuestas del modelo con verificaciones contextuales

Para mantener y aumentar la confianza de sus usuarios, los clientes deben implementar aplicaciones de IA generativa que sean veraces y confiables. Sin embargo, los FM pueden generar información incorrecta debido a alucinaciones, es decir, desviarse de la información de origen, combinar varios datos o inventar información nueva. Las barreras de protección de Amazon Bedrock son compatibles con las verificaciones de las bases contextuales, lo cual permite ayudar a detectar y filtrar alucinaciones en caso de que las respuestas no estén fundamentadas (por ejemplo, información imprecisa o nueva) en la información de origen y que sean irrelevantes para la consulta o la instrucción del usuario. Las verificaciones contextuales pueden ayudar a detectar alucinaciones para las aplicaciones de RAG, de resumen y conversacionales, en las cuales la información de origen se puede utilizar como una referencia para validar la respuesta del modelo.

Captura de pantalla de la UI

Las comprobaciones de razonamiento automatizado ayudan a prevenir los errores fácticos derivados de las alucinaciones y ofrecen una precisión verificable

Las comprobaciones de razonamiento automatizado (versión preliminar) en las barreras de protección de Amazon Bedrock son la primera y única protección de IA generativa que ayuda a prevenir los errores fácticos derivados de las alucinaciones mediante un razonamiento lógicamente preciso y verificable que explica por qué las respuestas son correctas. El razonamiento automatizado ayuda a mitigar las alucinaciones mediante técnicas matemáticas sólidas para verificar, corregir y explicar de forma lógica la información generada, lo que garantiza que los resultados se ajusten a los hechos conocidos y no se basen en datos inventados o inconsistentes. Los desarrolladores pueden crear una política de razonamiento automatizado si cargan un documento existente que defina el espacio de soluciones correcto, como una guía de recursos humanos o un manual operativo. Amazon Bedrock genera una política de razonamiento automatizado única y guía a los usuarios para probarla y perfeccionarla. Para validar el contenido generado con respecto a una política de razonamiento automatizado, los usuarios deben habilitar la política en las barreras de protección y configurarla con una lista de nombres de recursos de Amazon (ARN) únicos. Este proceso de verificación algorítmica basada en la lógica garantiza que la información generada por un modelo se ajuste a los hechos conocidos y no se base en datos inventados o inconsistentes. Estas comprobaciones ofrecen respuestas veraces y comprobables a partir de modelos de IA generativa, lo que permite a los proveedores de software mejorar la fiabilidad de sus aplicaciones para casos de uso en recursos humanos, finanzas, legal, cumplimiento, etc.

Video

Bloqueo de temas no deseados en aplicaciones de IA generativa

Los líderes organizacionales reconocen la necesidad de administrar las interacciones dentro de las aplicaciones de IA generativa para ofrecer una experiencia de usuario relevante y segura. Quieren personalizar aún más las interacciones para centrarse en temas relevantes para su negocio y alinearse con las políticas de la empresa. Con una breve descripción en lenguaje natural, las barreras de protección ayudan a definir un conjunto de temas que se deben evitar en el contexto de la aplicación. Las barreras de protección ayudan a detectar y bloquear las entradas de los usuarios y las respuestas del modelo fundacional (FM) que involucren temas restringidos. Por ejemplo, se puede diseñar un asistente bancario para evitar temas relacionados con el asesoramiento de inversiones.

Captura de pantalla de la UI

Filtrar el contenido dañino multimodal en función de sus políticas de IA responsable

Las barreras de protección brindan filtros de contenido con umbrales configurables para contenido de texto e imagen tóxico. La protección ayuda a filtrar el contenido dañino que contiene temas como la incitación al odio, los insultos, el sexo, la violencia y la mala conducta (incluida la actividad delictiva) y ayuda a proteger contra los ataques en las peticiones (inyección de peticiones y fugas). La capacidad de detectar y filtrar el contenido de imágenes no deseado y potencialmente dañino está disponible actualmente en versión preliminar para las categorías de odio, insultos, contenido sexual y violencia, y es compatible con todos los FM de Amazon Bedrock que admiten imágenes, incluidos los FM refinados. Los filtros de contenido evalúan automáticamente las entradas de los usuarios y modelan las respuestas para detectar y ayudar a prevenir el contenido no deseado y potencialmente dañino. Por ejemplo, un sitio de comercio electrónico puede diseñar su asistente en línea para evitar el uso de lenguaje inapropiado, como la incitación al odio o los insultos.

Captura de pantalla de la UI

Redacción de la información confidencial, como PII, para proteger la privacidad

Las barreras de protección ayudan a detectar contenido confidencial, como la información de identificación personal (PII) en las entradas de los usuarios y en las respuestas del FM. Puede seleccionar de una lista de PII predefinidas o definir un tipo de información confidencial personalizado mediante expresiones regulares (RegEx). Según el caso de uso, puede rechazar de forma selectiva las entradas que contienen información sensible o redactarla en las respuestas del FM. Por ejemplo, puede redactar la información personal de los usuarios mientras genera resúmenes a partir de las transcripciones de las conversaciones entre clientes y agentes en un centro de llamadas.

Captura de pantalla de la UI