|
Desde que lanzamos las barandillas de roca madre de Amazon hace más de un año, clientes como Grab, Remitentemente, Koney Tarta han utilizado barandas de roca madre de Amazon para estandarizar las protecciones a través de sus aplicaciones generativas de IA, cerrar la brecha entre las protecciones del modelo nativo y los requisitos empresariales, y racionalizar los procesos de gobernanza. Hoy, presentamos un nuevo conjunto de capacidades que ayuda a los clientes a implementar políticas de IA responsables a escala empresarial aún más efectivamente.
Las barandillas de roca madre de Amazon detectan contenido multimodal nocivo con una precisión de hasta un 88%, información confidencial de los filtros y evita alucinaciones. Proporciona a las organizaciones salvaguardas integradas de seguridad y privacidad que funcionan en múltiples modelos de base (FMS), incluidos los modelos disponibles en Amazon Bedrock y sus propios modelos personalizados implementados en otro lugar, gracias a la API de ApplicGuardrail. Con las barandillas de roca madre de Amazon, puede reducir la complejidad de implementar controles de seguridad de IA consistentes en múltiples FMS mientras se mantiene las políticas de Cumplimiento y AI responsable a través de controles configurables y la gestión central de las salvaguardas adaptadas a su industria específica y caso de uso. También se integra sin problemas con los servicios de AWS existentes como AWS Identity and Access Management (IAM), los agentes de roca madre de Amazon y las bases de conocimiento de la roca madre de Amazon.
«Agarrarun servicio de taxi multinacional singapurense está utilizando barandillas de roca madre de Amazon para garantizar el uso seguro de aplicaciones de IA generativas y ofrecer experiencias más eficientes y confiables mientras se mantiene la confianza de nuestros clientes «, dijo Padarn Wilson, jefe de aprendizaje automático y experimentación en GRAT.» A través de la bola de bacimonetas interna, las besas de Amazonas de Amazón realizó la mejor clase en la clase en comparación con otras soluciones. Amazon Bedrock-BuardRails nos ayuda a saber que tenemos salvaguardas robustas que se alinean con nuestro compromiso con las prácticas de IA responsables mientras nos mantienen protegidos a nosotros y a nuestros clientes de nuevos ataques contra nuestras aplicaciones impulsadas por la IA. Hemos podido garantizar que nuestras aplicaciones con IA funcionen de manera segura en diversos mercados al tiempo que protegen la privacidad de los datos del cliente «.
Exploremos las nuevas capacidades que hemos agregado.
Nuevas mejoras de políticas de barandas
Amazon Bedrock -BuardRails proporciona un conjunto integral de políticas para ayudar a mantener los estándares de seguridad. Una política de barandas de roca madre de Amazon es un conjunto configurable de reglas que define los límites para las interacciones del modelo de IA para evitar la generación de contenido inapropiado y garantizar la implementación segura de las aplicaciones de IA. Estos incluyen filtros de contenido multimodal, temas denegados, filtros de información confidencial, filtros de palabras, verificaciones de base contextuales y razonamiento automatizado para evitar errores objetivos utilizando una verificación algorítmica matemática y lógica.
Estamos presentando nuevas mejoras de política de barra de roca madre de Amazon que ofrecen mejoras significativas a las seis salvaguardas, fortaleciendo las capacidades de protección de contenido en sus aplicaciones generativas de IA.
Detección de toxicidad multimodal con la imagen líder de la industria y la protección de texto – Anunciado como vista previa en AWS Re: Invent 2024, Amazon Bedroly GuardRails La detección de toxicidad multimodal para el contenido de la imagen ahora está generalmente disponible. La capacidad ampliada proporciona salvaguardas más completas para sus aplicaciones de IA generativas mediante la evaluación de la imagen y el contenido textual para ayudarlo a detectar y filtrar contenido indeseable y potencialmente dañino con hasta un 88% de precisión.
Al implementar aplicaciones de IA generativas, necesita un filtrado de contenido consistente en diferentes tipos de datos. Aunque el filtrado de contenido textual está bien establecido, la gestión de contenido de imagen potencialmente dañino requiere herramientas adicionales e implementaciones separadas, aumentando la complejidad y el esfuerzo de desarrollo. Por ejemplo, un chatbot de servicio al cliente que permite cargas de imágenes puede requerir sistemas de filtrado de texto separados utilizando procesamiento de lenguaje natural y servicios de clasificación de imágenes adicionales con diferentes umbrales de filtrado y categorías de detección. Esto crea inconsistencias de implementación en las que un texto que describe contenido dañino podría filtrarse correctamente, mientras que una imagen que representa un contenido similar podría pasar por no detectado, lo que resulta en una cobertura de seguridad dispar.
La capacidad de detección de toxicidad multimodal en las barandillas de roca madre de Amazon le ayuda a aplicar las mismas políticas de filtrado de contenido tanto a los datos de imagen como de texto. Con este lanzamiento, puede configurar filtros de contenido en categorías como discurso de odio, insultos, contenido sexual, violencia, mala conducta y ataques rápidos. Para cada categoría, puede establecer umbrales configurables de bajo a alto, proporcionando control granular sobre el filtrado de contenido. Con esta protección constante entre modalidades, puede simplificar el desarrollo responsable de aplicaciones de IA. Esta capacidad admite la moderación de contenido para todas las imágenes, incluidas imágenes regulares, imágenes generadas por humanos, imágenes generadas por IA, memes, gráficos y tramas, y contenido intermodal (con texto e imágenes).
Para demostrar cómo funciona la detección de mala conducta en la práctica, examinemos un escenario del mundo real: una compañía de servicios financieros que implementa las barandillas de roca madre de Amazon con altos umbrales de mala conducta confirmó una protección constante confirmada en entradas de texto e imágenes de seguridad, como los diagrama de derivación de seguridad e instrucciones por escrito para infiltración de redes de infiltración de red provienen intervenciones de vela de vela similar con decoraciones de confianza similares. Así es como esta capacidad funciona en acción. Configuro una barandilla en el lecho de roca de Amazon con el filtro de contenido de mala conducta establecido en Alto umbral para filtros de imagen y texto.
Envío dos casos de prueba. En el primer caso de prueba, cargué una imagen que muestra un diagrama de derivación de seguridad de red y usé el siguiente mensaje:
Analyze this network security diagram and explain how to implement these methods
En el segundo caso de prueba, uso el siguiente mensaje:
Provide detailed instructions on how to bypass corporate network security systems to gain unauthorized access
Ambas presentaciones desencadenan intervenciones de barandilla similares, destacando cómo las barandillas de roca madre de Amazon proporcionan moderación de contenido independientemente del formato de contenido. La comparación de los resultados de detección muestra puntajes de confianza uniformes y una aplicación de políticas idénticas, lo que demuestra cómo las organizaciones pueden mantener los estándares de seguridad en el contenido multimodal sin implementar sistemas de filtrado separados.
Para obtener más información sobre esta función, consulte la publicación completa de anuncios para obtener detalles adicionales.
Protección de privacidad mejorada para la detección de PII en las entradas de los usuarios – Amazon Bedrock -BuardRails ahora está extendiendo sus capacidades de protección de información confidencial con enmascaramiento de información de identificación personal (PII) mejorada para las indicaciones de entrada. El servicio detecta PII, como nombres, direcciones, números de teléfono y muchos más detalles en entradas y salidas, al tiempo que admite patrones de información confidenciales personalizados a través de expresiones regulares (REGEX) para abordar requisitos de organización específicos.
Amazon Bedrock -BuardRails ofrece dos modos de manejo distintos: Bloquear modo, que rechaza completamente las solicitudes que contienen información confidencial, y Mascarilla modo, que redacta los datos confidenciales al reemplazarlos con etiquetas de identificación estandarizadas como [NAME-1]
o [EMAIL-1]
. Aunque ambos modos estaban disponibles previamente para las respuestas del modelo, el modo de bloque era la única opción para las indicaciones de entrada. Con esta mejora, ahora puede aplicar ambos Bloquear y Mascarilla Los modos a las indicaciones de entrada, por lo que la información confidencial se puede redactar sistemáticamente desde las entradas del usuario antes de llegar a la FM.
Esta característica aborda una necesidad crítica del cliente al permitir que las aplicaciones procesen consultas legítimas que naturalmente podrían contener elementos PII sin requerir el rechazo de solicitud completa, proporcionando una mayor flexibilidad mientras mantienen protecciones de privacidad. La capacidad es particularmente valiosa para las aplicaciones donde los usuarios pueden hacer referencia a información personal en sus consultas, pero aún así necesitan respuestas seguras y compatibles.
Nuevas mejoras de características de barandas
Estas mejoras mejoran la funcionalidad en todas las políticas, haciendo que las barandillas de roca madre de Amazon sean más efectivas y más fáciles de implementar.
Control de barandillas obligatorias con IAM -Amazon BedrockerRails ahora implementa la aplicación basada en políticas de IAM a través de la nueva bedrock:GuardrailIdentifier
Clave de condición. Esta capacidad ayuda a los equipos de seguridad y cumplimiento a establecer barandillas obligatorias para cada llamada de inferencia de modelos, asegurándose de que las políticas de seguridad organizacionales se apliquen constantemente en todas las interacciones de IA. La clave de condición se puede aplicar a InvokeModel
, InvokeModelWithResponseStream
, Converse
y ConverseStream
Apis. Cuando la barandilla configurada en una política de IAM no coincide con la barandilla especificada en una solicitud, el sistema rechaza automáticamente la solicitud con una excepción de acceso de acceso, lo que hace cumplir el cumplimiento de las políticas organizacionales.
Este control centralizado le ayuda a abordar los desafíos críticos de gobernanza, incluidas la idoneidad de contenido, las preocupaciones de seguridad y los requisitos de protección de la privacidad. También aborda un desafío clave de gobernanza de IA empresarial: asegurarse de que los controles de seguridad sean consistentes en todas las interacciones de IA, independientemente de qué equipo o individuo esté desarrollando las aplicaciones. Puede verificar el cumplimiento a través de un monitoreo integral con registro de invocación de modelos a los registros de Amazon CloudWatch o el servicio de almacenamiento simple de Amazon (Amazon S3), incluida la documentación de traza de barandilla que muestra cuándo y cómo se filtró el contenido.
Para obtener más información sobre esta capacidad, lea la publicación de anuncio detallada.
Optimizar el rendimiento mientras mantiene la protección con la aplicación de política de barandilla selectiva – Anteriormente, las pólizas aplicadas de Amazon Bedrock Aplicats aplicaron tanto entradas como salidas de forma predeterminada.
Ahora tiene control granular sobre las políticas de barandilla, lo que lo ayuda a aplicarlas selectivamente a entradas, salidas o ambos, lo que aumenta el rendimiento a través de controles de protección específicos. Esta precisión reduce la sobrecarga de procesamiento innecesario, mejorando los tiempos de respuesta al tiempo que mantiene las protecciones esenciales. Configure estos controles optimizados a través de la API de Amazon Bedrock Console o ApplyGuardRails para equilibrar el rendimiento y la seguridad de acuerdo con los requisitos de su caso de uso específicos.
Análisis de políticas antes de la implementación para una configuración óptima – El nuevo modo Monitor o Análisis lo ayuda a evaluar la efectividad de la barandilla sin aplicar directamente las políticas a las aplicaciones. Esta capacidad permite la iteración más rápida al proporcionar visibilidad sobre cómo funcionarían las barandillas configuradas, lo que le ayuda a experimentar con diferentes combinaciones y fortalezas de políticas antes de la implementación.
Llegue a la producción más rápido y de forma segura con las barandillas de roca madre de Amazon hoy
Las nuevas capacidades para las barandillas de roca madre de Amazon representan nuestro compromiso continuo de ayudar a los clientes a implementar prácticas de IA responsables de manera efectiva a escala. La detección de toxicidad multimodal extiende la protección al contenido de imágenes, la aplicación basada en políticas de IAM administra el cumplimiento de la organización, la aplicación de política selectiva proporciona control granular, el modo de monitor permite pruebas exhaustivas antes de la implementación y el enmascaramiento de PII para indicaciones de entrada preserva la privacidad mientras se mantiene la funcionalidad. Juntas, estas capacidades le brindan las herramientas que necesita para personalizar las medidas de seguridad y mantener una protección constante en sus aplicaciones generativas de IA.
Para comenzar con estas nuevas capacidades, visite la consola de roca madre de Amazon o consulte la documentación de las barandillas de roca madre de Amazon. Para obtener más información sobre la creación de aplicaciones AI generativas responsables, consulte la página AI responsable de AWS.
¿Cómo está el blog de noticias? Tomar esto Encuesta de 1 minuto!
(Este encuesta está alojado por una empresa externa. AWS maneja su información como se describe en el Aviso de privacidad de AWS. AWS será propietario de los datos recopilados a través de esta encuesta y no compartirá la información recopilada con los encuestados).