|
Hoy anunciamos la vista previa de la detección de toxicidad multimodal con soporte de imágenes en Amazon Bedrock Guardrails. Esta nueva capacidad detecta y filtra contenido de imágenes no deseado además del texto, lo que le ayuda a mejorar las experiencias del usuario y gestionar los resultados del modelo en sus aplicaciones de IA generativa.
Amazon Bedrock Guardrails lo ayuda a implementar salvaguardas para aplicaciones de IA generativa al filtrar contenido no deseado, redactar información de identificación personal (PII) y mejorar la seguridad y privacidad del contenido. Puede configurar políticas para temas denegados, filtros de contenido, filtros de palabras, redacción de PII, verificaciones de fundamento contextual y verificaciones de razonamiento automatizado (vista previa) para adaptar las salvaguardas a sus casos de uso específicos y políticas de IA responsables.
Con este lanzamiento, ahora puede utilizar la política de filtro de contenido existente en Amazon Bedrock Guardrails para detectar y bloquear contenido de imágenes dañino en categorías como odio, insultos, sexualidad y violencia. Puede configurar umbrales de menor a mayor para satisfacer las necesidades de su aplicación.
Esta nueva compatibilidad con imágenes funciona con todos los modelos básicos (FM) de Amazon Bedrock que admiten datos de imágenes, así como con cualquier modelo personalizado y optimizado que traiga. Proporciona una capa consistente de protección en todas las modalidades de texto e imagen, lo que facilita la creación de aplicaciones de IA responsables.
Tero Hottinenvicepresidente, jefe de asociaciones estratégicas en KONEprevé el siguiente caso de uso:
En su evaluación en curso, KONE reconoce el potencial de Amazon Bedrock Guardrails como un componente clave en la protección de aplicaciones de IA de generación, particularmente para verificaciones de relevancia y conexión a tierra contextual, así como las salvaguardias multimodales. La empresa prevé integrar diagramas y manuales de diseño de productos en sus aplicaciones, y Amazon Bedrock Guardrails desempeñará un papel crucial para permitir un diagnóstico y análisis más precisos del contenido multimodal.
Así es como funciona.
Detección de toxicidad multimodal en acción
Para comenzar, cree una barrera de seguridad en la Consola de administración de AWS y configure los filtros de contenido para datos de texto, imágenes o ambos. También puede utilizar los SDK de AWS para integrar esta capacidad en sus aplicaciones.
Crear barandilla
En la consola, navegue hasta Roca Amazónica y seleccione Barandillas. Desde allí, puede crear una nueva barrera de seguridad y utilizar los filtros de contenido existentes para detectar y bloquear datos de imágenes además de datos de texto. Las categorías para Odiar, Insultos, Sexualy Violencia bajo Configurar filtros de contenido Se puede configurar para contenido de texto, imagen o ambos. El Mala conducta y Ataques rápidos Las categorías se pueden configurar solo para contenido de texto.
Una vez que haya seleccionado y configurado los filtros de contenido que desea usar, puede guardar la barrera de seguridad y comenzar a usarla para crear aplicaciones de IA generativa seguras y responsables.
Para probar la nueva barandilla en la consola, seleccione la barandilla y elija Prueba. Tiene dos opciones: probar la barandilla eligiendo e invocando un modelo o probar la barandilla sin invocar un modelo utilizando Amazon Bedrock Guardrails independiente. ApplyGuardail
API.
Con el ApplyGuardrail
API, puede validar el contenido en cualquier punto del flujo de su aplicación antes de procesar o entregar resultados al usuario. También puede utilizar la API para evaluar entradas y salidas de cualquier FM autoadministrado (personalizado) o de terceros, independientemente de la infraestructura subyacente. Por ejemplo, podría utilizar la API para evaluar una MetaLlama 3.2 modelo alojado en Amazon SageMaker o un Mistral Nemo modelo ejecutándose en su computadora portátil.
Pruebe la barandilla eligiendo e invocando un modelo
Seleccione un modelo que admita entradas o salidas de imágenes, por ejemplo, Claude 3.5 Sonnet de Anthropic. Verifique que los filtros de mensajes y respuestas estén habilitados para el contenido de la imagen. A continuación, proporcione un mensaje, cargue un archivo de imagen y elija Correr.
En mi ejemplo, intervino Amazon Bedrock Guardrails. Elegir Ver seguimiento para más detalles.
El trazado de la barandilla proporciona un registro de cómo se aplicaron las medidas de seguridad durante una interacción. Muestra si Amazon Bedrock Guardrails intervino o no y qué evaluaciones se realizaron tanto en la entrada (aviso) como en la salida (respuesta del modelo). En mi ejemplo, los filtros de contenido bloquearon el mensaje de entrada porque detectaron insultos en la imagen con un alto nivel de confianza.
Probar barandilla sin invocar un modelo
En la consola, elige Utilice la API independiente de Guardrails para probar la barandilla sin invocar un modelo. Elija si desea validar una solicitud de entrada o un ejemplo de una salida generada por un modelo. Luego, repite los pasos anteriores. Verifique que los filtros de solicitud y respuesta estén habilitados para el contenido de la imagen, proporcione el contenido para validar y elija Correr.
Reutilicé la misma imagen y el mismo mensaje de entrada para mi demostración y Amazon Bedrock Guardrails intervino nuevamente. Elegir Ver seguimiento nuevamente para más detalles.
Únete a la vista previa
La detección de toxicidad multimodal con soporte de imágenes está disponible hoy en versión preliminar en Amazon Bedrock Guardrails en el este de EE. UU. (Norte de Virginia, Ohio), el oeste de EE. UU. (Oregón), Asia Pacífico (Mumbai, Seúl, Singapur, Tokio), Europa (Frankfurt, Irlanda). , Londres) y las regiones de AWS AWS GovCloud (EE. UU.-Oeste). Para obtener más información, visite Amazon Bedrock Guardrails.
Pruebe hoy el filtro de contenido de detección de toxicidad multimodal en la consola de Amazon Bedrock y díganos lo que piensa. Enviar comentarios a AWS re: Publicación para Amazon Bedrock o a través de sus contactos habituales de AWS Support.
— Antje
GIPHY App Key not set. Please check settings