Límite de seguridad
El modelo de responsabilidad compartida es un modo de cooperación en el que tanto proveedores como clientes asumen las responsabilidades de seguridad y cumplimiento de los servicios en nube.
Los proveedores gestionan la infraestructura en la nube y proporcionan hardware y software seguros para garantizar la disponibilidad del servicio. Los clientes protegen sus datos y aplicaciones, al tiempo que cumplen los requisitos de conformidad correspondientes.
Los proveedores son responsables de los servicios y funciones y deben:
- Establecer y mantener una infraestructura segura, incluidas redes, servidores y dispositivos de almacenamiento.
- Proporcionar plataformas subyacentes confiables para garantizar la seguridad del tiempo de ejecución para el entorno.
- Proporcionar autenticación de identidades y control de acceso para garantizar que sólo los usuarios autorizados puedan acceder a los servicios en nube y que los inquilinos estén aislados entre sí.
- Proporcionar respaldos de seguridad y recuperación de desastres fiables para evitar la pérdida de datos debida a fallos del hardware o desastres naturales.
- Proporcionar servicios transparentes de supervisión y respuesta a incidentes, actualizaciones de seguridad y parches de vulnerabilidad.
Los clientes deben:
- Encriptar datos y aplicaciones para garantizar la confidencialidad y la integridad.
- Asegurarse de que el software de la aplicación de IA se actualice de forma segura y de que se corrijan las vulnerabilidades.
- Cumplir con las regulaciones relacionadas, como GDPR, HIPAA y PCI DSS.
- Controle el acceso para garantizar que solo los usuarios autorizados puedan acceder y gestionar recursos como los servicios en línea.
- Monitorear y reportar cualquier actividad anormal y tomar acciones oportunas.
Responsabilidades de seguridad en el despliegue de inferencias
- Proveedores
- Corregir los parches relacionados con los ECS subyacentes.
- Actualizar el K8S y corregir vulnerabilidades.
- Realizar el mantenimiento del ciclo de vida del sistema operativo de VM.
- Garantizar la seguridad y el cumplimiento de la plataforma de inferencia de ModelArts.
- Mejorar la seguridad de los servicios de aplicaciones de contenedor.
- Actualizar el entorno de tiempo de ejecución del modelo y corregir las vulnerabilidades periódicamente.
- Clientes
- Autorizar el uso de recursos y controlar el acceso.
- Garantizar la seguridad de las aplicaciones, su cadena de suministro y sus dependencias mediante el escaneo, la auditoría y la verificación de acceso.
- Minimizar los permisos y limitar la entrega de credenciales.
- Garantizar la seguridad de las aplicaciones de IA (imágenes personalizadas, modelos de OBS y dependencias) durante el tiempo de ejecución.
- Actualizar y corregir vulnerabilidades de manera oportuna.
- Almacenar datos confidenciales de forma segura, como credenciales.
Prácticas recomendadas para la seguridad de despliegue de inferencia
- Autorización de servicio externo
La inferencia de ModelArts requiere autorización de otros servicios en la nube. Usted solo puede otorgar los permisos requeridos en función de sus necesidades. Por ejemplo, puede otorgar permiso de acceso en un bucket de OBS a un tenant para la gestión del modelo.
- Autorización de recursos internos
La inferencia de ModelArts admite un control de permisos detallado. Puede configurar los permisos para los usuarios en función de las necesidades reales para restringir los permisos en algunos recursos.
- Gestión de aplicaciones de IA
Para desacoplar los modelos de las imágenes y proteger los activos del modelo, puede importar aplicaciones de IA de forma dinámica desde entrenamientos u OBS. Es necesario actualizar los paquetes de dependencia de las aplicaciones de IA y corregir las vulnerabilidades de los paquetes de código abierto o de terceros. La información sensible relacionada con las aplicaciones de IA debe desacoplarse y configurarse durante el despliegue. Seleccione el entorno de tiempo de ejecución recomendado por ModelArts. Los entornos anteriores pueden presentar vulnerabilidades de seguridad.
Puede seleccionar imágenes de confianza abiertas al crear aplicaciones AI a partir de una imagen de contenedor, por ejemplo, imágenes de OpenEuler, Ubuntu y NVIDIA. Cree usuarios no root en lugar de usuarios root para ejecutar una imagen. En la imagen solo se instala el paquete de seguridad necesario durante el tiempo de ejecución. Reduzca el tamaño de la imagen y actualice el paquete de instalación a la última versión libre de vulnerabilidades. Desacople la información sensible de las imágenes durante el despliegue de servicio. No utilice directamente la información en Dockerfile. Realice análisis de seguridad en las imágenes periódicamente e instale parches para corregir vulnerabilidades. Para facilitar el reporte de alarmas y la rectificación de fallas, agregue una interfaz de verificación de estado y asegúrese de que el estado del servicio se pueda devolver correctamente. Para garantizar la seguridad de los datos del servicio, utilice flujos de transmisión de HTTPS y suites de encriptaciones confiables para contenedores.
- Despliegue de modelos
Para evitar que los servicios se sobrecarguen o se desaprovechen, establezca las especificaciones adecuadas de los nodos de cálculo durante el despliegue. No escuche otros puertos del contenedor. Si es necesario acceder a otros puertos localmente, escúchelos en localhost. No transfiera directamente información confidencial con variables de entorno. Cifrar la información confidencial con el componente de encriptación antes de la transmisión de datos.
La clave de autenticación de aplicaciones es una credencial de acceso para servicios en tiempo real. Debe conservar correctamente la clave de la aplicación.