Capacitación para la certificación de AWS Assistant Architect | Introducción avanzada a S3

Fuente de video: Estación B "Asistente de arquitecto de soluciones certificado por AWS, nivel SAA-C03"

Organice el contenido del curso del profesor y las notas de las pruebas mientras estudia, y compártalas con todos. Cualquier infracción será eliminada. ¡Gracias por su apoyo!

Adjunte una publicación de resumen: Capacitación de certificación de AWS Assistant Architect | Resumen


Reglas del ciclo de vida (con S3 Analytics)

Amazon S3: moverse entre clases de almacenamiento

  • Puede hacer la transición de objetos entre clases de almacenamiento
  • Para objetos a los que se accede con poca frecuencia, muévalos a Standard IA
  • Para los objetos de archivo a los que no necesita un acceso rápido, muévalos a Glacier o Glacier Deep Archive
  • Los objetos en movimiento se pueden automatizar mediante reglas de ciclo de vida

Amazon S3 - Reglas del ciclo de vida

  • Acciones de transición: configurar objetos para la transición a otra clase de almacenamiento. Mover objetos a la clase IA estándar 60 días después de la creación. Mover a Glacier para archivarlos después de 6 meses.
  • Acciones de caducidad: configure los objetos para que caduquen (eliminen) después de un tiempo. Los archivos de registro de acceso se pueden configurar para que se eliminen después de 365 días. Se pueden usar para eliminar versiones antiguas de archivos (si el control de versiones está habilitado). Se pueden usar para eliminar cargas multiparte incompletas.
  • Se pueden crear reglas para un determinado prefijo (ejemplo: s3://mybucket/mp3/*)
  • Se pueden crear reglas para ciertos objetos Etiquetas (ejemplo: Departamento: Finanzas)

Amazon S3: reglas del ciclo de vida (escenario 1)

  • Su aplicación en EC2 crea miniaturas de imágenes después de cargar las fotos de perfil en Amazon S3. Estas miniaturas se pueden recrear fácilmente y solo deben conservarse durante 60 días. Las imágenes de origen deberían poder recuperarse inmediatamente durante estos 60 días y, después, el usuario puede esperar hasta 6 horas. ¿Cómo diseñarías esto?
  • Las imágenes de origen S3 pueden estar en Estándar, con una configuración de ciclo de vida para hacer la transición a Glacier después de 60 días
  • Las miniaturas de S3 pueden estar en One-Zone IA, con una configuración de ciclo de vida para hacerlas caducar (eliminarlas) después de 60 días

Amazon S3: reglas del ciclo de vida (escenario 2)

  • Una regla en su empresa establece que debería poder recuperar sus objetos S3 eliminados inmediatamente durante 30 días, aunque esto puede suceder en raras ocasiones. Después de este tiempo, y hasta por 365 días, los objetos eliminados deberían poder recuperarse dentro de las 48 horas.
  • Habilite el control de versiones de S3 para tener versiones de objetos, de modo que los "objetos eliminados" estén ocultos por un "marcador de eliminación" y puedan recuperarse
  • Transición de las "versiones no actuales" del objeto al Estándar IA
  • Transición posterior de las "versiones no actuales" a Glacier Deep Archive

Análisis de Amazon S3: análisis de clase de almacenamiento

  • Ayudarlo a decidir cuándo hacer la transición de objetos a la clase de almacenamiento correcta
  • Recomendaciones para Standard y Standard IANO funciona para One-Zone IA o Glacier
  • El informe se actualiza diariamente
  • 24 a 48 horas para empezar a ver análisis de datos
  • ¡Buen primer paso para armar reglas de ciclo de vida (o mejorarlas)!

El solicitante de S3 paga

S3 - El solicitante paga

  • En general, los propietarios de depósitos pagan todos los costos de almacenamiento y transferencia de datos de Amazon S3 asociados con su depósito.
  • Con depósitos de pago del solicitante, el solicitante, en lugar del propietario del depósito, paga el costo de la solicitud y la descarga de datos del depósito.
  • Útil cuando desea compartir grandes conjuntos de datos con otras cuentas
  • El solicitante debe estar autenticado en AWS (no puede ser anónimo)

Notificaciones de eventos S3

  • S3:Objeto creado, S3:Objeto eliminado, S3:ObjetoRestaurar, S3:Replicación...
  • Filtrado de nombres de objetos posible (*.jpg)
  • Caso de uso:  generar miniaturas de imágenes cargadas en S3
  • Puede crear tantos "eventos S3" como desee
  • Las notificaciones de eventos de S3 generalmente entregan eventos en segundos, pero a veces pueden demorar un minuto o más.

Notificación de eventos de S3 con Amazon EventBridge

  • Opciones de filtrado avanzadas con reglas JSON (metadatos, tamaño del objeto, nombre...)
  • Destinos Múltiples - ex Step Functions, Kinesis Streams / Firehose...
  • Capacidades de EventBridge: archivo, eventos de reproducción, entrega confiable

Rendimiento S3

S3 - Rendimiento de referencia

  • Amazon S3 escala automáticamente a altas tasas de solicitud, latencia de 100 a 200 ms
  • Su aplicación puede lograr al menos 3500 solicitudes PUT/COPY/POST/DELETE y 5500 GET/HEAD por segundo por prefijo en un depósito
  • No hay límites para la cantidad de prefijos en un cubo
  • Ejemplo (ruta del objeto => prefijo): depósito/carpeta1/sub1/archivo => /carpeta1/sub1/depósito/carpeta1/sub2/archivo => /carpeta1/sub2/depósito/1/archivo => /1/depósito/2 /archivo => /2/
  • Si distribuye las lecturas entre los cuatro prefijos de manera uniforme, puede lograr 22 000 solicitudes por segundo para GET y HEAD

Rendimiento S3

  • Carga de varias partes: recomendada para archivos > 100 MB, debe usarse para archivos > 5 GB Puede ayudar a paralelizar las cargas (acelerar las transferencias)
  • Aceleración de transferencia de S3 Aumente la velocidad de transferencia mediante la transferencia de archivos a una ubicación de borde de AWS que reenviará los datos al depósito de S3 en la región de destino Compatible con carga de varias partes

Rendimiento de S3 - Obtenciones de rango de bytes de S3

  • Paralelice los GET solicitando rangos de bytes específicos
  • Mejor resiliencia en caso de fallas

Se puede utilizar para acelerar las descargas.

Se puede usar para recuperar solo datos parciales (por ejemplo, el encabezado de un archivo)

Selección de S3 y selección de glaciar

Selección de S3 y selección de glaciar

  • Recupere menos datos usando SQL realizando un filtrado del lado del servidor
  • Puede filtrar por filas y columnas (instrucciones SQL simples)
  • Menos transferencia de red, menos costo de CPU del lado del cliente

Operaciones por lotes de S3

Operaciones por lotes de S3

  • Realice operaciones masivas en objetos de S3 existentes con una sola solicitud, por ejemplo: modifique los metadatos y las propiedades de los objetos, copie objetos entre depósitos de S3, cifre objetos sin cifrar, modifique ACL, etiquetas, restaure objetos de S3 Glacier, invoque la función Lambda para realizar acciones personalizadas en cada objeto.
  • Un trabajo consta de una lista de objetos, la acción a realizar y parámetros opcionales.
  • S3 Batch Operations administra los reintentos, realiza un seguimiento del progreso, envía notificaciones de finalización, genera informes...
  • Puede usar S3 Inventory para obtener una lista de objetos y usar S3 Select para filtrar sus objetos

Supongo que te gusta

Origin blog.csdn.net/guolianggsta/article/details/131962021
Recomendado
Clasificación