Post

AWS SAA 덤프 문제 풀이 7

AWS SAA 덤프 문제 풀이 7

문제 7-1

회사는 같은 AWS 리전 내의 테스트 환경으로 대량의 프로덕션 데이터를 복제(clone)하는 능력을 향상하려고 합니다. 데이터는 Amazon EC2 인스턴스의 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장됩니다. 복제된 데이터에 대한 수정은 프로덕션 환경에 영향을 주어서는 안 됩니다. 이 데이터를 접근하는 소프트웨어는 일관되게 높은 I/O 성능을 필요로 합니다. 솔루션즈 아키텍트는 프로덕션 데이터를 테스트 환경으로 복제하는 데 필요한 시간을 최소화해야 합니다. 다음 중 요구사항을 충족하는 솔루션은 무엇입니까?

선택지

  1. 프로덕션 EBS 볼륨의 EBS 스냅샷을 생성합니다. 스냅샷을 테스트 환경의 EC2 인스턴스 스토어 볼륨으로 복원합니다.

  2. 프로덕션 EBS 볼륨에 EBS Multi-Attach 기능을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 생성합니다. 프로덕션 EBS 볼륨을 테스트 환경의 EC2 인스턴스에 연결합니다.

  3. 프로덕션 EBS 볼륨의 EBS 스냅샷을 생성합니다. 새 EBS 볼륨을 생성하고 초기화합니다. 스냅샷에서 볼륨을 복원하기 전에 새 EBS 볼륨을 테스트 환경의 EC2 인스턴스에 연결합니다.

  4. 프로덕션 EBS 볼륨의 EBS 스냅샷을 생성합니다. EBS 스냅샷에 대해 EBS Fast Snapshot Restore 기능을 활성화합니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 새 EBS 볼륨을 테스트 환경의 EC2 인스턴스에 연결합니다.

정답 정답: 4

용어 및 개념 정리

  • EBS Fast Snapshot Restore(FSR): 스냅샷으로부터 복원된 새 EBS 볼륨이 즉시 초기화되어 초기화 지연 없이 일관된 높은 I/O 성능 제공
    • 복제시간 및 성능 최적화

오답해설

  1. 인스턴스 스토어는 스냅샷에서 직접 복원하는 표준 대상이 아님.
    • 내구성 및 관리 측면에서 X
  2. Multi-Attach로 동일 볼륨을 공유하면 테스트 환경의 수정이 프로덕션에 영향을 줌
  3. 스냅샷에서 생성한 EBS 볼륨은 초기 접근시 지연 발생

문제 7-2

한 전자상거래 회사는 AWS에서 하루에 한 가지 상품만을 24시간 동안 특징으로 하는 원딜어데이(one-deal-a-day) 웹사이트를 출시하려고 합니다. 회사는 피크 시간 동안 시간당 수백만 건의 요청을 밀리초 수준의 지연으로 처리할 수 있기를 원합니다. 어떤 솔루션이 가장 적은 운영 부담으로 이 요구사항을 충족할까요?

선택지

  1. Amazon S3를 사용하여 전체 웹사이트를 서로 다른 S3 버킷에 호스팅합니다. Amazon CloudFront 배포를 추가하고 S3 버킷을 배포의 오리진으로 설정합니다. 주문 데이터는 Amazon S3에 저장합니다.

  2. 전체 웹사이트를 Amazon EC2 인스턴스에 배포하여 여러 가용 영역에 걸쳐 Auto Scaling 그룹으로 실행합니다. 웹사이트 트래픽을 분산하기 위해 Application Load Balancer(ALB)를 추가하고 백엔드 API용으로 또 다른 ALB를 추가합니다. 데이터는 Amazon RDS for MySQL에 저장합니다.

  3. 전체 애플리케이션을 컨테이너로 마이그레이션합니다. 컨테이너를 Amazon Elastic Kubernetes Service(Amazon EKS)에서 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 급증을 처리하기 위해 파드 수를 증가 및 감소시킵니다. 데이터는 Amazon RDS for MySQL에 저장합니다.
  4. 웹사이트의 정적 콘텐츠는 Amazon S3 버킷에 호스팅하고 Amazon CloudFront 배포를 배포합니다. S3 버킷을 오리진으로 설정합니다. 백엔드 API는 Amazon API Gateway와 AWS Lambda 함수를 사용합니다. 데이터는 Amazon DynamoDB에 저장합니다.
정답 나의 정답: 2 정답: 4

용어 및 개념 정리

API Gateway + Lambda(서버리스)와 Amazon DynamoDB(관리형 NoSQL)는 자동 확장성과 높은 처리량을 제공해 운영 부담을 최소화한다.

DynamoDB 특징

  • 밀리초 응답 보장
  • 완전 관리형, 운영부담 X
  • 단순한 키-값 조회에 최적

오답 이유

  1. 수평 확장 및 관리(운영 부담)가 큼..

문제 7-3

한 솔루션스 아키텍트가 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하기 위해 Amazon S3를 사용하고 있습니다. 미디어 파일은 가용 영역(Availability Zone) 손실에 대비해 내구성이 있고 복원력이 있어야 합니다. 일부 파일은 자주 접근되며 다른 파일은 예측 불가능한 패턴으로 드물게 접근됩니다. 솔루션스 아키텍트는 미디어 파일의 저장 및 검색 비용을 최소화해야 합니다. 다음 중 이러한 요구사항을 만족하는 스토리지 옵션은 무엇입니까?

선택지

  1. S3 스탠다드
  2. S3 인텔리전트-티어링
  3. S3 스탠다드-저빈도 액세스 (S3 Standard-IA)
  4. S3 원존-저빈도 액세스 (S3 One Zone-IA)
정답 정답: 2

용어 및 개념 정리

S3 스토리지 클래스 비교 (중요!! 꼭 외워야할 )

S3 Standard

  • 자주 접근하는 데이터
  • 비용 높음, 조회 비용 없음 - 멀티 AZ

S3 Intelligent-Tiering

  • 접근 패턴이 불규칙하거나 예측 불가할 때
  • 자동으로 최적 계층으로 이동 - 멀티 AZ
  • 조회 비용 없음!!!

S3 Standard-IA

  • 자주 접근하지 않지만 빠른 조회 필요
  • 저장 비용 낮음, 조회 비용 있음 - 멀티 AZ

S3 One Zone-IA

  • 자주 접근하지 않고 단일 AZ로도 충분할 때
  • 가장 저렴하지만 AZ 장애 시 데이터 손실 위험 - 단일 AZ (재생성 가능한 데이터에만 사용)

S3 Glacier Instant Retrieval

  • 분기에 한 번 정도 접근하는 아카이브
  • 즉시 조회 가능

S3 Glacier Deep Archive

  • 거의 접근 안 하는 장기 보관용
  • 조회에 12시간까지 걸릴 수 있음 - 가장 저렴한 스토리지

문제 7-4

한 회사는 Amazon S3 Standard 스토리지에 백업 파일을 저장하고 있습니다. 파일은 1개월 동안 자주 액세스됩니다. 그러나 1개월 이후에는 파일에 액세스되지 않습니다. 회사는 파일을 무기한 보관해야 합니다. 어떤 스토리지 솔루션이 이러한 요구사항을 가장 비용 효율적으로 충족합니까?

  1. S3 Intelligent-Tiering을 구성하여 객체를 자동으로 이전하도록 설정합니다.
  2. S3 라이프사이클 구성을 생성하여 객체를 S3 Standard에서 1개월 후 S3 Glacier Deep Archive로 이전합니다.
  3. S3 라이프사이클 구성을 생성하여 객체를 S3 Standard에서 1개월 후 S3 Standard-Infrequent Access(S3 Standard-IA)로 이전합니다.
  4. S3 라이프사이클 구성을 생성하여 객체를 S3 Standard에서 1개월 후 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 이전합니다.

전 문제랑 같은 개념!

정답 정답: 2
This post is licensed under CC BY 4.0 by the author.

Trending Tags