Post

AWS SAA 덤프 문제 풀이 4

AWS SAA 덤프 문제 풀이 4

문제풀기 전

덤프 문제를 최신 버전으로 교체했다. 기존 자료는 현재 출제 경향을 충분히 반영하지 못한다고 판단했기 때문이다. 실제 시험과 유사한 문제 흐름에 적응하기 위해 최신 덤프로 풀이를 진행한다.

처음에는 맞추는 문제가 거의 없었지만, 학습을 이어가면서 점점 정답을 맞히는 비율이 늘고 있다. 맞힌 문제에 대해서는 별도의 해설을 작성하지 않기로 했다.

참고 블로그: https://pottatt0.tistory.com/

문제 4-1

한 회사는 단일 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅하며 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하고 있습니다.
확장성과 가용성을 개선하기 위해 회사는 아키텍처를 복제하여 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하고 둘 다 애플리케이션 로드 밸런서 뒤에 배치했습니다. 이 변경 후 사용자는 사이트를 새로고침할 때마다 문서의 한 부분 집합만 보이거나 다른 집합만 보일 뿐, 한 번에 모든 문서를 볼 수 없다고 보고했습니다.
사용자가 한 번에 모든 문서를 보도록 하려면 솔루션 아키텍트는 무엇을 제안해야 합니까?

선택지

  1. 데이터를 복사하여 두 EBS 볼륨 모두 모든 문서를 포함하도록 합니다
  2. 애플리케이션 로드 밸런서를 구성하여 사용자를 문서가 있는 서버로 유도합니다
  3. 두 EBS 볼륨의 데이터를 Amazon EFS(파일 스토리지)로 복사합니다. 애플리케이션을 수정하여 새 문서를 Amazon EFS에 저장하도록 변경합니다
  4. 애플리케이션 로드 밸런서를 구성하여 요청을 두 서버로 모두 전송하고 각 문서를 올바른 서버에서 반환하도록 합니다
정답 정답: 3

문제 4-2

한 회사는 온프레미스 파일 스토리지(파일 스토리지)에 NFS로 대용량 비디오 파일을 저장합니다.
각 비디오 파일 크기는 1 MB에서 500 GB이며 총 저장 용량은 70 TB이고 더 이상 증가하지 않습니다.
회사는 비디오 파일을 Amazon S3(객체 스토리지)로 마이그레이션하기로 결정했습니다.
회사는 가능한 한 빨리 마이그레이션을 완료해야 하며 네트워크 대역폭을 가능한 한 적게 사용해야 합니다.
어떤 솔루션이 이 요구사항을 충족합니까?

선택지

  1. S3 버킷을 생성합니다. S3 버킷에 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 로컬에서 S3 버킷으로 복사합니다.

  2. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 수령합니다. Snowball Edge 클라이언트를 사용하여 디바이스로 데이터를 전송합니다. 디바이스를 반환하면 AWS가 데이터를 Amazon S3로 가져옵니다.

  3. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위해 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유를 S3 버킷으로 포인트합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
  4. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위해 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유를 S3 버킷으로 포인트합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
정답 정답: 2

문제 4-3

한 회사에는 들어오는 메시지를 수집하는 애플리케이션이 있습니다.
그 후 수십 개의 다른 애플리케이션 및 마이크로서비스가 이 메시지를 빠르게 소비합니다. 메시지 수는 극적으로 변동하며 때로는 초당 100,000건으로 갑자기 증가합니다. 회사는 솔루션을 분리하고 확장성을 높이길 원합니다.
어떤 솔루션이 이러한 요구사항을 충족합니까?

선택지

  1. 메시지를 Amazon Kinesis Data Analytics에 보존합니다. 소비자 애플리케이션이 메시지를 읽고 처리하도록 구성합니다.
  2. 수집 애플리케이션을 Amazon EC2 인스턴스에 배포하고 자동 확장 그룹을 사용하여 CPU 지표 기반으로 EC2 인스턴스 수를 확장합니다.
  3. 메시지를 단일 샤드로 Amazon Kinesis Data Streams에 기록합니다. AWS Lambda 함수를 사용하여 메시지를 전처리하고 Amazon DynamoDB에 저장합니다. 소비자 애플리케이션은 DynamoDB에서 읽어 메시지를 처리하도록 구성합니다.
  4. 메시지를 Amazon Simple Notification Service(Amazon SNS) 주제에 게시하고 여러 Amazon Simple Queue Service(Amazon SQS) 구독을 구성합니다. 소비자 애플리케이션은 큐에서 메시지를 처리하도록 구성합니다.
정답 나의 정답: 2 정답: 4

용어 및 개념 정리

  • Amazon Simple Notification Service(Amazon SNS): AWS에서 제공하는 메시지 발행/구독 기반 알림 서비스이다.
    • 완전 관리형
    • 대량 메시지 처리, 실시간 알림에 적합
  • Amazon Simple Queue Service(Amazon SQS): AWS에서 제공하는 메시지 큐(Queue)기반 비동기 처리 서비스이다.
    • 작업을 바로 처리하지 않고 큐에 넣고 나중에 처리
    • 트래픽 폭주 시 버퍼 역할을 한다.

**Amazon FSx for Windows File Server는 Windows용 파일 저장소 서비스**

오답 이유

  1. Kinesis Data Analytics는 실시간 분석용이며 메시지 저장 및 다수의 독립 소비자
    • (요구사항 충족 X)
  2. 애플리케이션 레벨의 확장만 제공하며 다수의 소비자 분리와 소비자별 제어를 제공하지 못한다.
    • (요구사항 충족 X)
  3. 단일 샤드는 초당 100,000건의 처리량을 감당할 수 없다.
    • 오버헤드 증가
    • 처리 지연 문제
  4. O

문제 4-4

한 회사가 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다.
애플리케이션은 가변적인 워크로드를 처리합니다.
레거시 플랫폼은 여러 컴퓨트 노드에 작업을 조정하는 주 서버로 구성됩니다. 회사는 복원력(장애 허용) 및 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 아키텍트는 이러한 요구사항을 충족하도록 아키텍처를 어떻게 설계해야 합니까?

선택지

  1. 작업의 대상으로 Amazon Simple Queue Service (Amazon SQS) 큐를 구성합니다. 컴퓨트 노드는 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. EC2 자동 확장은 예약 기반으로 구성합니다.

  2. 작업의 대상으로 Amazon Simple Queue Service (Amazon SQS) 큐를 구성합니다. 컴퓨트 노드는 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. EC2 자동 확장은 큐 길이(대기열 크기)에 기반하여 구성합니다.

  3. 주 서버와 컴퓨트 노드를 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. EC2 자동 확장은 주 서버의 부하에 기반하여 구성합니다.

  4. 주 서버와 컴퓨트 노드를 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. 작업의 대상으로 Amazon EventBridge(구 Amazon CloudWatch Events)를 구성합니다. EC2 자동 확장은 컴퓨트 노드의 부하에 기반하여 구성합니다.

정답 정답: 2

용어 및 개념 정리

  • Amazon Simple Queue Service (Amazon SQS): 서버끼리 메시지를 안전하게 주고받게 해주는 큐 서비스이다
    • 장애 전파 방지

SQS 흐름
서버 A -> 서버 B 호출하였을 때 만약 B가 죽으면 A도 영향을 동시에 받음
A-> SQS 큐에 할당 -> B 나중에 비동기 처리 (B가 죽어도 A서버는 영향 없음)

큐 길이에 기반한 EC2 자동 확장은 가변 워크로드에 즉각적이고 탄력적인 인스턴스를 제공해준다.

작업 생성 -> SQS 큐 할당 -> EC2 Auto Scaling 그룹 (큐에 작업이 쌓이면 EC2가 자동으로 늘어나고 줄어들면 자동으로 줄어듬)

오답 이유

  1. 예측 불가능한 워크로드에 즉각적 확장성/복원력을 제공하지 못함
  2. O
  3. X
  4. X

문제 4-5

한 회사는 데이터 센터에서 SMB 파일 서버를 운영하고 있습니다.
파일 서버는 대용량 파일을 저장하며, 파일이 생성된 후 처음 며칠 동안은 빈번하게 액세스됩니다. 7일 이후에는 파일에 대한 액세스가 거의 없습니다. 전체 데이터 크기가 증가하여 회사의 총 저장 공간 용량에 근접하고 있습니다. 솔루션 설계자는 가장 최근에 액세스된 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 또한 향후 저장소 문제를 방지하기 위해 파일 라이프사이클 관리를 제공해야 합니다.
어떤 솔루션이 이러한 요구사항을 충족합니까?

선택지

  1. AWS DataSync를 사용하여 SMB 파일 서버에서 7일 이상된 데이터를 AWS로 복사합니다.
  2. 회사의 저장 공간을 확장하기 위해 Amazon S3 파일 게이트웨이를 생성합니다. S3 라이프사이클 정책을 만들어 데이터를 7일 후에 S3 Glacier Deep Archive로 전환합니다.
  3. 회사의 저장 공간을 확장하기 위해 Amazon FSx for Windows File Server 파일 시스템을 생성합니다.
  4. 각 사용자 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스하도록 합니다. S3 라이프사이클 정책을 만들어 데이터를 7일 후에 S3 Glacier Flexible Retrieval로 전환합니다.
정답 나의 정답: 2 정답: 2

문제 4-6

한 회사는 Amazon EC2 인스턴스에서 실행되는 애플리케이션과 Amazon Aurora 데이터베이스를 사용합니다. EC2 인스턴스는 사용자 이름과 암호를 로컬 파일에 저장된 자격증명으로 데이터베이스에 연결합니다. 회사는 자격증명 관리를 위한 운영 부담을 최소화하려고 합니다. 이 목표를 달성하기 위해 솔루션스 아키텍트는 무엇을 해야 합니까?

  1. AWS Secrets Manager를 사용합니다. 자동 회전을 활성화합니다.
  2. AWS Systems Manager 파라미터 스토어를 사용합니다. 자동 회전을 활성화합니다.
  3. AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션을 S3 버킷을 가리키도록 구성합니다.
  4. 각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션을 새 EBS 볼륨을 가리키도록 구성합니다.
정답 나의 정답: 3 정답: 1

용어 및 개념 정리

 Secrets ManagerSSM Parameter Store
목적자격증명 전용일반 설정값 저장
자동회전O (RDS 네이티브)X
비용유료무료
암호화기본 KMS 암호화선택적 암호화
사용 케이스DB 비밀번호, API 키환경변수, 설정값

오답 이유

  1. O
  2. AWS Systems Manager 파라미터 스토어 X
  3. S3에 파일을 저장하는 방식은 저장 시 암호화는 가능하지만 자동 회전, 접근 제어, 감사 등 관리형 기능이 부족해 운용부담이 늘어난다.
    • 오버헤드 증가로 연결
  4. X
This post is licensed under CC BY 4.0 by the author.

Trending Tags