Post

AWS SAA 덤프 문제 풀이 2차 1

AWS SAA 덤프 문제 풀이 2차 1

문제 1-1

한 회사는 여러 대륙에 걸쳐 도시의 기온, 습도, 기압 데이터를 수집합니다. 각 사이트에서 하루에 수집되는 평균 데이터 양은 500GB입니다. 각 사이트는 고속 인터넷 연결을 갖추고 있습니다. 회사는 가능한 한 빠르게 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 집계하기를 원합니다. 솔루션은 운영 부담을 최소화해야 합니다. 어떤 솔루션이 이러한 요구사항을 충족합니까?

선택지

A: 대상 Amazon S3 버킷에서 S3 전송 가속(S3 Transfer Acceleration)을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.   B: 각 사이트에서 가장 가까운 리전의 Amazon S3 버킷에 데이터를 업로드합니다. S3 크로스-리전 복제(CRR)를 사용하여 객체를 대상 S3 버킷으로 복사한 다음 원본 S3 버킷에서 데이터를 삭제합니다.

C: 각 사이트에서 가장 가까운 리전으로 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 데이터를 전송합니다. S3 크로스-리전 복제를 사용하여 객체를 대상 S3 버킷으로 복사합니다.   D: 각 사이트에서 가장 가까운 리전의 Amazon EC2 인스턴스로 데이터를 업로드합니다. 데이터를 Amazon EBS 볼륨에 저장하고 정기적으로 EBS 스냅샷을 생성하여 대상 S3 버킷이 있는 리전으로 복사한 다음 해당 리전에서 EBS 볼륨을 복원합니다.

정답 정답: 1

문제 1-2

회사는 자체 애플리케이션의 로그 파일을 분석할 수 있어야 합니다. 로그는 JSON 형식으로 Amazon S3 버킷에 저장되어 있습니다. 쿼리는 단순하며 요청 시(온디맨드) 실행됩니다. 솔루션스 아키텍트는 기존 아키텍처에 최소한의 변경으로 분석을 수행해야 합니다. 운영 부담을 최소화하면서 이 요구사항을 충족하려면 어떻게 해야 합니까?

선택지

  1. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳으로 로드하고 필요에 따라 SQL 쿼리를 실행합니다.
  2. Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다.
  3. Amazon Athena를 Amazon S3와 직접 사용하여 필요에 따라 쿼리를 실행합니다.
  4. AWS Glue를 사용하여 로그를 카탈로그화합니다. 필요 시 Amazon EMR의 일시적인 Apache Spark 클러스터를 사용하여 SQL 쿼리를 실행합니다.
정답 정답: 3 **쿼리는 단순**: redsift는 오버헤드가 큼

문제 1-3

회사는 AWS Organizations를 사용하여 부서별로 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서를 포함한 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations 내의 조직에 속한 계정의 사용자로만 제한하려고 합니다. 가장 적은 운영 부담으로 이 요구사항을 충족하는 솔루션은 무엇입니까?

  1. S3 버킷 정책에 조직 ID를 참조하도록 aws:PrincipalOrgID 글로벌 조건 키를 추가합니다.

  2. 각 부서에 대해 조직 단위(OU)를 생성합니다. S3 버킷 정책에 aws:PrincipalOrgPaths 글로벌 조건 키를 추가합니다.

  3. AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 그에 따라 S3 버킷 정책을 업데이트합니다.

  4. S3 버킷에 액세스해야 하는 각 사용자에 태그를 지정합니다. S3 버킷 정책에 aws:PrincipalTag 글로벌 조건 키를 추가합니다.

정답 정답: 1

문제 1-4

애플리케이션이 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷에 연결하지 않고 S3 버킷에 액세스해야 합니다. 어떤 솔루션이 Amazon S3에 대한 프라이빗 네트워크 연결을 제공합니까?  

  1. S3 버킷에 대해 게이트웨이 VPC 엔드포인트를 생성합니다.

  2. 로그를 Amazon CloudWatch Logs로 스트리밍한 다음 로그를 S3 버킷으로 내보냅니다.

  3. S3 액세스를 허용하도록 Amazon EC2에 인스턴스 프로파일을 생성합니다.

  4. S3 엔드포인트에 액세스하기 위해 프라이빗 링크를 사용하는 Amazon API Gateway API를 생성합니다.

정답 정답: 1

문제 1-5

한 회사는 단일 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅하며 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하고 있습니다. 확장성과 가용성을 개선하기 위해 회사는 아키텍처를 복제하여 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하고 둘 다 애플리케이션 로드 밸런서 뒤에 배치했습니다. 이 변경 후 사용자는 사이트를 새로고침할 때마다 문서의 한 부분 집합만 보이거나 다른 집합만 보일 뿐, 한 번에 모든 문서를 볼 수 없다고 보고했습니다. 사용자가 한 번에 모든 문서를 보도록 하려면 솔루션 아키텍트는 무엇을 제안해야 합니까?

  1. 데이터를 복사하여 두 EBS 볼륨 모두 모든 문서를 포함하도록 합니다
  2. 애플리케이션 로드 밸런서를 구성하여 사용자를 문서가 있는 서버로 유도합니다
  3. 두 EBS 볼륨의 데이터를 Amazon EFS(파일 스토리지)로 복사합니다. 애플리케이션을 수정하여 새 문서를 Amazon EFS에 저장하도록 변경합니다
  4. 애플리케이션 로드 밸런서를 구성하여 요청을 두 서버로 모두 전송하고 각 문서를 올바른 서버에서 반환하도록 합니다
정답 정답: 3

문제 1-6

한 회사는 온프레미스 파일 스토리지(파일 스토리지)에 NFS로 대용량 비디오 파일을 저장합니다. 각 비디오 파일 크기는 1 MB에서 500 GB이며 총 저장 용량은 70 TB이고 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3(객체 스토리지)로 마이그레이션하기로 결정했습니다. 회사는 가능한 한 빨리 마이그레이션을 완료해야 하며 네트워크 대역폭을 가능한 한 적게 사용해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

  1. S3 버킷을 생성합니다. S3 버킷에 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 로컬에서 S3 버킷으로 복사합니다.

  2. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 수령합니다. Snowball Edge 클라이언트를 사용하여 디바이스로 데이터를 전송합니다. 디바이스를 반환하면 AWS가 데이터를 Amazon S3로 가져옵니다.

  3. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위해 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유를 S3 버킷으로 포인트합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.

  4. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위해 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유를 S3 버킷으로 포인트합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.

정답 정답: 2

문제 1-7

한 회사에는 들어오는 메시지를 수집하는 애플리케이션이 있습니다. 그 후 수십 개의 다른 애플리케이션 및 마이크로서비스가 이 메시지를 빠르게 소비합니다. 메시지 수는 극적으로 변동하며 때로는 초당 100,000건으로 갑자기 증가합니다. 회사는 솔루션을 분리하고 확장성을 높이길 원합니다. 어떤 솔루션이 이러한 요구사항을 충족합니까?

  1. 메시지를 Amazon Kinesis Data Analytics에 보존합니다. 소비자 애플리케이션이 메시지를 읽고 처리하도록 구성합니다.
  2. 수집 애플리케이션을 Amazon EC2 인스턴스에 배포하고 자동 확장 그룹을 사용하여 CPU 지표 기반으로 EC2 인스턴스 수를 확장합니다.
  3. 메시지를 단일 샤드로 Amazon Kinesis Data Streams에 기록합니다. AWS Lambda 함수를 사용하여 메시지를 전처리하고 Amazon DynamoDB에 저장합니다. 소비자 애플리케이션은 DynamoDB에서 읽어 메시지를 처리하도록 구성합니다.
  4. 메시지를 Amazon Simple Notification Service(Amazon SNS) 주제에 게시하고 여러 Amazon Simple Queue Service(Amazon SQS) 구독을 구성합니다. 소비자 애플리케이션은 큐에서 메시지를 처리하도록 구성합니다.
정답 정답: 4

문제 1-8

한 회사가 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 가변적인 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨트 노드에 작업을 조정하는 주 서버로 구성됩니다. 회사는 복원력(장애 허용) 및 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다. 솔루션 아키텍트는 이러한 요구사항을 충족하도록 아키텍처를 어떻게 설계해야 합니까?

  A: 작업의 대상으로 Amazon Simple Queue Service (Amazon SQS) 큐를 구성합니다. 컴퓨트 노드는 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. EC2 자동 확장은 예약 기반으로 구성합니다. B: 작업의 대상으로 Amazon Simple Queue Service (Amazon SQS) 큐를 구성합니다. 컴퓨트 노드는 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. EC2 자동 확장은 큐 길이(대기열 크기)에 기반하여 구성합니다. C: 주 서버와 컴퓨트 노드를 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. EC2 자동 확장은 주 서버의 부하에 기반하여 구성합니다. D: 주 서버와 컴퓨트 노드를 자동 확장 그룹으로 관리되는 Amazon EC2 인스턴스로 구현합니다. 작업의 대상으로 Amazon EventBridge(구 Amazon CloudWatch Events)를 구성합니다. EC2 자동 확장은 컴퓨트 노드의 부하에 기반하여 구성합니다.

정답 정답: 2

문제 1-9

한 회사는 데이터 센터에서 SMB 파일 서버를 운영하고 있습니다. 파일 서버는 대용량 파일을 저장하며, 파일이 생성된 후 처음 며칠 동안은 빈번하게 액세스됩니다. 7일 이후에는 파일에 대한 액세스가 거의 없습니다. 전체 데이터 크기가 증가하여 회사의 총 저장 공간 용량에 근접하고 있습니다. 솔루션 설계자는 가장 최근에 액세스된 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 또한 향후 저장소 문제를 방지하기 위해 파일 라이프사이클 관리를 제공해야 합니다. 어떤 솔루션이 이러한 요구사항을 충족합니까?

 

  1. AWS DataSync를 사용하여 SMB 파일 서버에서 7일 이상된 데이터를 AWS로 복사합니다.
  2. 회사의 저장 공간을 확장하기 위해 Amazon S3 파일 게이트웨이를 생성합니다. S3 라이프사이클 정책을 만들어 데이터를 7일 후에 S3 Glacier Deep Archive로 전환합니다.
  3. 회사의 저장 공간을 확장하기 위해 Amazon FSx for Windows File Server 파일 시스템을 생성합니다.
  4. 각 사용자 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스하도록 합니다. S3 라이프사이클 정책을 만들어 데이터를 7일 후에 S3 Glacier Flexible Retrieval로 전환합니다.
정답 정답: 2
This post is licensed under CC BY 4.0 by the author.

Trending Tags