본문 바로가기
[AWSEXAM]/[AWS] SAA-C03

[AWS][SAA][EXAMTOPICS][C03] Question 8

by SAMSUNG Metaverse-Cloud 2022. 11. 23.
728x90

 

A company is migrating a distributed application to AWS. The application serves variable workloads. The legacy platform consists of a primary server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes resiliency and scalability.
How should a solutions architect design the architecture to meet these requirements?

  • A. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling to use scheduled scaling.
  • B. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling based on the size of the queue.
  • C. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure AWS CloudTrail as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the primary server.
  • D. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure Amazon EventBridge (Amazon CloudWatch Events) as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the compute nodes.

 

회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 이 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 회사는 복원력과 확장성을 최대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?

  • A. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
  • B. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
  • C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버 및 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. 기본 서버의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
  • D. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버 및 컴퓨팅 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨팅 노드의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.

 

분산 애플리케이션은 다양한 워크로드를 처리하는데 이를  AWS로 마이그레이션하려고 한다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성되며 회사는 복원력과 확장성을 최대화하는 솔루현으로 애플리케이션을 현대화 하려고 한다.

우선 선택지 A에서 AutoScaling을 예약하는것은 이치에 맞지 않는다.나머지 선택지 C와 D에서 설명되고 있는 CloudTrail과 EventBridge는 해당 상황에 맞지 않는 선택지이므로 정답에서 제외된다.

지문에서 설명되는 상황에 다양한 워크로드를 처리하고 있다고 하는데 이에 따라 예약된 조정이 아니라 대기열 크기에 따라 Auto Scaling하는것이 옳다고 생각된다.

 

정답 B "업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다."

 

https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/view/2/

 

ExamTopics - Biggest Actual IT Exams Database - Validation

Want to unlock features that will help you study for AWS Certified Solutions Architect - Associate SAA-C03 and support ExamTopics? We work hard to maintain the website and the database. By buying Contributor Access for yourself, you'll help us maintain and

www.examtopics.com

 

728x90