본문 바로가기
[AWSEXAM]/[AWS] SAA-C03

[AWS][SAA][EXAMTOPICS][C03] Question 1

by SAMSUNG Metaverse-Cloud 2022. 11. 22.
728x90

A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection.
The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity.
Which solution meets these requirements?

  • A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.
  • B. Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
  • C. Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
  • D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.

한 회사가 여러 대륙에 걸쳐 도시의 온도, 습도 및 기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 객체를 대상 S3 버킷에 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. AWS Snowball Edge Storage Optimized 장치 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 객체를 대상 S3 버킷에 복사합니다.
  • D. 각 사이트에서 가장 가까운 리전의 Amazon EC2 인스턴스로 데이터를 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 생성하여 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.

온도, 습도 기압에 대한 데이터를 수집한다. 또한 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB이며, 각 사이트에는 고속 인터넷 연결이 있다고 한다.

하지만 기업은 해당 데이터를 단일 S3 버킷에 가능한 한 빨리 집계하려고 하며, 운영 복잡성을 최소화해야 한다고 한다.

고속 인터넷 연결은 이미 있기 때문에, 속도에 대한 문제는 아닌것이라 판단된다. 또한 운영 복잡성을 최소화해야 하면, 여러가지의 솔루션을 적용하기에는 무리가 따른다.

우선 선택지 B의 경우는 가장 가까운 리전의 S3 버킷에 업로드를 하고, S3 교차 리전 복제를 사용하여 객체를 대상 S3 버킷에 복하는며, 원본 S3 버킷에서 데이터를 제거 한다고 하는데, 이는 운영 복잡성이 높은 솔루션이기 때문에 정답과는 거리가 멀다.

선택지 C의 경우 Snowball Edge Storage Optimized는 Snowball Edge 디바이스를 사용하여 Amazon S3에서 대량의 데이터를 송수신한다. 작업 관리 API 또는 AWS Snow Family를 통해 구축을 하는데, 운영 복잡성에 따라 적합하지 않다.

선택지 A와 D를 봤을때 우선 S3 Transfer Acceleration을 보면 

 

Amazon S3 Transfer Acceleration을 사용하여 빠르고 안전한 파일 전송 구성

 

Amazon S3 Transfer Acceleration은 클라이언트와 S3 버킷 간의 장거리 파일 전송을 파일을 빠르고 쉽고 안전하게 전송할 수 있는 버킷 수준 기능입니다. Transfer Acceleration은 전 세계에서 S3 버킷으로 전송 속도를 최적화하도록 설계되었습니다. Transfer Acceleration은 Amazon CloudFront에서 전 세계에 분산된 엣지 로케이션을 활용합니다. 엣지 로케이션에 도착한 데이터는 최적화된 네트워크 경로를 통해 Amazon S3로 라우팅됩니다.

Transfer Acceleration을 사용하면 추가 데이터 전송 요금이 적용될 수 있습니다. 요금에 대한 자세한 내용은 Amazon S3 요금을 참조하세요.

 

 와 같이 설명되고 있다. 단일 S3 버킷에 업로드하며, 운영 복잡성의 경우도 Transfer Acceleration만 적용하기 때문에 조건에 모두 부합하는 선택지 A가 정답이다.

 

 

https://docs.aws.amazon.com/ko_kr/AmazonS3/latest/userguide/transfer-acceleration.html

 

Amazon S3 Transfer Acceleration을 사용하여 빠르고 안전한 파일 전송 구성 - Amazon Simple Storage Service

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com

https://docs.aws.amazon.com/ko_kr/snowball/latest/developer-guide/device-differences.html

 

AWS Snowball엣지 디바이스 차이점 - AWS Snowball Edge 개발자 안내서

이 가이드에서는 Snowball Edge 디바이스를 언급할 때 디바이스의 모든 선택적 변형을 참조합니다. 특정 정보가 하나 이상의 선택적 구성 (예: GPU를 사용한 Snowball Edge Compute Optimized 옵션에 온보드 GPU

docs.aws.amazon.com

 

728x90