본문 바로가기
Development/GoogleCloud

LinuxAcademy 오답노트

by 폴피드 2020. 4. 6.
728x90
반응형


## You are developing a new application that needs to store and analyze over a petabyte of data in NoSQL format. 
The database needs to offer low latency and millisecond response time. Which product would you choose?

Cloud Bigtable 
- Although both Datastore and Bigtable are NoSQL databases, Bigtable is able to support over a petabyte of data and is useful for high-speed analytics as well, whereas Datastore is not.
BigQuery does not offer low latency and millisecond response time.

BigQuery
- BigQuery could work except that it does not offer the low latency and high performance of Bigtable

## Your company is building a large-scale web application. Each team is responsible for its own service component of the application and wants to manage its own individual projects. You want each service to communicate with the others over RFC1918 address space. What should you do?

Configure a Shared VPC and add each project as a service of the Shared VPC project
- Using a shared VPC allows each team to individually manage their own application resources while enabling each application to communicate with each other securely over RFC1918 address space.

Configure a global load balancer for each project and communicate between each service using the global load balancer IP addresses
- This does not help us. The global load balancer will not help with internal communication between network resources.

## Your company currently hosts an AWS S3 bucket. You need to keep the contents of this bucket in sync with a new Google Cloud Storage bucket to support a backup storage destination. What is the best method to achieve this?

Use Storage Transfer Service to keep both the source and destination in sync
- You can use gsutil rsync to keep two locations in sync. However, the preferred option when working with an AWS S3 bucket is to use the Storage Transfer Service.

Use gsutil rsync commands to keep both locations in sync.
- You can use gsutil rsync to keep two locations in sync. However, the preferred option when working with an AWS S3 bucket is to use the Storage Transfer Service.

## You can use gsutil rsync to keep two locations in sync. However, the preferred option when working with an AWS S3 bucket is to use the Storage Transfer Service.

Migrate your data onto a Transfer Appliance. Use a Transfer Appliance Rehydrator to decrypt the data into Cloud Storage.
- For the quantity of data, you would want to use a Transfer Appliance, then rehydrate the data into Cloud Storage once transferred.

Install gsutil on each server containing data. Use multi-threaded transfers to upload the data into Cloud Storage.
- For the quantity of data, you want to use a Transfer Appliance instead.

## You need to analyze log data from your credit card processing application while staying in compliance with PCI regulations. What is the best method to perform this task?
Using a Squid proxy, have data collected by Stackdriver Logging exported to BigQuery via a sink based on needed log filters.
- The proper model for exporting credit card processing data is to forward from a Squid proxy to Stackdriver Logging and export from Stackdriver Logging into BigQuery.Video for reference: Legal Compliance and Audits

Export data from your on-premises application into BigQuery for analysis.
- To be in compliance PCI DSS regulations, credit card processing log data should be written to Stackdriver Logging from a Squid proxy, not the on-premises application. Video for reference: Legal Compliance and Audits


## You are migrating your on-premises application to Google Cloud. You will use the Cloud VPN service to connect your on-premises systems and Google Cloud until the migration is completed. What should you do to make sure that all network resources remain reachable during the migration?
Use an IP range on your Google Cloud VPC that does not overlap with the range you use on-premises
- You need to ensure that none of your IP ranges overlap each other on either your on-premises or Google Cloud VPC networks.

Use the same IP range on your Google Cloud VPC as you use on-premises for your primary IP range and use a secondary range that does not overlap with the range you use on-premises
- You need to ensure that none of your IP ranges overlap each other on either your on-premises or Google Cloud VPC networks.

## Your company wants to control IAM policies for different departments. The departments must be independent from each other, however, you want to centrally manage the IAM policies for each individual department. How should you approach this?
Use a single Organization with a Folder for each department
- This is the best structure to use. One single organization for the entire company. Organize departments inside folders inside of the single organization. You can then apply a single IAM policy to the single department folder, which will be applied to any projects or subfolders inside of it.

Create a single Organization with multiple projects, each with a central owner
- Instead of multiple projects, you will want to use a Folder for each department with a department IAM policy applied to it, which will allow you more control with individual projects inside of each folder.

## You've created a managed instance group that keeps rebooting its instances every 10 seconds. You have a health check configured with autoscaling disabled. You need to be able to SSH into your individual instances to troubleshoot without them rebooting. What should you do to accomplish this?
Disable the health check for the instance group
- The most likely culprit of these choices is a failed healthcheck restarting or recreating the instances. Disabling the health check will keep the instances up and running while you troubleshoot.

Enable autoscaling for the instance group.
- Autoscaling will not help with the stability of the instances.

## Your company has different on-premises systems that generate a variety of reports. This data is not well maintained and needs to be cleaned up before it is used for any useful analysis. Which best-practice method should you use to accomplish this task?
Upload your files into Cloud Storage. Use Cloud Dataprep to explore and clean your data hosted in Cloud Storage.
- This is the correct answer. Dataprep cleans data in a web interface format using data from Cloud Storage or Bigquery.

Upload your files into Cloud Storage. Use Cloud Datalab to clean your data.
- Datalab is used for data exploration, not cleaning.

## Your organization wants to publish sensitive transaction data from its onsite application server to Cloud Pub/Sub for processing and storage. Following Google's recommended best practices, what is the preferred method for your application to authenticate to the required Google Cloud services?
Create a service account for the VM to authenticate with Pub/Sub. Use a custom service account key for authentication.
- Resources not hosted on GCP should use a custom service account key for authentication.

Create a Cloud VPN gateway to Cloud Pub/Sub using Cloud Functions. Grant the Cloud Function service account the appropriate Cloud Pub/Sub IAM roles.
- This is unnecessarily complex. Using a service account for authentication is the best practice.

 

 

 

 

 

 

## TerramEarth wants to share insights with their dealer network regarding how customers use their equipment. From our discussion on the case study, how might they be able to do this?
Use Google Data Studio to create live charts that read directly from BigQuery. Give dealer representatives view rights to these charts to gain better understanding.
- This is the best answer as it uses live analytics data. Data Studio is able to easily create useful charts from live BigQuery data to get insight.

Export BigQuery records to a Cloud Storage bucket and give dealer representatives permission to download exported records for viewing.
- Technically possible, but there are better methods available.

## Mountkirk games is currently running a managed instance group for their game servers. They want to convert to using a CI/CD pipeline using microservices. They need to deploy game resources across the US, Europe, and SE Asia. Their deployed microservices need to be immutable. What products should they use?
HTTP/S Load Balancer, Container Registry, Kubernetes Engine
- An HTTP/S Load Balancer is able to globally serve multiple regions. Container Registry can store immutable container images for deployment. Kubernetes Engine is able to manage their containerized application.

Network Load Balancer, Container Registry, Kubernetes Engine
- Network (Layer 4) Load Balancers cannot support more than one region.

## You are planning the best database workloads for Mountkirk Games analytics requirements. Considering the business and technical requirements, what actions should you take?
Use Cloud Bigtable to replace MySQL and use BigQuery for historical data queries.
- This is the most correct answer of the given choices. Bigtable is well suited for holding time series data and BigQuery can query data in Bigtable. Alternatively, BigQuery can also be used for both solutions if low latency response times are not required.

Use Cloud Bigtable for time series data, use Cloud Spanner for transactional data, and use BigQuery for historical data queries.
- One of the requirements is to use a NoSQL database for transactional data. Cloud Spanner is a SQL/relational database.


## You need to plan the architecture for Mountkirk Games' game servers. Based on the technical and business requirements, what should you do?
Use a global HTTP load balancer that serves managed instances groups that have autoscaling enabled.
- An HTTP load balancer can serve instance groups in multiple regions. One of the requirements is to make the game available globally.

Use App Engine flexible environment to host the application.
- They need to use a custom Linux distro, in which case App Engine is not a valid option.

## Considering TerramEarth's requirements, what would be a suitable data warehouse solution for the company?
Use a BigQuery with table partitioning
- BigQuery is the best choice for data warehousing. Table partitioning will allow them to more easily handle the massive amount of data they will be dealing with by breaking it up into days.

Use Cloud Spanner
- Cloud Spanner is not as good of a data warehousing solution compared to BigQuery.

## Which of these compute services could be migrated to GCP "as-is", and still be optimized for a cloud environment?
Security monitors, bastion hosts, and Jenkins deployed to Compute Engine instances
- These services have no managed service equivalents, therefore Compute Engine instances are the most optimized route.

Tomcat servers deployed to an App Engine application
- This is not an example of deploying "as is".

728x90
반응형

댓글0