NR. 91 Ihr Unternehmen betreibt eine Unternehmensplattform vor Ort mit virtuellen Maschinen (VMS). Ihre Internet-Kunden haben Zehntausende von DNS-Domänen erstellt, die auf Ihre öffentlichen IP-Adressen verweisen, die den Vtvls zugewiesen wurden. Normalerweise kodieren Ihre Kunden Ihre IP-Adressen fest in ihren DNS-Einträgen. Sie planen nun, die Plattform auf Compute Engine zu migrieren, und möchten Bring your Own IP verwenden.
Die richtige Antwort ist D, weil Sie damit Ihre eigenen öffentlichen IP-Adressen in der Google Cloud verwenden können, ohne die Plattform zu unterbrechen oder Ihre Kunden zur Aktualisierung ihrer DNS-Einträge aufzufordern. Option A ist falsch, da sie die Änderung der IP-Adressen und die Benachrichtigung der Kunden beinhaltet, was zu Unterbrechungen und Fehlern führen kann. Option B ist falsch, weil sie keine Live-Migration verwendet, eine Funktion, mit der Sie steuern können, wann Google mit der Werbung für Routen für Ihr Präfix beginnt. Option C ist falsch, da sie keine eigenen IP-Adressen vorsieht, sondern von Google bereitgestellte IP-Adressen. Referenz: Bringen Sie Ihre eigenen IP-Adressen mit Professional Cloud Network Engineer Prüfungsleitfaden Bringen Sie Ihre eigenen IP-Adressen (BYOIP) zu Azure mit Custom IP Prefix
NO.95 Sie haben Cloud CDN mit HTTP(S)-Lastausgleich als Ursprung für cachefähige Inhalte konfiguriert. Die Komprimierung ist auf den Webservern konfiguriert, aber die von Cloud CDN bereitgestellten Antworten sind nicht komprimiert. Was ist die wahrscheinlichste Ursache für das Problem?
Wenn von Cloud CDN bereitgestellte Antworten nicht komprimiert werden, dies aber der Fall sein sollte, überprüfen Sie, ob die auf Ihren Instanzen laufende Webserver-Software für die Komprimierung von Antworten konfiguriert ist. Standardmäßig deaktivieren einige Webserver-Software automatisch die Komprimierung für Anfragen, die einen Via-Header enthalten. Das Vorhandensein eines Via-Headers zeigt an, dass die Anfrage von einem Proxy weitergeleitet wurde. HTTP-Proxys wie HTTP(S) Load Balancing fügen einen Via-Header zu jeder Anfrage hinzu, wie es die HTTP-Spezifikation verlangt. Um die Komprimierung zu aktivieren, müssen Sie möglicherweise die Standardkonfiguration Ihres Webservers überschreiben und ihn anweisen, Antworten zu komprimieren, auch wenn die Anfrage einen Via-Header enthielt.
NR. 98 Sie haben einen Datenworkflow, der aus einer Dateneingangsschicht, einer Datenumwandlungsschicht, einer Datenanalyseschicht und einer Datenspeicherungsschicht besteht. Sie suchen einen Dienst, der Ihnen die Erstellung, Planung, Überwachung und Verwaltung von Workflows erleichtert, ohne dass Sie sich um die Verwaltung der Infrastruktur kümmern müssen. Bitte wählen Sie den richtigen Dienst aus, der die Anforderungen erfüllt.
Option B ist die richtige Wahl, denn Cloud Composer ist ein verwalteter Apache Airflow-Dienst, mit dem Sie Workflows erstellen, planen, überwachen und verwalten können. Option A ist die falsche Wahl, denn Sie könnten Apache Airflow auf einer VM-Instanz installieren, aber das würde bedeuten, dass Sie die Infrastruktur verwalten müssen. Option C ist nicht korrekt, da Istio eine offene Plattform zur Verbindung, Überwachung und Sicherung von Microservices ist. Option D ist falsch, denn Stackdriver ist ein Überwachungs- und Verwaltungssystem für Dienste, Container, Anwendungen und Infrastruktur.
NO.99 Sie verfügen über die in der Abbildung dargestellte Netzwerkkonfiguration. Ein Paar redundanter Dedicated Interconnect-Verbindungen (int-Igal und int-Iga2) enden am selben Cloud-Router. Die Interconnect-Verbindungen enden an zwei separaten Routern vor Ort. Sie bewerben dieselben Präfixe aus den Border Gateway Protocol (BGP)-Sitzungen, die mit den Dedicated Interconnect-Verbindungen verbunden sind. Sie müssen eine Verbindung sowohl für den eingehenden als auch für den ausgehenden Verkehr als aktiv konfigurieren. Wenn die aktive Interconnect-Verbindung ausfällt, soll die passive Interconnect-Verbindung automatisch mit dem Routing des gesamten Datenverkehrs beginnen. Welche zwei Maßnahmen sollten Sie ergreifen, um diese Anforderung zu erfüllen? (Wählen Sie zwei)
Diese Antwort erfüllt die Anforderung, eine Verbindung sowohl für den eingehenden als auch für den ausgehenden Datenverkehr als aktiv zu konfigurieren und im Falle eines Ausfalls eine automatische Umschaltung auf die passive Verbindung zu ermöglichen. Der Grund dafür ist: Die Priorität der angekündigten Route ist ein Wert, den der Cloud Router verwendet, um die Routenpriorität bei der Ankündigung von Routen an Ihren Router vor Ort festzulegen. Je niedriger der Wert ist, desto höher ist die Priorität1. Indem Sie für die aktive Verbindung eine Priorität von 200 festlegen, stellen Sie sicher, dass sie eine höhere Priorität hat als die passive Verbindung, die den Standardwert 1001 hat. Auf diese Weise wird Ihr lokaler Router die Routen der aktiven Verbindung gegenüber der passiven Verbindung für den eingehenden Verkehr bevorzugen. Der MED (Multi-Exit Discriminator) ist ein Wert, den Ihr lokaler Router verwendet, um seine Präferenz für den Empfang von Datenverkehr vom Cloud Router anzugeben. Je niedriger der Wert ist, desto höher ist die Präferenz2. Indem Sie einen niedrigeren MED-Wert für die aktive Verbindung von Ihrem lokalen Router bekannt geben, stellen Sie sicher, dass Cloud Router den Datenverkehr bevorzugt an die aktive Verbindung sendet und nicht an die passive Verbindung für den Egress-Datenverkehr. Wenn die aktive Verbindung ausfällt, empfängt der Cloud Router keine Routen mehr von ihr und verwendet die Routen der passiven Verbindung für den Egress-Verkehr. Analog dazu empfängt Ihr Router vor Ort keine Routen mit der Priorität 200 mehr von der aktiven Verbindung und verwendet die Routen mit der Priorität 100 von der passiven Verbindung für den eingehenden Verkehr. Auf diese Weise wird eine automatische Ausfallsicherung ohne manuelles Eingreifen erreicht. Option A ist falsch, weil die Einstellung der Priorität der beworbenen Route > 10.200 auf der aktiven Verbindung diese global in Ihrem VPC-Netzwerk depriorisieren würde, was nicht erwünscht ist1. Option B ist falsch, weil die Bekanntgabe einer niedrigeren MED auf der passiven Verbindung dazu führen würde, dass der Cloud Router den Datenverkehr lieber an diese als an die aktive Verbindung sendet, was nicht erwünscht ist2. Option D ist falsch, weil die Einstellung der beworbenen Routenpriorität auf 200 für beide Verbindungen dazu führen würde, dass sie von Ihrem lokalen Router gleichermaßen bevorzugt werden, was nicht erwünscht ist1. Referenz: Aktualisieren Sie die Basisroutenpriorität | Cloud Router | Google Cloud Konfigurieren von BGP-Sitzungen | Cloud Router | Google Cloud
NR. 104 Ihr Unternehmen plant eine Migration zu Google Kubernetes Engine. Ihr Anwendungsteam hat Ihnen mitgeteilt, dass es mindestens 60 Pods pro Knoten und maximal 100 Pods pro Knoten benötigt. Welchen CIDR-Bereich sollten Sie für Pods pro Knoten verwenden?
Um den CIDR-Bereich von Pod pro Knoten zu bestimmen, müssen Sie berechnen, wie viele IP-Adressen für jeden Knoten erforderlich sind, und dann den kleinsten CIDR-Bereich wählen, der diese Anzahl aufnehmen kann. Ein CIDR-Bereich von /n bedeutet, dass 2^(32-n) IP-Adressen in diesem Bereich verfügbar sind. Ein /24-Bereich hat zum Beispiel 2^(32-24) = 256 IP-Adressen. Der Frage zufolge benötigt das Anwendungsteam mindestens 60 Pods pro Knoten und maximal 100 Pods pro Knoten. Daher müssen Sie einen CIDR-Bereich wählen, der mindestens 100 IP-Adressen pro Knoten bereitstellen kann, aber nicht mehr als nötig. Ein /25-Bereich hat 2^(32-25) = 128 IP-Adressen, was für 100 Pods pro Knoten ausreichend ist. Ein /26-Bereich hat 2^(32-26) = 64 IP-Adressen, was für 60 Pods pro Knoten nicht ausreicht. Ein /24-Bereich hat 256 IP-Adressen, was mehr als nötig ist und IP-Adressraum verschwendet. Ein /28-Bereich hat 2^(32-28) = 16 IP-Adressen, was für jeden Knoten viel zu wenig ist. Die beste Option ist daher B. /25. Dies stimmt auch mit der Dokumentation der Google Kubernetes-Engine überein, in der es heißt, dass jedem Knoten standardmäßig ein /24-Bereich von IP-Adressen für Pods zugewiesen wird, aber die maximale Anzahl von Pods pro Knoten 1101 beträgt. Das bedeutet, dass es ungefähr doppelt so viele verfügbare IP-Adressen wie mögliche Pods gibt, was dem Verhältnis von 128 zu 100 im /25-Bereich entspricht. 1: Maximale Pods pro Knoten konfigurieren | Google Kubernetes Engine (GKE) | Google Cloud