Skip to main content

Google hat gerade eine vielversprechende neue Funktion für die Google Search Console angekündigt: die Möglichkeit, Daten direkt nach BigQuery zu exportieren. Wir haben keine Zeit verschwendet und die Exportfunktion vor drei Tagen aktiviert. Bei unserer ersten Analyse konnten wir eine Fülle zusätzlicher URL- und Keyword-Daten aufdecken, die in den Standardberichten der Search Console bisher nicht verfügbar waren. Mit der neuen BigQuery-Exportfunktion kannst du jetzt noch tiefere Einblicke in die Leistung deiner Website gewinnen, die dir vorher möglicherweise verborgen geblieben sind.

2.330% mehr verschiedene Keywords im BigQuery-Export

Wir haben die Daten von zwei Websites analysiert – von einer Kleinen und einer Großen. Wir haben einen signifikanten Unterschied in der Anzahl der verschiedenen URLs und Keywords für die große Website festgestellt, mit standardmäßig 5.000 über die API und 160.515 verschiedenen Keywords im BigQuery-Export.
Wir haben nur einen Tag verglichen, um vergleichbare Daten für einen täglichen Export zu haben.

Search Console Frontend Export* Search Console API* BigQuery Export
Anzahl der verschiedenen URLs: Kleine Website 119 119 119
Anzahl der verschiedenen URLs: Große Website 1000 5000 19.212
Anzahl der verschiedenen Keywords: Kleine Website 1000 1437 1437
Anzahl der verschiedenen Keywords: Große Website 1000 5000 160.515
Anzahl der verschiedenen Keywords die das Wort X enthalten: Kleine Website 203 203 203
Anzahl der verschiedenen Keywords die das Wort X enthalten: Große Website 13 13 661

Wie du in der Tabelle sehen kannst, erhalten große Websites viel mehr Daten von Google. Aber auch kleine Websites mit mehr als 5k verschiedenen Keywords können von den Vorteilen des Exports profitieren.

Insbesondere die Tatsache, dass die Anzahl der eindeutigen Keywords, die ein bestimmtes Wort enthalten, bei der großen Website viel höher ist, zeigt, dass die Datenmenge, die im GSC gespeichert wird, im Vergleich zum Export begrenzt ist.

*Durch das Filtern von Daten, das Anlegen weiterer Eigenschaften usw. ist es möglich, mehr Zeilen zu erhalten, aber es muss eingerichtet werden und du kannst nie sicher sein, dass du alle Daten herausbekommst.

Viele One Impression Keywords (an diesem Tag)

88% der Keywords für die große Website hatten nur eine Impression und nur 7% hatten einen oder mehrere Klicks an diesem Tag. Wir erwarten jedoch, dass wir über einen längeren Zeitraum mehr Keywords mit Klicks und Impressionen sehen werden.

Täglicher Daten-Export

Es ist wichtig zu wissen, dass der Datenexport am Tag der Aktivierung beginnt und die Daten jeden Tag exportiert werden. Ein Backfill der Daten findet nicht statt.

Datenfelder in den Exportdaten

Die exportierten Daten enthalten Felder wie Datum, Land, Suchtyp usw., ähnlich wie die Abfragefelder in der Google Search Console, einschließlich aller Filter, um nach dem Erscheinungsbild der Suche zu filtern. Die Datentabellen werden im BigQuery-Datensatz erstellt. Da die Daten in einem Tabellenformat miteinander kombiniert werden, lassen sich die Daten leichter mit Diagrammen, Pivot-Tabellen usw. analysieren.
Hier findest du die vollständigen Tabellenrichtlinien und Referenzen.

Erste Schritte für den Export von Daten nach BigQuery

Ein paar Worte vorab: Bevor wir uns mit dem Export von Google Search Console-Daten über BigQuery befassen, ist es wichtig zu wissen, dass die Kosten für die Datenspeicherung und Abfrage in der Google Cloud Platform mit der Zeit ansteigen können. Um unerwartete Kosten zu vermeiden, empfiehlt es sich, das Preismodell von Google Cloud Platform zu kennen und deine Nutzung und Kosten regelmäßig zu überprüfen. Es ist auch hilfreich, sich vor dem Start einen allgemeinen Überblick über die Google Cloud Platform zu verschaffen.

Für jede Property, die du in BigQuery exportierst, empfiehlt es sich ggf., ein eigenes Projekt in Google Cloud Platform zu erstellen. Es ist nicht möglich, den zugewiesenen Dataset-Namen zu ändern und zwei GSC-Properties in dasselbe Projekt zu exportieren, was bedeutet, dass die Daten aus diesen Properties in dieselbe Tabelle geschrieben werden. Es kann sinnvoll sein, beiden Properties denselben Zugriff zu gewähren, aber wenn du eine detailliertere Zugriffskontrolle möchtest, empfehlen wir dir, zwei Projekte zu erstellen.

Kommen wir nun zu der Schritt-für-Schritt-Anleitung für den Export deiner Search Console-Daten.

1.

Aktiviere BigQuery in deinem Google Cloud-Projekt
Navigiere zu APIs & Dienste > Aktivierte APIs & Dienste in der Seitenleiste der Google Cloud Console. Wenn BigQuery nicht aktiviert ist, klicke auf + APIS UND DIENSTE AKTIVIEREN, um die BigQuery-API zu aktivieren. Oder klicke einfach hier.

2.

Gewähre der Search Console Zugriff auf dein Google Cloud-Projekt
Navigiere zu IAM und Admin in der Seitenleiste der Google Cloud Console. Oder klicke hier.
Klicke auf + GRANT ACCESS, um ein Seitenfenster mit der Aufschrift „Add Principals“ zu öffnen. Füge unter „New Principals“ das folgende Dienstkonto ein:
search-console-data-export@system.gserviceaccount.com

Erteile ihm zwei Rollen: BigQuery Job User & BigQuery Data Editor

3.

Richte dein Google Cloud-Projekt in der Search Console ein
Gehe in der Search Console zu Einstellungen > Bulk data export für dein Projekt. Kopiere die Projekt-ID (den Namen des Google Cloud-Projekts, das du erstellt hast) in das Feld Cloud-Projekt-ID.
Wähle einen Speicherort für deinen Datensatz aus der Liste und klicke auf Weiter.
Danach dauert es ein oder zwei Tage, bis die ersten Daten in BigQuery ankommen.

Wenn du diese Schritte befolgst, kannst du die Daten der Google Search Console über tägliche Bulk-Exporte nach BigQuery exportieren.

Weitere Informationen über die Einrichtung des Exports findest du in diesen Artikeln von Google:
https://support.google.com/webmasters/answer/12917675
https://developers.google.com/search/blog/2023/02/bulk-data-export

Zugang zu den Daten

Nachdem die ersten Daten in BigQuery importiert wurden, kannst du einige SQL-Anweisungen erstellen, um die Daten zu untersuchen. Es ist aber viel einfacher, die Daten direkt mit Google Looker Studio zu untersuchen. Navigiere dazu zu Google Cloud Plattform -> BigQuery und wähle das Dataset und eine Tabelle aus.

Klicke auf Abfrage (Query) und ändere die Abfrage in:
SELECT * FROM `{deinProjekt}.searchconsole.searchdata_url_impression`
(damit werden alle Spalten der Tabelle über den gesamten Zeitraum abgefragt)
Führe die Abfrage aus.

Klicke auf Explore Data -> Explore with Looker Studio.

Hier kannst du die Daten untersuchen, ohne eine zusätzliche SQL-Abfrage zu schreiben.

Zusammenfassung

Der erweiterte Export von GSC-Daten nach BigQuery gibt weitaus mehr Einblicke, aber auch eine größere Menge an Daten, die verwaltet und analysiert werden müssen. Wegen des täglichen Exports empfehlen wir, so bald wie möglich damit anzufangen – denn jeden Tag, an dem die Funktion noch nicht aktiviert ist, verlierst du Daten.

Wenn du an einem Daten-Warehouse-Service interessiert bist, der sich um alle Dinge rund um deinen Daten-Export kümmert, zögere nicht damit, uns zu kontaktieren.

Michael Weber

Author Michael Weber

Michael Weber ist der Gründer und Hauptentwickler von searchVIU. Er betreibt seit 2001 SEO und hat Erfahrungen als Berater in einer Agentur und als Inhouse-SEO gesammelt.

More posts by Michael Weber

Leave a Reply