Google 広告のトラフィック ソース データをできるだけ早くバックフィルする(アナリティクス 360)
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
BigQuery の毎日(高頻度)エクスポートを使用すると、一部の traffic_source フィールドに Data Not Available が表示されることがあります。このガイドでは、既存のエクスポートで不足しているトラフィック ソース データのほとんどを、利用可能になり次第(通常は毎日午前 5 時までに)自動的にバックフィルする方法について説明します。
バックフィルを自動化する手順は次のとおりです。
BigQuery から毎日完全性シグナルをリッスンします。
BigQuery Export で、トラフィック ソース データがないイベントを特定します。
Google 広告から、それらのイベントの完全なデータをクエリします。
完全なイベントデータを BigQuery Export と結合します。
Pub/Sub トピックの作成
Google Cloud コンソールの左側のナビゲーション メニューで [Pub/Sub] を開きます。[Pub/Sub] が表示されない場合は、Google Cloud コンソールの検索バー()で検索します。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2024-12-19 UTC。"],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"]]