プロダクト&ソリューションマーケティングのメトリクス

北極星指標(北極星指標に関する CEO の依頼)

すべてのマーケティング機能は、GitLab のビジネス成長を支援するために、長期的に改善することを目指す少なくとも 1 つの北極星指標を持つべきです。 以下は、Product and Solution Marketing 内の各マーケティング機能別の指標一覧です。

TeamPrimary MetricSecondary MetricEventual Metric Goal
PMMViewsContent Created (pages, docs, talks, blogs, etc)IACV Attribution
TMMViewsContent Created (demos, videos, etc)IACV Attribution
ARViewsAnalyst Coverage (reports, mentions, MQs, Waves, etc.)IACV Attribution
Cust RefViewsContent Created (Case Studies, Quotes, References, etc)IACV Attribution
Comp IntelViewsContent Created (Comparison Pages, etc)IACV Attribution

用語の定義

  • Impressions(インプレッション): コンテンツを閲覧した人数の合計カウント。
    • ウェブページの場合は、ページビュー。(ソース: Google アナリティクス?)
    • ダウンロード可能なアセットの場合は、ダウンロード数。(ソース: ??)
    • YouTube ビデオは、視聴数。(ソース: YouTube?…)
    • ウェビナー、ワークショップなど(ライブビュー)。(ソース)(注: ウェビナーは YouTube ビデオとなり「視聴数」を蓄積します)。
    • 私たちが講演する対面イベントの場合は、観客数。
  • Content Created(作成コンテンツ): 新規に作成された、または大幅に改善・更新されたコンテンツの合計カウント。(ソース: SM Inventory)
  • IACV Attribution: - パイプラインへの私たちの貢献(ソース: Sisense - attribution dashboard)?? 注: キャンペーンには Product and Solution Marketing フィールドが含まれており、私たちのキャンペーンへの貢献を文書化するために使用すべきです。
  • SFDC の SM フィールド: - キャンペーンへの私たちの「アクティブな貢献」を測定するために、SFDC キャンペーンに新しいフィールドが作成されました。 私たちの貢献を判断するために以下のルーブリックを使用します:
    • None または Blank: アクティブな貢献なし
    • Low: コンテンツのレビュー、メッセージングの検証
    • Medium: コンテンツの修正および/または既存コンテンツのカスタマイズ
    • High: 完全に新しいコンテンツの開発および/または(新規または既存の)コンテンツの提供

Product and Solution Marketing(Ashish)が考える、検討すべきメトリクス

ナラティブを構築するためには、以下のような複数のレンズのメトリクスが必要です:

  1. 私たちは何を生み出しているか?
    • 例: 5 つの WP、16 個のデモ、2 つの顧客ケーススタディ
    • 適切なカテゴリー(Outbound、Campaign、Internal)に割り当てる
    • 作成コンテンツ vs キュレーションコンテンツ
  2. それはどこに表示されるか?
    • コンテンツを活性化する様々な方法は何か?
    • 活性化方法のリストの例: ウェブサイト、SFDC、メールキャンペーン、イベントブース、キャンペーンデザイン、カンファレンス、イネーブルメントセッション
  3. 何人の人がそれを見る(閲覧する)か? 頻度
    • 例: 四半期あたり 3000 人のウェブサイト訪問者、月あたり 45 人のセールス担当者、四半期の 12 イベントでデモ x の 25,000 人の見込み客、ハンドブックビュー、何人のセールス/チャネルがイネーブルメントを受けたか?
    • なぜ: 特定のアセットのある時間枠における全体的なアクティビティを示します。 タイトル、説明、ランディングページ、アセットに関連するキャンペーンの効果を示す指標です。 内部コンテンツの品質や効果については何も教えてくれません。 何を教えてくれるか: 特定のアセットがアクティブかどうかの度合い。
  4. コンテンツに何が起こるか?
    • プログラムにおけるコンテンツの線形アトリビューション?
    • 何件がコンバージョンしたか?
    • そのアセットは何件の MQL を作成したか?
      • なぜ - なぜ: アセットが MQL にどう貢献しているかを示します。 これは、リードのマーケティング適格性全体に対して、特定のアセットが貢献している頻度を示します。 MQL が私たちに教えてくれるもの: この指標はおそらく Asset Views よりも多くの洞察を提供しません。 MQL は、特定のリード/コンタクトが MQL 閾値に達するためのアクティビティの累積セットに過ぎません。 MQL は、Views の洗練された見方に過ぎないかもしれません。
    • そのアセットは何件の SAO を作成したか?
    • そのアセットは何件の機会の作成に貢献したか?
    • そのアセットはいくらの $(ARR)の作成に貢献したか?
      • なぜ: 特定のアセットが収益を支援したことを示します。 エンドユーザーがアセットを消費し、その後購買プロセスを継続したため、アセットコンテンツの品質について何かを推測できる可能性がありますが、他のデータポイントの分析が必要です。 何を教えてくれるか: これは、収益生成と最も結びついているアセットを理解するのに役立ち、したがって促進・再利用すべきです。

課題: なぜ測定するのか? 学んだことに基づく次のステップ/アクションは何か?

その他の考慮事項:

  • プログラム予算支出分析

CMO(Todd)の測定方法に関する課題

  • 出力メトリクスのビュー:
    1. 閲覧/読み取り - Google アナリティクスダッシュボードは目標を設定できるので素晴らしい。 推奨される修正:
      • YouTube とブログコンテンツにタグを付けてフィルタリングできるようにする
      • ユースケースページを公開ウェブサイトページに変更する
    2. プログラムとキャンペーンにおけるコンテンツの線形アトリビューション
    3. 他のチームに対する Product and Solution Marketing の価値
      • セールスへの影響(サーベイ?)
      • その他のマーケティング(サーベイ?)
  • 検討すべきその他のメトリクス:
    • ウェブサイトファースト(MR?)
    • 閲覧などに関するメトリクス
    • スタンドアップごとに BOM の色/リンクを更新するかも

Asset Inventory

Product and Solution Marketing は、何を作成し公開するかについてのインベントリを管理しています。 このインベントリは Learn@GitLab プロジェクトの一部として始まりましたが、他のグループにも拡張されています。 インベントリが完全であればあるほど、それらを使用する際に会社としてより効率的になれるからです。 目標は、このインベントリを利用可能なアセットの SSoT として、SM の内外の他のグループも追加・消費することです。

Web Traffic 分析

マーケティングアトリビューションモデル

顧客リファレンス分析

現在の指標 - 月ごとに公開されるケース数 - 現在の目標 - 2 件/月

  • 指標は最も効率的とは言えず、顧客リファレンスチームのコントロール下にもない
    • ケーススタディの公開数は常にコントロール下にない - 例えば、いくつかの「完了した」ケーススタディがパイプラインで詰まっている理由は、PR 目的で公開前段階で保留されている(例: EMEA)、まだ顧客の法務またはマーケティング部門の承認待ち、など
    • ビジネスへの真の価値を反映しない。 例:
      • リファレンスは重要な AR レポートで結果を得るのに役立つ - Gartner MQ または Forrester Wave
      • リファレンスは機会のクローズに貢献する(セールスリファレンス)
      • リファレンスはパイプライン生成に貢献する(例: ウェビナーやカンファレンスの顧客講演者)

顧客リファレンスアクティビティの価値とビジネスに提供される価値を測定する追加のメトリクスが必要です。

  • 検討すべきアイデア:
    1. プログラムに含まれるチャンピオン/ロゴの全体的成長数
    2. リファレンスリクエスト数
    3. パイプラインで影響を受けた収益
    4. 影響を受けた Closed Won 収益

検討すべきメトリクスのその他のソース:

競合インテリジェンス分析

  • 検討すべきアイデア:
    1. DevOps Landscape comparisons page の利用状況を追跡する
      • ページ訪問数
      • セッション数
      • 新規訪問者
      • リピート訪問者
      • 平均ページ滞在時間
      • 直帰率
      • クリックスルー率
      • コンバージョン率
    2. 競合リソースページの利用状況を追跡する
      • アクセスする人数
      • 入力/コメント数
      • インバウンドリクエスト数
      • 競合インテリジェンス資料のセールスへのアトリビューション
    3. 競合リソースのセールスクローズへの影響 - ディールサポートと ROI 分析
      • 対応された特定のディールに関する問い合わせ数
      • 特定のディールに関する問い合わせの機会価値
      • ROI 分析の数
      • 実施された ROI 分析の機会価値
      • ROI 分析を含む獲得ディールの機会価値
    4. アウトバウンド(ブログ、ビデオ):
      • 訪問数(直帰率、ページ滞在時間)
      • エンゲージメント(低閾値の CTA がクリックされた数)
      • リード(登録/サインアップをクリックした数)
    5. キャンペーン(ゲートアセット)
      • 訪問数(ランディングページ) - (これも有効な指標ですよね、はい)
      • リード
    6. 内部(セールスオペレーションに関連)
      • 影響を受けた機会(デッキ、登壇、ROI、顧客リファレンスなど)
      • 内部視聴/ダウンロード(イネーブルメント)

アナリストリファレンス分析

今日何を測定しているか?

  • Baseline survey data at FY2021 SKO on sales usage of analyst assets
  • Gartner reprint info スライド、historical(views など) Forrester reprint info(views、d/l、dwell)
  • Customer Reference metrics - スライド 2 は現在のメトリクスの例です(プールと属性、リクエストと属性、いくらかの収益アトリビューション/インパクトの測定開始など)
  • 検討すべきアイデア:
    • アナリストニュースレターメトリクス
    • リードしたブリーフィングと問い合わせの数
    • カバレッジヒートマップ - 全体
    • カバレッジヒートマップ - 経時変化
    • アナリストリレーションのウェブトラフィック
    • セールスへの影響(パイプライン、コンバージョン、勝敗)- SFDC タッチポイント
    • TEI メトリクス
    • 満足度 - 定期的な内部および外部のサーベイ/測定指標

検討すべき例

  • ChangeLog
  • サーベイ(セールスチーム)
  • 管理されている Issue の分析 - オープン/クローズ、内部 vs 外部
  • Pathfactory
  • SM Issues 分析
  • SM 予算支出分析

役立つリンク