清水 祐樹 (Ghoti824) のビジネス経験

見積もり・仕事の相談を承ります。

  • デジタル広告・TVCM効果測定基盤構築と分析最適化プロジェクト

    IT・通信・インターネット エンジニア 正社員 本業として

    ■ プロジェクトの目的
    オンライン広告・TVCMなど複数チャネルのマーケティング施策に対し、来訪・行動・コンバージョンへの影響を定量的に評価できる効果測定基盤を構築すること。TVCM枠やクリエイティブごとの来訪効果を自動集計し、マーケ部門が出稿戦略を最適化できるようにすること、レポート作成工数の削減と指標の標準化を目的とした。

    ■ 体制・人数
    PM:1名
    データエンジニア:1名
    関係部署:マーケティング、広告代理店、プロダクト部門

    ■ 自分のポジション・役割
    TVCM枠情報・クリエイティブ情報とWeb来訪ログの突合ロジックを設計し、BigQueryで分析可能なデータ構造を構築。Cloud Functionsによる効果スコア自動算出バッチを実装し、Google Sheetsを用いたレポートテンプレート整備も担当した。マーケ部門からの指標要件定義を受け、KPI設計、集計ロジック実装、各種レポートの展開まで一貫してリードした。


    ■ 目的を達成する上での課題
    ・TVCM枠情報とWeb行動ログが異なるフォーマット・タイムスケールで保持されており突合が困難
    ・CM効果(来訪増加・行動促進)の定義が部署ごとに異なり、指標標準化が必要
    ・レポート作成が属人化され、毎回手作業で時間とミスが発生
    ・分析結果が施策改善に十分活用されていなかった

    ■ 課題に対して取り組んだこと
    ・TVCM枠情報(放送局/時間帯/クリエイティブ)とセッションログを突合できるロジックを設計
    ・放送後の来訪増加指標(秒〜分単位)を定義し、効果測定方法を標準化
    ・BigQuery上で自動集計処理を実装し、Cloud Functions+Schedulerで定期実行
    ・Google Sheetsと連携した自動レポート環境を構築し、マーケ部門が即時に活用可能な状態を整備
    ・代理店やマーケ担当者と連携し、クリエイティブや枠ごとの効果差を分析し意思決定に活用

    ■ ビジネス上の成果
    ・TVCMごとの来訪効果を自動集計・可視化し、レポート作成工数を大幅削減
    ・クリエイティブ単位で効果の高低を明確化し、出稿の「継続/停止」の判断材料として活用
    ・施策効果が定量的に評価できるようになり、マーケティング投資の最適化に寄与
    ・標準化した指標・レポートにより、広告のPDCAサイクルが大幅に高速化

    言語・データ処理
    Python
    SQL(BigQuery SQL)

    クラウド環境
    GCP(BigQuery、Cloud Functions、Cloud Scheduler)
    Google Sheets(レポート出力)
    Slack(共有/通知)

    分析基盤スキル
    効果測定ロジック設計(TVCM・Web広告)
    オフライン×オンラインログ突合
    データマート設計
    自動レポート生成(バッチ処理)
    分析指標設計(来訪/行動/CV 指標)

    その他
    マーケティング分析基盤の要件定義
    クリエイティブ別効果比較

    見積もり・仕事の相談

  • ヘルスケア企業のCDP活用によるマーケティング施策自動化PJ

    IT・通信・インターネット エンジニア 正社員 本業として

    ■ プロジェクトの目的
    統合CDPデータを活用し、ユーザー行動・属性・ステータスに応じたパーソナライズ配信を自動化することで、マーケティング施策の精度向上と業務負荷削減を実現すること。メール・SMSなど複数チャネルにおける最適な配信タイミング、セグメントごとの反応差、レコメンド精度を高め、顧客回遊率や申込率の向上を目指した。

    ■ 体制・人数
    PM:1名
    データエンジニア:1名→のちに2名追加
    関連部署:マーケティング、営業、CS、開発チーム

    ■ 自分のポジション・役割
    マーケティング施策のデータ活用部分を中心に担当。具体的には、CDPデータを用いた各施策のセグメント設計、メール/SMSの配信ロジック作成、配信シナリオの技術実装(Cloud Functionsによる自動生成/抽出)、A/Bテストの集計ロジック整備、効果検証ダッシュボードの作成を実施。また運用部門が継続的に活用できるよう、ドキュメント整備や分析サポートも行った。

    ■ 目的を達成する上での課題
    ・複数チャネル(メール/SMS)にまたがる配信ロジックが複雑で属人的だった
    ・CDPデータは項目数が多く、セグメント条件を統一する仕組みが必要だった
    ・配信結果の効果測定が手作業で、改善サイクルが回らない
    ・レコメンド施策の根拠が曖昧で、パーソナライズ強化が課題

    ■ 課題に対して取り組んだこと
    ・ユーザー属性、行動ログ、ステータスを統合したセグメント設計を実施し、8種以上の配信シナリオを設計
    ・Cloud Functions+BigQueryにより、配信対象生成を自動化し、手動運用を削減
    ・メールとSMSの配信タイミングに関するA/Bテストを設計し、BigQuery上で自動集計ロジックを構築
    ・Google Sheetsと連携し、マーケ部門が即時に閲覧できる効果測定シートを整備
    ・行動履歴に基づいたレコメンドロジック改善を支援し、ターゲット精度を向上

    ■ ビジネス上の成果
    ・配信シナリオを8件構築し、複数チャネル配信にかかる工数を大幅削減
    ・メールCTRを約3%→約7%へ改善し、施策効果が大幅に向上
    ・ユーザー行動データを活用したレコメンド改善により、回遊率・申込率が向上
    ・A/Bテストの標準化と自動集計により、施策改善サイクルを高速化

    言語・基盤技術
    Python
    SQL(BigQuery SQL)
    YAML(シナリオ定義/設定管理)

    クラウド環境
    GCP(BigQuery、Cloud Functions、Cloud Scheduler)
    Google Sheets
    SendGrid(メール配信)
    内製SMS配信バッチ

    データ処理 / マーケティング関連
    CDPデータ活用
    セグメント設計
    A/Bテスト設計
    マーケティングオートメーション
    配信シナリオ設計
    効果検証(CTR / CVR分析)

    見積もり・仕事の相談

  • ヘルスケア企業のオンライン・オフライン統合分析基盤構築PJ

    IT・通信・インターネット エンジニア 正社員 本業として

    ■ プロジェクトの目的
    WebサイトやLPで取得しているGA4データをBigQueryへ連携し、既存のオフライン業務データ(CRM・営業管理データ等)と統合することで、オンライン・オフラインを一貫して分析できる基盤を構築すること。ユーザー行動の可視化、問い合わせ・成約までの導線理解、施策効果検証、パーソナライズ機能の高度化を実現することが目的であった。

    ■ 体制・人数
    PM:1名
    データエンジニア:1名→のちに2名追加
    関連部署:マーケティング、営業、CS、プロダクトチーム

    ■ 自分のポジション・役割
    GA4データ構造(event_params等)の分析、BigQuery連携設定、データ整形・正規化処理の設計・実装を担当。加えて、オンライン/オフライン統合のためのユーザーID・セッションIDのマッピングロジック設計、統合後データマートの作成、プロダクト機能(パーソナライズUI、優先対応リスト等)へのデータ連携基盤の設計を担った。
    各部門への分析支援、ドキュメント整備、運用定着まで一貫して担当。

    ■ 目的を達成する上での課題
    ・GA4特有のevent形式データが複雑で、そのままでは分析に不向き
    ・オンラインデータとオフラインデータでID体系が異なり、突合が困難
    ・統合後のデータ構造が定義されておらず、分析要件に応じた設計が必要
    ・複数部門からの活用ニーズが多岐にわたり、統一フォーマットがなかった

    ■ 課題に対して取り組んだこと
    ・GA4イベントを分析用途に最適化する処理(パラメータ展開、型統一、正規化)を実装
    ・CRMや営業管理データと突合できるよう、ユーザーID・セッションIDの統合ロジックを設計
    ・統合データに基づくデータマートを整備し、各部門で再利用できる構造を確立
    ・Cloud Functions+BigQuery によるバッチ処理を構築し、データ更新を自動化
    ・パーソナライズ用の閲覧履歴/スコアロジックを設計し、Web表示機能へ連携

    ■ ビジネス上の成果
    ・オンライン行動とオフライン営業/問い合わせデータを統合し、コンバージョンまでの行動可視化を実現
    ・CS向け優先対応リスト生成により対応効率を改善
    ・パーソナライズ表示機能の実現により、ユーザー体験を向上
    ・複数部門(マーケ/営業/CS)でのデータ活用が定着し、施策検証スピードが向上

    言語
    Python
    SQL(BigQuery SQL)

    クラウド / ETL / 分析基盤
    GCP(BigQuery、Cloud Functions、Cloud Storage、Cloud Scheduler)
    GA4 BigQuery Export
    dbt(モデリング)
    GitHub
    Slack Webhook連携

    データ設計・分析基盤スキル
    イベントパラメータ整形
    ログデータモデリング
    ID設計・データ統合ロジック
    データマート設計
    パーソナライズアルゴリズム基盤構築

    見積もり・仕事の相談

  • 社内データ基盤刷新プロジェクト(BigQuery×GCS/クエリ70%高速化・コスト20万円削減)

    IT・通信・インターネット エンジニア 正社員 本業として

    ■ プロジェクトの目的
    オンプレミスで運用されていた複数の業務用RDB(MySQL/SQL Server)をGoogle Cloud(BigQuery/GCS)へ統合し、分析しやすく運用効率の高いデータ基盤を構築すること。部門横断のデータ活用ニーズに応えるため、データの一元管理、自動同期、分析用スキーマ整備、コスト最適化、データ提供フロー標準化を実現する。

    ■ 体制・人数
    PM:1名
    データエンジニア:1名 → 後に2名増員し計3名体制
    営業・マーケ・CS・管理部など、各事業部と連携

    ■ 自分のポジション・役割
    プロジェクトの中核メンバーとして、オンプレDBの構造調査・データ棚卸、Fivetranを用いた100件超の自動同期設定、BigQuery向けスキーマ最適化・dbtによるモデリング、Cloud Functions/Cloud Loggingを活用した監視自動化、アクセス権限設計・コスト管理、各部門へのデータ提供支援と申請フロー整備を担当。

    ■ 目的を達成する上での課題
    部門ごとにDBが分散し構造が統一されていないこと、手動抽出・加工により工数とミスが発生していたこと、BigQuery利用後のクエリ負荷増大とコスト増、モニタリング体制不備、データ提供フローの属人化などが課題であった。

    ■ 課題に対して取り組んだこと
    Fivetranで100テーブル超を自動同期し運用負荷を削減。BigQuery向けにスキーマを再設計し、クエリ最適化・マテビュー導入で処理時間を短縮。Cloud Logging+Slack通知によるアラート基盤を構築。不要クエリの整理やテーブル設計見直しによりコスト最適化を実施。さらに申請テンプレートや優先度ルールを整備し、データ提供フローを標準化。

    ■ ビジネス上の成果
    手動抽出から自動同期へ移行し運用工数を大幅削減。クエリ処理時間を70%以上短縮し分析速度が向上。BigQueryコストを月60万円→40万円へ削減し約20万円を継続的に節約。複数部門がデータを迅速に活用できる環境となり、意思決定速度の向上に貢献した。

    ■ 言語
    Python
    SQL(BigQuery SQL)
    YAML / Jinja(dbt)

    ■ クラウド・基盤
    GCP(BigQuery、Cloud Storage、Cloud Functions、Cloud Logging)
    Fivetran(ETL)
    dbt(データモデリング)

    ■ その他
    Google Sheets(レポート連携)
    GitHub(ソース管理)
    スキーマ設計
    データモデリング
    パフォーマンスチューニング
    コスト最適化
    アクセス権限設計
    モニタリング設計

    見積もり・仕事の相談