今回は9月に開催されました「若手人材のマネジメント方法大放出!データ人材使いこなしセミナー」にて株式会社トラストバンク(以下トラストバンク)データマネジメントグループマネージャーの町田様へご講演いただきました内容を記事にてお伝えいたします。

登壇者紹介

町田泰基(まちだ やすのり)
株式会社トラストバンク データマネジメントグループマネージャー
経歴:福岡県北九州市生まれ。早稲田大学在学中に、偶然の出会いがあって新卒でトラストバンクに2020年入社。入社以来データマネジメントチームに所属しており、2024年4月よりマネージャーになる。
趣味:筋トレ、筋肉を活かせないゴルフ

 

目次
01.|トラストバンクデータチームについて
  トラストバンクのデータチームとは?どんな組織?
   これまでのデータ組織の歩み
02.|データ人材を活用し、成果を出すために持っておくべき考え方
  そもそもデータ人材の成果とは?
  目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう
  チームの目標、ミッション、重要アクションを整理する。ミッションがあることでメンバーが主体的にアクションを起こせる状態にする
  業務系の仕事は自動化するか、極力やらない
  新しい技術を積極的に取り入れる
03.|若手専門人材との接し方
  【前提】若手人材は長く在籍することで中長期的に価値を発揮しやすい
  工数の30-50%は若手人材にとって成長につながるチャレンジ
  心理的安全性の高い状態を保つ
  【その他】マネジメントの落とし穴にハマらないように気をつける
      【その他】Winsession
04.|まとめ

 

トラストバンクデータチームについて

 

トラストバンクのデータチームとは?どんな組織?

トラストバンクのデータマネジメントグループはチョイス事業部内事業戦略部内に位置しており、総勢14名のメンバーで成り立っている組織です。

チョイス事業部は主に「ふるさとチョイス」、「めいぶつチョイス」に関するデータマネジメントを担っており、具体的にはデータ基盤の構築や、データ抽出、データ分析、データ活用推進などを行っているとのこと。
またチョイス事業部だけでなくChiica事業部のデータ業務も一部行っているなど、社内のデータ活用を横串で行う組織構造となっていることがうかがえました。

講演では、このデータマネジメントグループについて育成方法をお話しいただきました。

 

これまでのデータ組織の歩み



トラストバンクにおいてデータ組織が発足したのは2019年12月とのこと。
そこから現在までのあゆみについては上記のように大きく3フェーズに分かれています。

フェーズ①基盤構築期



トラストバンクでは、データチームが発足するまでふるさとチョイスのデータベースから直接データをとっていたそう。
そのためまずデータ分析基盤を構築するところから始まります。

町田:当初Amazon Redshiftを導入したものの、コスト面とGoogle Analyticsとの互換性があるという理由からGoogleのBigqueryにリプレイスし、現在もBigqueryを活用しています。

最初期に当たる分析基盤の構築をしていた時期はデータ抽出の要員が足りておらず、データエンジニアがアナリスト業務を担当するなど個々の役割のみに限らず柔軟に必要とされる業務を行っていました。

フェーズ②データ量産・データカオス期



フェーズ②データ量産・データカオス期では事業部で求められるデータをたくさん出して、データ活用が一気に進んだ時期となります。

データ基盤の構築ができ、各方面でデータ活用が進むに伴って、以下の課題が出現します。


町田:
安定的にデータ活用を行うためのリソースが不足していた結果、上記のようなイシューが発生していました。
このフェーズではそれまで柔軟に行っていたアナリスト業務とエンジニア業務を明確に仕分けするとともに、データカオスな状況を打破すべくデータスチュワード*1の役割を新設しました。
データスチュワードはデータに関する管理人、番人のような役割を果たします。

これによりデータマネジメントグループの個々の役割が整備され、データカオスの脱却に向かったのです。


* 1データスチュワードとは、「データを、スチュワード(他人から預かった資産を、責任をもって管理運用)する部署または人のこと」です。
具体的には、以下のようなことを行います。
・データモデル仕様に関する検討、改善
・データクオリティ要件およびビジネスルールの定義と維持
・データ資産の監視(データの品質・利用に関する問題がないかチェック)
・問題が発生した際には、CDOに報告
出典:NTTDATA「データスチュワードとは? データマネジメント用語をわかりやすく解説」(2024年11月13日利用)


フェーズ③課題解決・売上創出期




フェーズ②データ量産・データカオス期ではデータマネジメントグループの個々の役割が整備されデータカオスの脱却に向かいました。
それまで生じていた課題については、以下のようにして課題解決と利益創出に尽力しているそうです。

課題解決
データチームの工数の大半が抽出依頼に割かれている
→ビジネスサイドでも、SQLを使わず自由にデータが出せるようにした(抽出セルフ化)

目的のデータがどこにあるかがわかりづらい状態に
→Notionに抽出データ一覧、ダッシュボード一覧を整備

似たようなダッシュボードが複数存在していたり、同じ指標なのにダッシュボードによって数字が異なるケースが発生
→未解決。Lookerを導入することで解決する予定

大元のデータベースと分析基盤とでデータの差異が発生(データの鮮度)
→データベースから分析基盤へ、定期的に全件連携を行うことでデータの差異をなくした

利益創出

 

データ人材を活用し、成果を出すために持っておくべき考え方

 

そもそもデータ人材の成果とは?



町田:前提としてデータにおける攻めも守りも成果だという考え方は持っておくべきです。
データ活用がそのまま売上に直結することはなく、たいていの場合データ活用から得た示唆を落とし込んだサービスや企画が利益を創出します。
そのうえでデータ分析基盤が安定することはその後の分析活動の礎となるため、安定していることが当たり前と思われがちだが、重要な業務であり十分成果と言えるでしょう。
業界内ではデータ分析やデータドリブンが長く重要だと言われ続けています。
しかし改めて考えてみると、データ分析の一番良いところは、答えのヒントがデータの中にあり、失敗したとしてもいつか答えにたどり着くところだと考えられます。
そのため企業のデータチームが存続していく上で必ず必要となる「データ活用の不を減らす、無くすこと」も現場でのデータ活用のスピードや質が上がり間接的に事業の成長に貢献しているのです。

 

目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう。



町田:例えば、抽出セルフ化の例では都度確認をいれず、自由度を上げた方がスピードが早くなります。現場に100%の時間を使っていない自分より、毎日現場で起きる事象と向き合っているメンバーのスキルを信じて任せています。
その他にも「ある程度自由に」、の「ある程度」の範囲は、個人の性格やパフォーマンスを見て設定しています。
人によって依頼の深度は変えて、必要であれば具体的なタスクに落とし込むこともあります。
ここで絶対に抑えておくべきは、いつまでに何を達成するかの期限の把握となります。
実はデータの取り組みに関しては期限がないことが多く、業務がスタックしないよう事前に決めておきます。

 

チームの目標、ミッション、重要アクションを整理する。ミッションがあることでメンバーが主体的にアクションを起こせる状態にする



町田:「目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう。」ためには、まずメンバー自身が何をするべきか理解しておかなくてはいけません。
チームが目指すべき状態、それを達成するために何が必要かを整理した上で、実際に重要アクションをお願いしています。また重要アクションのロードマップも作成し、メンバー間で共通認識を持つようにしています。

 

業務系の仕事は自動化するか、極力やらない。



町田:BigQueryは容易にレポート作成やデータ抽出ができるため、各部署からの依頼が殺到しやすくなります。
しかしある一定のラインを超えると、データ人材は売上や利益に貢献しやすい業務に注力するために、業務に優先順位をつける必要が出てきます。
データ人材にしかできない仕事、価値を発揮できることがあるためデータ抽出をセルフ化することやデータ更新を自動化することも重要となります。
また自動化のために、データ人材をメンバーズデータアドベンチャーのような外部ベンダーを取り入れるのも1つの手といえるでしょう。

 

 

新しい技術を積極的に取り入れる

町田:データ領域周辺の技術は進歩のスピードが速く、活用の幅も年々広がっています。
そのため、成果創出には先進的な取り組みを行っている会社の事例を参考にしつつ、積極的に新しい技術を取り入れる必要があります。
特にデータエンジニアリングに関しては、新しい取り組みを行った方がメンバーのモチベーション維持にもつながるため会社にとっても本人にとってもプラスになる取り組みと考えています。

 

若手専門人材との接し方

 

【前提】若手人材は長く在籍することで中長期的に価値を発揮しやすい



上記はトラストバンクに在籍する若手データ人材の成果の量や質について、在籍時間の経過とともにどのような変化がみられるかを表した図です。

町田:若手のデータ人材は着任後数か月間、データになれること、ドメイン知識や事業内容の理解に時間を要することが多いです。そのため成果の量や質の変化は緩やかです。
しかし数ヶ月〜1年を乗り越えると、事業に対する理解度や想いも強くなり生産性の向上がうかがえるため、成果の質・量の変化が大きくなる傾向があります。
一方、数ヶ月で成果が出ないことを理由に次のメンバーをアサインした際は、当然その都度知識や事業理解のコストがかかるため結果的には効率的でないことが多いです。
上記を前提としたうえで、トラストバンクでは多くのメンバーが長期的に在籍してくれているのでその要因を深ぼっていきたいと思います。

 

工数の30-50%は若手人材にとって成長につながるチャレンジ

 

町田:前提でもお伝えした通り若手のデータ人材は長く在籍することで中長期的に価値を発揮しやすくなるため、本人の意思やキャリア志向を尊重し、成長につながる経験をし続けることが価値創出の第一歩です。本人の意思やキャリア志向がマッチしないままの業務では成長できないと感じ早期離職を生み出す要因となってしまいます。
そのため全体の30%~50%に関してはできるだけ本人のキャリア志向とマッチし、かつ成長できるチャレンジ業務を任せることが必要となります。

 

心理的安全性の高い状態を保つ

町田:データ人材に限らずとも、若手のメンバーは特に職場での心理的安全性を確保しておく必要性があります。実際に心がけている意識と行動は以下の通りです。

特に若手であればスキル不足により業務がうまく進まない、他部署との繋がりが少ないためコミュニケーションコストが発生するといったことも往々にしてあり得ます。
そのような場合には業務がスタックしている部分がどこなのかを把握しフォローに入ることや他部署への橋渡しを丁寧に行う必要があります。
うまく進まない場合はメンバーのキャパシティを再度把握しなおし、依頼する業務の再配分を行うことでメンバーの心理的安全性の担保を図っています。

 

【その他】マネジメントの落とし穴にハマらないように気をつける

町田さんがメンバーと接する際、個人的に気を付けていることの1つにマネジメントの落とし穴にはまっていないか?を定期的に確認することがあげられるそうです。

町田:具体的な項目は図にある通りです。適切なマネジメントが出来ているのかと疑心暗鬼になった方はこのような項目で振り返ってみるのもよいかもしれません。

 

【その他】Winsession

トラストバンクではWinsessionというMTGを行っているとのこと。
Winsessionではメンバー一人ひとりが今週の自分のコンディションについて天気で表し、頑張ったことや一言コメントを披露する会で、それに対しマネージャーから今週よかったポイントを伝えようというものです。
メンバーの頑張りを誉めあい気持ちよく週末を迎えること、リモートワークでも気軽に話せる場を設けるという目的で実施されているそうです。

マネージャー目線ではメンバーの健康状態やモチベーションを把握できるという点、メンバー間では普段かかわらない社員の状況が把握できるという点で好評のため、リモートワークでコミュニケーションに悩まれている部署があれば取り入れてみてはいかがでしょう。

まとめ

 

データ人材を活用して成果を出すためには

若手データ人材の活かし方

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

国内最大級のビジネス向けDXメディア「DX Stock」に掲載されました。

【2024年最新】おススメの企業向けAI関連サービス・開発会社まとめ

 

弊カンパニーでは、データ活用への生成AIの導入支援が可能です。

詳細につきましてはお問い合わせください。

当記事は「データサイエンスをビジネスに活用したい」「データサイエンスを活用する際の概観を知りたい」といった方を対象に、以下に挙げた項目の説明を通じて、データサイエンスとその活用法への理解を深めていただくことを目的にしています。

「データサイエンスができること」では、弊社による実際の分析事例も含めてご紹介します。データサイエンスを活用したいとお考えの方にとって、当記事が次のステップに踏みだす足がかりとなれば幸いです。

執筆者のご紹介

武藤 賢悟(むとう けんご)
東北大学薬学部大学院修了後、大手食品メーカーにて統計解析を含む研究業務および商品開発に従事。その後2021年にDAへ中途入社し、現在までEC事業会社に常駐。ほか、教育事業会社や化粧品会社への常駐経験を経て、現在に至る。DAではサービス開発室に所属し、エキスパート人材として高度な分析手法を用いることで、クライアントのビジネス成果創出に貢献している。

 

 

目次
01.|データサイエンスとは
02.|データサイエンティストのスキルセット
03.|データサイエンスができること
04.|おわりに

 

データサイエンスとは

 

筆者が調査した限り、「データサイエンス」という学術領域に対して、世界共通の普遍的な定義はないようです。

これはおそらく、一般的にデータサイエンスの領分とされるデータの扱い方や解析技法が、現在進行形で進歩を続けていることと、その活動領域がいくつかの高度な専門分野にまたがっていることから、世間一般が描くデータサイエンス像が理解されづらく流動的であるゆえだろうと思われます。ハーバード公衆衛生大学院で教鞭をとっているHernán教授も、データサイエンスに関する考察の冒頭で次のように述べています。

 We argue that a failure to adequately describe the role of subject-matter expert knowledge in data analysis is a source of widespread misunderstandings about data science. 
 データ分析における専門知識の役割を適切に説明できない原因は、データサイエンスに対する広範な誤解にあると主張したい。 (筆者訳)
 – 出典:Miguel A. Hernán, et.al "Data science is science's second chance to get causal inference right: A classification of data science tasks"(2024年11月19日に利用)


この状況をふまえた上で、あえて現在における「データサイエンス」の定義を考えるにあたっては、いくつかの見解を見比べることが有効だろうと思われます。
筆者が調査したなかで最も簡潔な定義は、googleの元チーフデータサイエンティストであるKozyrkov氏による以下のものです。


 Data science is the discipline of making data useful. 
 データサイエンスは、データを便利にする学術分野である。(筆者訳)
 –出典:Cassie Kozyrkov"What on earth is data science?"(2024年11月19日に利用)


この定義には個人的に首肯できるものの、いささか抽象的すぎるため、他にもいくつかの定義を確認しました。

 データに隠されている実用的な洞察を、専門知識、数学と統計、特殊プログラミング、高度な分析、人工知能(AI)、
 機械学習を組み合わせて明らかにすることです。
 得られた洞察は、意思決定と戦略計画策定の指針として活用できます。
 –出典:IBM「データサイエンスとは?」 (2024年11月19日に利用)

 データサイエンスは、ビジネスにとって意味のあるインサイトを抽出するためのデータの研究です。
 これは、数学、統計、人工知能、コンピュータエンジニアリングの分野の原則と実践を組み合わせて、
 大量のデータを分析する学際的なアプローチです。
 この分析は、データサイエンティストが、何が起こったのか、なぜ起こったのか、何が起こるのか、
 結果で何ができるのかなどの問題を提起し、答えるのに役立ちます。 
 –出典:AWS「データサイエンスとは」 (2024年11月19日に利用)

 データサイエンティスト(分析人材)とは、高度に情報化された社会において、
 日々複雑化及び増大化(ビッグデータ化)するデータを、利用者の利用目的に応じて情報を収集・分析する技術を有し、
 ビジネスにおいて実行可能な情報を作ることができる者をいう。 
 – 出典:一般社団法人データサイエンティスト協会「協会概要(2024年11月19日に利用)

これらの定義から最小公倍数的な要素を抽出し、筆者はビジネス活用をめざしたデータサイエンスを次のように解釈しました。

また、ビジネスの意思決定はPDCAサイクルやOODAループの一部として説明されるように、おおむね「課題の設定 -> 現状の確認  -> 解釈 -> 意思決定」というフローを経るものと想定されます。この流れにもとづいて考えると、データサイエンスは意思決定に先行する「現状の確認」および「解釈」のステップを科学的なアプローチによって慎重に進める営みとも解釈できそうです。

 

データサイエンティストのスキルセット

 

では、データサイエンスの実践者たる「データサイエンティスト」は、どのようなスキルセットをもってデータサイエンスを行っていくのでしょうか? 「データサイエンス」に対する共通の定義がない以上、その担い手のスキルセットも同様に共通見解を見出すことは難しいようです。データサイエンティスト協会の目的に

 

 社会のビッグデータ化に伴い重要視されているデータサイエンティスト(分析人材)の育成のため、 
 その技能(スキル)要件の定義・標準化を推進し、社会に対する普及啓蒙活動を行う。

 

とあることからも、逆説的にデータサイエンティストのスキルセットが流動的であることが示唆されます。

このような状況を鑑み、当記事では現在のデータサイエンティストがもつ個別具体の技術 (例: Pythonのxxモジュール, yy機械学習, etc..) には言及しません。今後しばらくは普遍的に求められるであろう、要素レベルでのスキルセットについて考えていきたいと思います。これにあたっては、IBMによるデータサイエンティストの記述が参考になりました。

 

 ”データサイエンスは学術分野で、データサイエンティストはこの学術分野における実践者であると考えられています。
 データサイエンティストは必ずしも、データサイエンスのライフサイクルに伴うすべてのプロセスに直接的な責任
 を負うわけではありません。
 例えば、データ・パイプラインは通常、データ・エンジニアが処理します。
 しかし、データサイエンティストがどのような種類のデータが便利であるか、
  あるいは必要であるかについて提案する場合があります。
 データサイエンティストは機械学習モデルを構築できる一方、
 こうした取り組みを大規模なレベルで拡張するにはプログラムを最適化してより迅速に実行できるようにするための
 ソフトウェア・エンジニアリング・スキルがさらに求められます。
 そのため、データサイエンティストが機械学習エンジニアと協力して機械学習モデルを拡張するのは珍しいことではありま
 せん。”
 –出典:IBM「データサイエンスとは?」 (2024年11月19日に利用)

 

ここから、データサイエンティストはデータサイエンスのすべての行程を単独で行うとは限らず、周辺領域のスペシャリストやアナリストとの協力のもと業務にあたることが一般的だとわかります。
また、データサイエンティストはその軸足をデータの分析に置いているため、特定の調査対象に関するドメイン知識が十分でないことは珍しくありません。したがって、データサイエンティストがその業務を全うするためには、意思決定者や調査対象の実務担当者を通して十分なドメイン知識を得ることも重要な必要条件の一つです。

以上を踏まえ、引き続きIBMのデータサイエンティストの技術要件を確認します。

 

 ”つまり、データサイエンティストは次のことができる必要があります。

十分に整理されており蛇足であることは否めませんが、あえてさらに要約するならば、

以上がデータサイエンティストが果たすべき要件だといえそうです。

 

データサイエンスができること

 

データサイエンスが特定のビジネス領域に留まらず、学術的研究や政策決定にも応用可能であることについては、当記事ではことさらに言及しません。

では、応用先によらずデータサイエンスが果たせる要素はどのようなものなのでしょうか。Hernán教授はデータサイエンスの果たす役割を考えるにあたって、そのアウトプットを「意味」や「洞察」とするのは曖昧すぎると述べ、より具体的な要素として次のような分類を提唱しています。

 The scientific  contributions of data science can be organized into three classes of tasks: description, prediction, and counterfactual prediction
 データサイエンスによる科学的な貢献は「記述」「予測」「反実仮想」の3つに分類できる。(筆者訳)
 – 出典:Miguel A. Hernán, et.al "Data science is science's second chance to get causal inference right: A classification of data science tasks"(2024年11月19日に利用)


当記事でもこの分類にならい、それぞれの概要と事例を説明します。

記述 (description)

概要

データを使って、あるできごとを定量的に要約することを指します。要約した値の可視化もこれに含まれます。

技術

平均値や割合計算などの簡単な計算から、次元削減や教師なし学習などに代表される技術に至るまでの広汎な技術が用いられます。

可視化にあたっては、データサイエンティストに親しまれているPythonやRのモジュールや、TableauやPowerBIなどに代表されるBIツールを活用するケースが一般的です。

図1

図1出典:弊社事例集(2024年11月19日に利用)

 

予測 (prediction)

概要

あるデータから、他のデータの値を予測することを指します。予測する値は、元の値との関係性がうたがわれる値や、元の値の将来にわたる値などが該当します。

技術

相関係数やリスク比などの簡単な計算から、統計モデリング・機械学習・ニューラルネットワークなどを活用するケースなど、記述と同様に広汎な技術が用いられます。

反実仮想の予測 (counterfactual prediction)

概要

ビジネス上の意思決定においては、"ある意思決定の結果が目標に対してどのような効果をもたらすか" –言い換えれば、意思決定を行った場合の目標は、行わなかった場合と比べてどの程度変わるか- に関する示唆が重要であるケースが珍しくありません。

このような課題が設定された場合、「記述」や「予測」の結果は直接的な解答たりえないことがあります。 たとえば、売上を精度よく予測することに成功したとしても、これは「売上を最大化させるための広告出稿配分はどのようなものか?」といった意思決定にはなんら答えを提供してくれません。

"反実仮想"とは、実際にあるイベントが起きた現実に対し「もしイベントがなかったら?」というifの世界を指します。反実仮想下での目標値の様子を推定することができれば、現実の目標値との差から、イベントが原因でもたらされた変化を定量的に評価することができます。

技術

反実仮想を正確に推定するためには、主に統計学分野の十分な知識が必要とされるだけでなく、「関心のあるできごとがどのような力学で動いているのか」に関する実務者の十分な知見や仮説も必要不可欠です。なぜならば、反実仮想の予測とは、乱暴にいえば「興味のある値の変化にかかわるすべての値をシミュレーションすることで、ある特定のイベントの有無による差を調べる」ものであるためです。必然的に、記述や予測とくらべて達成難易度の高いタスクといえます。

なお、すでに得られた過去のデータから得られる反実仮想への示唆は非常に限定的であり、より精緻な予測をしたい場合には試験を行うことが推奨されます。ウェブマーケティングの分野では、ある施策をセッションごとにランダムに割り当てることで施策の効果を推定する「ABテスト」が実施されるケースが散見されますが、これも試験の一形態です。

ただし、ABテストから関心のある反実仮想を正確に予想するためには、本当にランダムな割り付けがされているか、判断したいことに対して適切な統計手法の選択と解釈ができているか、評価結果による受益者と評価者が同一でデータを剽窃するモチベーションが働かないかなど、いくつかの専門的な見地から慎重な計画と実施が求められます。

 

おわりに

 

ここまで、「データサイエンス」「データサイエンティスト」とはどのようなものなのか、複数の見解を参照しつつ考えてきました。

また、さまざまな領域での応用ができるデータサイエンスについて、その普遍的な役割についてもHernán教授の分類を交えて紹介しました。

周辺技術のめぐるましい進歩やセンセーショナルな活用事例が喧伝されやすい環境にあって、その輪郭が見えにくいデータサイエンスですが、この記事が地に足のついたデータサイエンスの活用法を考える一助になることを願います。

また、お持ちの個別具体な課題に対してデータサイエンスがどのように活用できるか、データサイエンスによる意思決定を推進するためにはどうすればいいかといったご相談も弊社では承っております。この記事をご覧になって気になることがございましたら、ぜひご気軽にご連絡くださいませ。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

参考資料

 

今回の記事では以下のことをお伝えします。

執筆者のご紹介

吉川寛
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー サービス開発室 室長
企業のデータ活用を強力に進めるために不可欠なスキルやジョブを定義しそれらを提供するためのサービスを開発を担当
データサイエンティストとして顧客企業に常駐し、現在はWebサイト訪問時の購入予測モデルの構築や、サービスの需要予測モデルのチューニングを担当
経歴:人事コンサルタント、事業会社での経営企画を経て2020年2月にメンバーズ入社
顧客企業にデータサイエンティストとして常駐し、データチームの立上げとグロース、施策効果検証や需要予測分析を行うほか、社内データ活用レベルの向上を狙った勉強会を開催してきました。2023年から現職。

 01.MOps(マーケティングオペレーション)とは?

マーケティングオペレーション(以下MOps)とはマーケティングチームを支える縁の下の力持ち的な役割です。マーケターの主な業務は顧客への価値提供を企画することにあるといえます。顧客の趣向や課題を探り自社サービスを届けるためその知見を駆使しています。さらに近年ではプロジェクト管理ツール、MAやBIツール、DMPやCDP、CRMシステムなどのマーケティングテクノロジーを活用するシーンが劇的に増えています。これらマーケティングテクノロジーを最大限活用できる環境を選定・構築し、活用するためのルール設計、データマネジメントやデータサイエンス、データ可視化などを担い、マーケティング活動の管理体制やプロセスの構築・運用を担う役割です。

 02.MOpsのメリット

マーケティングオペレーションはマーケティングとITの架け橋と言われ、マーケターをマーケティングテクノロジーの管理から解放します。マーケティングテクノロジーの活用にはクラウドシステムやデータマネジメントの知識が必要とされます。具体的にはMAツールへの顧客データの連携やWeb接客ツールで利用するための顧客フラグや属性情報の作成、アクセス解析や解析のためのタグ設計などです。IT部門とマーケターの架け橋としてMOpsが有効に機能することでCRM基盤の強化、マーケターの創造性向上、データ活用による施策デザインが可能となり、マーケターが施策企画・実施に専念し、成果向上のためのPDCAサイクルをより高速に効率的に回すことができるようになります。属人的になりやすいマーケティング施策においても再現性の獲得や標準レベルの向上が見込めます。これはデータドリブンマーケティングの実現にも大変有効です。

 03.MOpsの課題

企業のマーケティングレベルを向上させるMOpsですが、最大のネックは人材不足です。MOpsの実行にはマーケティング実務に関する知識だけでなくテクノロジーの知識が多く必要となります。中でもクラウドサービスの導入やデータ準備、顧客基盤やデータ分析基盤の構築などには従来のマーケティングチームにはなかなか知識・技能をもった人材のいない領域が多くあります。またマーケターは企業収益の中心にいるため、それらの知識・技能を獲得するための時間を取ることが難しく、実行可能であったとしても本来の企画推進業務と並行して実施するにはリソース不足となりやすいのが現実です。多くの企業ではマーケティングテクノロジーを導入してもその活用環境や活用のための業務・組織構築が追いつかず、結果的にツールを活用しきれなかったり、ツールを変更することでその解決を測ろうとしても同じことが起きたりします。

 04.データアドベンチャーのMOps支援

データアドベンチャーではそのようなお客様の課題を解決するため「MOps支援サービス」をご用意しております。
MOpsという言葉は知らなくともマーケティングテクノロジーの導入や活用に課題のある企業は多くあります。
MOps支援サービスはデジタルマーケティング領域でのデータ活用支援に数多くの実績があるデータアドベンチャーが様々なお客様と共に課題を解決してきた実績とその知見を集約したサービスです。
マーケティングにおけるデータ活用の構想からデータ収集・分析・活用、各種ツールの導入・運用支援、データサイエンスを用いた顧客分類やLTV予測、運用内製化までトータルで支援するサービスです。全体導入から部分支援まであらゆる形での支援が可能となっております。

MOps支援サービスに関する詳細はこちらから→【プレスリリース】企業のデータドリブンマーケティングの実現を推進! データの専門家による「MOps支援サービス」提供開始

MOpsのサービスで支援可能な領域を示した画像図:「MOps支援サービス」支援範囲

 まとめ

マーケティングチームを支えるMOpsはその多くの領域でデータ活用に関する知識・技術が要求されます。まずは自社にとって必要なMOpsの仕組みを検討するために部分的に開始し、領域を広げながら徐々に浸透させたい。あるいは一気に全社のマーケティングプロセスの改革を実行したい。どちらの場合でもMOpsやデータ活用の専門人材が必要となります。
データアドベンチャーでは数多くのMOps領域におけるデータ活用支援実績があります。お客様の課題に合わせたご支援をプランニングいたします。


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

\ 相談する前に資料を見たいという方はこちら /

 資料ダウンロードはこちら > 

▶こちらも要チェック

【プレスリリース】企業のデータドリブンマーケティングの実現を推進! データの専門家による「MOps支援サービス」提供開始

昨今、自社サイトを持っている企業は増え続けているのではないかと思います。ただ、サイトを作成しただけでは効果が出ることは少ないです。アクセス解析を行うことで自社サイトの効果を何倍にも高めませんか。この記事ではアクセス解析を行うメリットや実際に行う方法、アクセス解析に使用するツールをご紹介します。

 

執筆者のご紹介

柏谷
所属:株式会社メンバーズメンバーズデータアドベンチャーカンパニーアナリスト事業部
ECプラットフォームでのアクセス解析、ユーザー分析関連企業に常駐中
Data Saber/ウェブ解析士/OSS-DB Silverなど

 

目次
01.| アクセス解析とは
02.|アクセス解析を行うメリット・重要性
  サイトの課題・改善点がわかる
  サイト上で効果検証が行えるようになる
03.|アクセス解析のステップ
  事前準備
   サイトの目的を明確にする
   アクセス解析できるツールの導入
   正しくデータが収集できる環境のを用意
  アクセス解析の実際のステップ
    何を調査したいか決める
   サイト全体の大枠のデータを理解する
   CVまでのカスタマージャーニーを考える
   施策に落とし込む
04.|アクセス解析におすすめのツール紹介
05.|筆者のアクセス解析支援事例
06.|まとめ

 

アクセス解析とは

 

Webサイトを運営するにあたって、WebサイトのCV(品物の購入や会員登録など成果となるもの)数が思うように伸びない、そもそもどの程度効果が出ているかわからないと悩んでいる人もいるのではないでしょうか。このようにサイトの課題を発見・改善する際にはアクセス解析が有効です。

 

アクセス解析とは以下のデータを用いてサイト訪問者の状況を数値によって可視化・分析することです。

 

この記事では、アクセス解析を行うことでのメリット、行う際のステップ、アクセス解析に役立つツールについて解説します。定量的なデータを見ながら施策検討や効果測定を行うことへの参考としてください。

 

アクセス解析を行うメリット・重要性

 

実際にアクセス解析を行うメリットは何でしょうか。アクセス解析の結果からわかること、できることについて説明していきます。

サイトの課題・改善点がわかる

アクセス解析を行うことにより、データからサイトの課題を見つけることが可能です。アクセス解析をしようと思い立ちこの記事を閲覧しているということは、運営しているサイトについて何かしら改善したい箇所があるのかと思います。ただ、具体的に何を改善すればよいかがわからず悩んでいるのではないでしょうか。その課題を発見し、詳細まで原因を解析する材料としてアクセス解析で得られるデータが必要となります。

例えば、サイト全体でCVが落ち込んでいる際に、どこに原因があるかを考えてみましょう。
仮にCV=サイトでの会員登録と仮定します。
新規ユーザーがサイトを訪問し、会員登録するまでのステップを、アクセス元のデバイスをセグメントとして区切った際にデスクトップではCVRが30%だったのに対し、スマートフォンからではCVRが15%だったということが見えて来たとします。スマートフォンでの会員登録率がデスクトップの登録率と比べ半減していたということは、スマートフォンでの会員登録導線が使いにくいのではないかと仮説を立てることができるでしょう。

サイト上で効果検証が行えるようになる

アクセス解析では、改善点を知るだけでなく実際に改善を行う際の効果検証を行うことができます。
ユーザーのために使いやすくサイトを改修したとしても、実際にユーザーが使いやすくなったかどうかはインタビューをするか、データでユーザーの行動を確認しなければわかりません。
そのため、ABテストや改修前後でユーザーの行動がどう変化したかを数値として分析することが必要です。

 

アクセス解析のステップ

 

1.事前準備

a.サイトの目的を明確にする
アクセス解析をする前に、Webサイトの目的や目標を明確にする必要があります。これらが明確でないと誤った分析を行い、改善施策も意味のないものになります。
何をサイトでやりたいのか、対象者は誰なのかを明確にしたうえで先に進むことができます。
サイトを作る際に目的や対象者を決めているはずなので、その内容を深堀りして、目的やKPIに落とし込んでみてください。

b.アクセス解析できるツールの導入
アクセス解析するためには、データ取得をするためのツールが必要になります。
Googleアナリティクスなど無料のツールもあるので、データ取得ができるように準備を進めてください。詳しいツールの紹介はこの後でも紹介しています。

c.正しくデータが収集できる環境の用意
ツール導入するだけでなく、欲しいデータ取得のためのイベントやパラメータの設定(データ計測を行うためのシステム上の設定)が必要となります。マーケティング担当者だけでは難しい場合もあるので、その際には専門家に頼んでみることもおすすめします。

 

2.アクセス解析の実際のステップ

a.何を調査したいか決める
まずは何を調査したいかを決めていきます。難しく考えず、現時点で困っている内容に目を向けましょう。例えば、会員登録率が下がっている、購入単価が減っているのはなぜか、などです。

b.サイト全体の大枠のデータを理解する
課題を把握した上で、まずはサイト全体のデータを眺めてみましょう。全体を把握することでセグメント別に分けたり、過去のデータを見た際に比較して多いのか、少ないのかなど目安がわかるようになります。

PV(ページビュー)数
UU(ユニークユーザー)数
セッション数
ユーザー数
エンゲージメント率
直帰・離脱率

ほかに、サイトにアクセスしているユーザーデータも確認してみましょう。

c.CVまでのカスタマージャーニーを考える
全体を見たところで本格的にアクセス解析を進めていきます。サイト上でCVとなるまでのステップを考えてみましょう。
自社のCVまでの想像がつかないのであればAIDMA(消費者が商品を初めて知ってから購入にいたるまでのプロセス)で考えてみるとわかりやすいでしょう。

CV=商品の購入と考えた場合、以下のようなステップが考えられます。

Attention(認知):サイト内外で商品を検索する。
Interest(関心):商品を発見、興味を持ちほかの品のページを読んで比較する。
Desire(欲求):商品を欲しいと考える、悩む
Memory(記憶):商品をお気に入り登録したり、カートに入れる。
Action(行動):商品を購入する

このステップの中で極端に数値が低い箇所はないかを探します。例えば、Attentionで商品ページの閲覧が少ない場合にはバナーなどで商品をサイト内でPRするところから始まるでしょうし、カートまで入れているのに購入が少ない場合にはもしかしたら、購入する際のクレジットカードの登録や住所を記載するのが大変で離脱しているということが考えられるかもしれません。

ほかにもユーザーのデバイスや性別、年齢、購入する曜日などで差がないかなどを調査できます。

d.施策に落とし込む
これが原因かもしれないというヒントが見つかったら、施策を行ってみましょう。
施策を行う前後でデータに変動があるか確認してみてもいいですし、もしできるのであればABテストを行って効果があったのかを検証することも有効です。
施策を行って終わりではなく、効果検証を行うことで次のアクセス解析につながっていきます。

 

アクセス解析におすすめのツール紹介

 

アクセス解析を進めるにあたり、おすすめのツールをご紹介します。

 

Googleアナリティクス

ページごと(URLごと)・ユーザー別・期間別など、セグメントに分けたアクセス状況を細かく分析することが可能になります。無料で使用できるため、サイトのアクセス数など基礎的なデータを確認するのにはおすすめです。LookerStudioなどの可視化ツールやGoogleタグマネージャなどGoogleの他のWebマーケティングツールと連携するとより分析が楽になります。無料では使用できることが限られるため、必要に応じて有料プランに移行するのもいいでしょう。

 

Google Search Console

Google Search Consoleとは、検索エンジンのロボットがSEO観点でどのようにサイトを認識しているかを確認・管理できる、Googleの無料ツールです。自社サイトのクリック数や表示回数といった検索内容や外部リンク、内部リンクの状況など、SEO対策において重要な要素やエラー状況を確認することができます。Googleアナリティクスとは分析できる項目が違うため、併用をおすすめします。

 

Adobe Analytics

Adobe Analyticsは、アドビ社が提供するアクセス解析ツールとなります。ユーザーの行動データを可視化して、簡単に分析・ボトルネックを発見できるツールです。大まかな内容はGoogleアナリティクスと似ていますが、ユーザーデータをインポートして使用することができるなどの機能が存在します。

 

SimilarWeb

SimilarWebとは、世界規模でWebサイトの分析ができる、無料のマーケティングツールで、競合他社のアクセス状況が把握できます。上記で紹介したツールは自社のサイトしかアクセス解析ができないので、競合他社と比較したい場合にはSimilarWebを使用してみてください。

 

User Local

User Localは無料アクセス解析ツールの中でも、ユーザーが利用している端末の情報を取得できるという特徴があります。またPV数やユーザ数は10分ごとの数字を確認できるため、リアルタイム分析に適しています。ヒートマップを使用すればユーザーがページのどこを重点的に閲覧しているのか、クリックしたか、どのくらいスクロールされたのかなども確認ができます。

 

筆者のアクセス解析支援事例

弊社ではアクセス解析での事例は多々存在しますが、ここではある一例をご紹介します。

私が常駐していた企業が提供するプラットフォームサービスの、サイトでのCV(=無料パンフレット請求)数をより向上できないか、請求依頼の多いパンフレットをまとめて送付できないかと相談を受けたことがありました。

カートまでのユーザー行動の導線や同一ユーザーの長期間の行動を分析していった結果、パンフレットを1回ではなく2〜3回に分けて請求依頼をしていることに気づきました。起きていたユーザー行動としては、元々欲しいと思っていたパンフレットを読んだ結果、ほかの資料も読みたい、確認しておきたいということに気づき、再度似たようなパンフレットを請求しているということでした。

そのため、カートの下に「このパンフレットもまとめて請求しませんか、このパンフレットを請求している方はこちらのパンフレットもよく請求しています」というような文言を掲載し、ユーザーのカートに入れたパンフレットと類似しているパンフレットを追加で請求させる施策を行いました。また、まとめて請求できるというボタンも追加しました。

この施策の結果としてパンフレット請求数を1.8倍ほどに増やすことができました。ユーザーの行動まで分析した結果として上記のような結果を出すことにつながりました。

 

まとめ

 

今回はアクセス解析のメリットと重要なポイントを紹介してきました。アクセス解析ができるようになることで、サイトの課題を分析して改善するまでを迅速に行うことができます。これからアクセス解析を実施するなら、まずはデータ収集から始めましょう。ツール導入や選定が難しい場合にはデータアドベンチャーカンパニーをぜひ頼ってくださいね。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

今回の記事では、数多くあるSaaSツールから自社に合った適切なSaaSツールの選定〜導入までの過程について解説していきます。
この記事を通して、自社に合ったSaaSツールの選定〜導入ができることを目的としています。

 

執筆者のご紹介

村上
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
経歴:理系大学院を卒業後、株式会社メンバーズに入社
データエンジニアとして不動産ディベロッパーのクライアント様に常駐
Excelを用いたデータ整理の手法を提案し、開発し、運用しています。
またクライアント様のDX化とデータ基盤構築開発のアドバイスを担当しています。


所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
経歴:情報系高専を卒業後、株式会社メンバーズに入社。
2024年9月までイベントプラットフォーム運用企業にてデータ関連業務の支援を行いました。
現在は、Azureを用いた検索拡張生成 (RAG) システムの開発を行っています。

 

目次
01.| そもそもSaaSツールとは?
  SaaSの定義
  一般的にどのようなツールが対象となるのか
02.|SaaSツールを使用するメリット
  インターネットが接続できる環境があれば、どこでも利用できる
  初期投資のコストを削減できる
  スケーラビリティが高い
  クラウドサービス事業者による管理
03.|データの専門家が考える、何を基準にSaasツールを選定すべきか
   ニーズの明確化
  業務で使用するツールとの適合性・統合性
  ユーザビリティ(ツールの操作性)
  セキュリティとコンプライアンス
  コストパフォーマンス
04.|データの専門家が利用する代表的なSaaSツール
  Amazon Redshift
  Google BigQuery
  Snowflake
  Azure Synapse Analytics
05.|Saasツールは導入してからの活用が本番
06.|まとめ

 

そもそもSaaSツールとは?

SaaSの定義

SaaSは『Software as a Service』の略称で、サースまたはサーズと呼びます。
SaaSは、クラウドサービス事業者が提供するソフトウェアをインターネット経由でユーザーが利用できる仕組みです。利用契約を結ぶことで即座に利用できることが大きな特徴です。無料版やトライアル版を提供しているサービスも存在します。

一般的にどのようなツールが対象となるのか

代表的なツールとして下記のものが挙げられます。(一部ご紹介)

・オンライン上でオフィス環境を提供する
 Google Workspace(Google社提供)
 Office365(Microsoft社提供)

・Web会議
 Zoom(Zoom社提供)
 Skype(Microsoft社提供)
 Google Meet(Google社提供)

・ビジネスチャットツール
 Slack(Salesforce社提供)
 Gmail(Google社提供)
 Teams(Microsoft社提供)

 

SaaSツールを使用するメリット

 

SaaSツールの導入には、様々なメリットがあります。


1.インターネットが接続できる環境があれば、どこでも利用できる
 SaaSツールはインターネット経由でアクセス可能なため、インターネット接続ができる環境であれば、どこでも利用できます。リモートワークなど、従業員の柔軟な働き方を実現する一助ともなります。

2.初期投資のコストを削減できる
 SaaSツールは、既に開発されているサービスを利用するため、独自に開発する必要がなく、開発費用や設備追加などの初期投資のコストを削減できます
 基本的に買い切り型の購入ではなく、定額で一定機能を利用できるサブスクリプション型の課金や、利用量や機能に応じて料金も変動する従量課金があります。一般的にはどの利用形態でも必要なくなればすぐに解約可能です。また、コスト管理の観点(特に従量課金制)では、上限を設定してアラートをあげる・サービスを止めるなどの仕組みは存在しているため、使いすぎも防げます。

3.スケーラビリティが高い
 SaaSツールは、ユーザーのビジネス用途に応じてリソースや機能を容易に拡張・縮小できるため、突発的な需要の増減に柔軟に対応しながらシステムを運用できます。必要な機能があれば簡単に追加し、不必要な機能は削除することが可能です。

4.クラウドサービス事業者による管理
 多くのSaaSツールは、クラウドサービス事業者が管理するサーバー上に設置されており、バージョンアップやセキュリティ対策も行ってくれます。
 また、クラウドサービス事業者は常に最新の機能やセキュリティパッチを適用してくれるため、利用者は常に最新の状態で利用できます。

 

データの専門家が考える、何を基準にSaasツールを選定すべきか

 

1. ニーズの明確化
自社の業務課題や目標を明確にし、ニーズを把握することは必要不可欠です。ニーズが明確でないと、適切なSaaSツールを選定することができません。適していないツールを導入すると、課題が解決できず、無駄な労力やコストが発生します。そのため、ニーズを把握することが適したSaaSツールを導入するための重要な第一歩となります。

2. 業務で使用するツールとの適合性・統合性
普段業務で使用しているツールやシステムと連携ができるか、またその連携が容易であるかも重要な観点です。普段使用しているツールや既存システムと連携が取れない場合、導入したSaaSツールを使いこなせず、期待した効果を得られないことがあります。そのため、自社で使用しているツールが検討中のSaaSツールとの連携が可能かどうかは、重要な選定基準となります。

3. ユーザビリティ(ツールの操作性)
当然、使いやすさも選定要素の一つです。操作性が複雑だと、活用する人が少なくなり、せっかく導入しても誰も使わなくなる可能性があります。そのため、操作性が優れたツールを選ぶことが重要です。ツールによってはトライアル版が用意されている場合があるため、事前にトライアル版を使用してみることで選定がスムーズかつ的確になります。

4. セキュリティとコンプライアンス
SaaSツールを導入する上で、セキュリティは重要な要素の一つです。特に個人情報や機密情報を扱う場合、SaaSプロバイダーがどのようなセキュリティ対策を講じているのか、また法令遵守の状況を確認する必要があります。セキュリティが不十分だと、問題が発生した場合に対応が遅れたり、二次被害を引き起こす可能性があります。そのため、コンプライアンス要件とプロバイダーのセキュリティポリシーを照らし合わせて確認することが重要です。

5. コストパフォーマンス
SaaSツールのコストも重要な要素です。初期投資や運用コストだけでなく、導入後の効果(業務効率の向上、売上の増加など)を考慮し、そこから得られる利益や効果を算出することで、適切なコストが判明します。ツールによって料金体系が異なるため、担当者と確認しながら選定することで、無駄なコストを支払うことなく業務効率を高めることができます。

 

データの専門家が利用する代表的なSaaSツール

 

Amazon Redshift

機能

コスト

特徴

 

Google BigQuery

機能

コスト

特徴

 

Snowflake

機能

コスト

特徴

 

Azure Synapse Analytics

機能

コスト

特徴

 

Saasツールは導入してからの活用が本番

 

SaaSツールは導入しても、ツールを活用してくれる人がいないと効果がありません。
活用されない大きな理由として、「社内に浸透していないので活用しづらい」というものが挙げられます。
社内に浸透していない理由として、以下のような例があります。

  1. SaaSツールの使い方がわからない。または問題発生時の対応がわからない
  2. 既存の業務に慣れているため、新規で覚えるのが難しい
  3. ツールを使うのに抵抗がある

これらの理由でSaaSツールが活用されずにいます。

そのため、SaaSツールを導入したら社員に導入の目的やメリットなどを伝える必要があります。
更に以下のことを行うとツールの活用促進に繋がります。

1.SaaSツールのワークショップの開催
 ツールの導入時に、社員に対してSaaSツールのワークショップを実施します。実際の業務でどのように使うか、どのようなメリットがあるのかを示してあげることで、不安を解消し活用を促進します。

2.マニュアルを展開
 ツールのマニュアルを展開することで、社員が新規で覚える必要がありません。また問題発生時の対応を記載することで社員は安心してツールを活用します。

3.フィードバック対応
 SaaSツールは導入しただけでは意味はなく、定期的に社員の意見をフィードバックをしてもらい改善することも重要です。改善した情報を小まめに発信することで、使う環境を整えます。

SaaSツールは導入するだけでは意味がありません。導入して活用されて結果を出してこそ初めて意味があります。計画的な導入と定期的な改善を通じて、社員が使いやすい環境を整えることが重要です。

 

まとめ

 

SaaSツールは、インターネット経由で提供されるソフトウェアであり、企業にとって多くのメリットを提供します。導入は容易でインターネット接続があればどこでも利用可能で、業務の柔軟性が向上します。
ツールの選定時には、自社の業務課題や目標を明確にし、ニーズを把握することが重要です。
更に既存の業務ツールとの適合性や統合性、ユーザビリティ、セキュリティ、コストパフォーマンスを考慮する必要があります。

SaaSツールは導入してからの活用が本番です。社内浸透が鍵であり、ワークショップやマニュアル展開、フィードバック対応を通じて、社員が使いやすい環境を整え、そのツールの効果を最大化することが重要です。

このように、SaaSツールを効果的に選定・活用することができれば、企業のビジネスに大きく貢献できるでしょう。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

執筆者のご紹介

青木
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー アナリスト事業部
データアナリストとして、これまでに様々な企業のデータに関わる業務(データ抽出、分析、相談、ダッシュボード実装など)を担当いたしました。特にGCP関連やExcelに強いです。

 

目次
01.| データドリブンマーケティングとは?
02.|データドリブンマーケティングが浸透した背景
03.|データドリブンマーケティングのメリット
04.|データドリブンな意思決定をするために必要な手順
05.|失敗しないために何が重要か
06.|まとめ

 

データドリブンマーケティングとは?

 

データドリブンとは、直訳すると「データ駆動」となります。
ビジネスの文脈での意味は、課題解決策の考案や意思決定の根拠として、売上データやWEB解析データなど、「データに基づいて」判断やアクションを行うことです。
ちなみに「ドリブン(driven)」という言葉には「何かを基にした意思決定」などの意味が含まれています。

つまり、データドリブンマーケティングとは、オンライン・オフラインを問わず取得した売上データ、ユーザー行動データなど複数のマーケティングデータに基づいて、経験や勘のみに頼らず、データ主導で客観的に判断するマーケティング手法をいいます。定量的な評価ができることから、KPIなどの指標を設けて比較できる場合はスピード感のある判断が可能です。

 

データドリブンマーケティングが浸透した背景

 

デジタル技術が発達した現代では、企業も個人もデータを通じたコミュニケーションが活発な時代となりました。

このように売上データ、ユーザー行動データ、顧客対応データ、広告データ、Eメール配信データ、会員データ、位置情報など、マーケティングに活かせる可能性がある膨大なデータを蓄積できるようになりました。そして、これらは重要な資産となります。データを蓄積していれば、あらゆる比較や高精度な分析・機械学習モデルの構築などが行えます。

これらを活用し、競争優位性を得るためのデータ活用が不可欠になった点が、データドリブンマーケティングが浸透した背景です。
また、実績データの即時性から費用対効果やKPI進捗についても日々把握できるようになり、データに基づいた判断がしやすくなった点も大きいでしょう。

 

データドリブンマーケティングのメリット

 

1.正確な予測ができ(=コスト削減につなげられる)、顧客満足度を向上させることができる

時系列データ、実績データなどの過去データを蓄積できていれば、予測して、消費者のニーズに応えることもできます。データが多ければ予測精度も上げられるでしょう。
より正確な予測ができ、最適な量やニーズが分かれば新商品の開発につなげることもできるかもしれません。また、これらを機械的に行うことで、より意思決定のスピードを上げることができます。

 

2.属人化を防ぎ、具体的に把握できる

経験や勘のみに頼ることのない、データによる根拠に基づいた意思決定ができるため、属人化を防ぐことができます。また、経験をもとにした仮説が、データによって補完・補正され、より筋の良いものになります

例えば、あるスーパーマーケットで「13:00~15:00に女性の購買がとても多い」と店長から報告があったとします。「とても多い」は店長の肌感覚ですが、データをみれば実際にその時間帯に店舗にいなくとも、一定期間の「購買客の属性データ・売上時間データ・売上金額データ」からおおよその傾向をつかむことができます。また、データにより他の時間帯との売上の比較もでき「とても多い」を「〇割多い」など店長の主張を客観的に表すことができます。

 

3.課題や改善策をみつけることができる

課題について、データから以下の状況が判明し、改善策を検討することができます。

課題(例1)…ECサイトでスマートフォンユーザーはカートまで商品を入れるのに、その先の決済が完了されない
データから判明した状況…スマートフォンのカート画面ではキャンペーンバナーが表示され、そちらに誘導されるユーザーが一定数いた。
改善策…スマートフォンのカート画面のキャンペーンバナー表示をやめ、ユーザーの意識が分散しないように画面設計を修正する。

課題(例2)…メールよりもXからの流入が多いようだ
データから判明した状況…メールからの誘導を試みていたが、会員はXをよく利用し、そちらの閲覧が多いようだ。
改善策…会員の行動傾向を再度分析し、どのメディアのアプローチが有効か、メディアのあり方と施策を検討する。

このように、データに基づいて客観的にボトルネックや新たな発見、弱点、課題をみつけることができます。

 

データドリブンな意思決定をするために必要な手順

 

1.指標とKPIを設定する

データに基づいた意思決定をするには、基準が必要です。
KPIは組織内で「何を」「いつまでに」のような達成状況を分かりやすく、共通で把握できる基準です。また、KPIから具体的な改善施策などが導き出されますが、進捗により必要に応じて戦略を調整することも可能です。
KGIを踏まえたうえで、指標を決め、KPIを設定しましょう。

 

2.適切なデータを収集する

データをそのまま使用することもあれば、何かと組み合わせた指標を作ることもあります。
マーケティングデータといっても多種多様です。「粒度が異なるもの」「ある時点での情報のもの」「最近取得を始めた新しい指標のもの」など、なかには「なかなか活用できそうにない」データもあるかもしれません。
データの仕様を理解したうえで、目的に応じた適切なデータを収集しましょう。

 

3.データを加工する・可視化する

データを加工することで、様々な粒度でみることや、組み合わせて目的に応じた指標を作成することができます。
また、可視化は一目で状況を把握できる大変便利な機能です。時系列や前年同月比較など、現状がどのような位置づけなのか、目標に対しどれくらい近づいているのか、グラフや表に表すだけで視覚でインプットできるため、大変効率のよい手法です。

 

4.データを分析する、示唆を得る、仮説を立てる

データ分析によって得られた要素について、示唆を得られたり、仮説を立てることができます。
「ECサイトでスマートフォンユーザーはカートまで商品を入れるが、カートのページからキャンペーンページに遷移しているケースがあるようだ」
WEB解析ツールやダッシュボードでは、このような課題が見えてくるかもしれません。ここからさらに高度な分析を必要とするケースもあるかもしれません。

 

5.施策や計画を策定・実行する

仮説を立てられたら、それを元に改善策や施策(アクションプラン)が見えてくると思います。

仮説:スマートフォン版のサイトではカートのページでキャンペーンバナーが表示されるようになっていた。キャンペーンバナーを表示させないようにすれば決済率が向上するのではないか。
改善策・実行:スマートフォン版のサイトのキャンペーンバナーの表示をやめる。
別の仮説や施策:スマートフォンでは画面の大きさに対し、表示バナーのインパクトが強いかもしれない。もっと効果のある表示場所やタイミングを検討し、表示バナーの効果を検証する。

 

6.効果測定する

改善策や施策について策定・計画ができたら、引き続きデータ収集を行い、事前事後などで比較し、どれくらい改善できたか、効果があったのかを測定しましょう。
1回限りの効果測定ではなく、時期によってはほかの要因もみえてくるかもしれません。
データ収集・仮説・施策の検証サイクルをもって、改善や施策を繰り返すことで顧客満足度や実績の向上につなげることができます。

 

データドリブンマーケティングに失敗しないために何が重要か

 

データを保有しているだけでは何もアクションを起こせません。活用できる状態になってから初めてデータドリブンマーケティングを行える状態になります。また、データをどのように扱ってよいか、そもそもどのようなデータがあるのか把握する必要もあります。
特に重要なポイントは3つです。

 

1.ゴール地点とアクションプランをしっかりと定める

データから色々なことが見えてくると、当初の目的を見失ったり、方向性が変わりがちです。データドリブンマーケティングでは、目的(ゴール)とアクションプランをしっかりと定めることが重要です。

 

2.事業部内、自社内にあるデータを整備・把握する

自動でデータを蓄積する仕組みもあれば、事業部内の担当者が保有しているデータがあり、それらを活用したいケースもあるでしょう。無理のない運用方法が定まれば、事業部内の属人化した特殊なデータも自動化や活用につなげることができます。
また、自社ではどのようなデータを保有しているのか、データがない場合は作ることができるのか、自社内のデータを把握することで今後のアクションプランを検討することができます。

 

3.データ人材のスキルを確保

解析ツールや可視化などのダッシュボードから得られる示唆もありますが、より高度な検証や複雑な定義に則った分析になると、データ分野に特化した人材が必要となります。
誤った方法でデータを操作してしまっては、活用できるデータも意味のないものになってしまいます。

 

まとめ

 

今や企業がマーケティングデータを保有しているケースは少なくありません。
しかし、データはただ保有しているだけでは意味がなく、活用できる状態で初めてデータドリブンマーケティングが行えるようになります。そして、データは重要な資産となります。
データを基に状況を把握できたり、課題がみえたり、ボトルネックを見つけることができ、数値を使用して効果を測定・検証することができます。
過去にどのようなことが起きていたか、また、過去データが多ければ予測モデルのような機械学習を行うこともできます。
そこに経験や勘は必要ありません。つまりデータを扱える人材がいれば、様々な課題解決など顧客満足度向上、事業成長につなげることができます。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

本記事では、LLM(大規模言語モデル)と生成AIとの違いや、LLMのビジネス活用方法をご紹介します。

 

執筆者のご紹介

池田志穂
所属:
株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
PM、データアナリスト、エンジニア業務を担当
経歴:
Webデザイナー、Webディレクター、コンサルティング業務に携わり、2019年3月メンバーズ再入社。顧客企業にてマーケティングに活用できるデータを可視化し、経営戦略の意思決定を支援。大規模データを利活用できる構築を行っています。現在、生成AIを学習中です。

目次
01.| LLMとは
02.|LLMの仕組み
03.|類似技術との違い
04.|LLMで処理すべきタスク
05.|LLMの活用状況
06.|LLMをビジネス活用をする上での課題
07.|まとめ

 

LLMとは

 

LLM(Large Language Model)は、大規模なデータセットを基にトレーニングされた自然言語処理(NLP)モデルです。
質問応答、文章生成、翻訳など、多様な自然言語処理タスクに活用され、高精度な結果を提供します。

LLMの種類

代表的なLLMを紹介します。各モデルは異なるアプローチや用途に特化しており、適用されるタスクや目的に応じて選ばれます。

・BERT(Bidirectional Encoder Representations from Transformers)

BERTは、Googleによって開発された自然言語理解のためのモデルです。特徴的なのは、文脈を双方向(前後の単語)で理解する点です。従来のモデルは一方向で文脈を処理していたのに対し、BERTは文全体を同時に解析し、単語の意味をより正確に捉えます。この特性により、質問応答や文脈に基づいた情報抽出など、様々なNLPタスクで高い性能を発揮します。

・GPT-4(Generative Pre-trained Transformer 4)

GPT-4は、OpenAIによって開発された大規模な生成系言語モデルです。Transformerアーキテクチャを基盤にしており、主に文章生成に強みを持ちます。大量のテキストデータを事前学習し、生成タスク(文章生成、要約、質問応答など)で優れた性能を発揮します。GPT-4は、前バージョンに比べて大規模で高度な推論能力を持ち、自然で流暢な文章を生成する能力が向上しています。

・LaMDA(Language Model for Dialogue Applications)

LaMDAは、Googleが開発した対話型の大規模言語モデルで、特に自然な会話生成に焦点を当てています。LaMDAは従来のモデルよりも、トピックに沿った柔軟で意味のある対話が可能で、長期的なコンテキストを保ちながらユーザーとの対話を続けられる能力があります。例えば、オープンドメインの会話(雑談など)でも、意図をしっかりと理解して応答します。

・Claude

Claudeは、Anthropicによって開発された言語モデルで、倫理的かつ安全なAIの使用を重視しています。Claudeの目標は、安全性と信頼性の高い対話型AIを提供することです。Anthropicは、AIによるリスクを最小限に抑え、透明で説明可能なAIを目指してClaudeを開発しました。Claudeは、複雑な質問応答や会話をこなす能力に加えて、利用者の安全性を確保するためのフィルタリング機能や制御機構が強化されています。

 

LLMの仕組み

 

LLMは、自然言語を理解し生成するために、さまざまな仕組みを利用しています。主なプロセスとして、トークン化文脈理解エンコードデコード確率出力があります。

・トークン化

トークン化は、テキストを機械が処理しやすい単位に分割する工程です。テキストはそのままではモデルに入力できないため、まず単語やサブワード、さらには文字単位に分割します。例えば、「今日は天気がいい」という文は、「今日」「は」「天気」「が」「いい」といったトークンに分けられます。これにより、モデルはテキストの内容を細かく解析できるようになります。

・文脈理解

LLMは、入力されたテキストの文脈を理解するために、前後の単語やフレーズを考慮します。例えば、「リンゴを食べるのが好き」と「リンゴは赤い」という文があれば、「赤い」がリンゴの色を指していることを理解します。この文脈理解は、モデルが次に来る単語を予測する際に重要な役割を果たし、適切な反応を生み出します。

・エンコード

エンコードは、トークン化された単語やフレーズを数値データに変換する処理です。テキストそのものは機械学習モデルで扱えないため、トークンは「埋め込みベクトル」と呼ばれる数値に変換され、モデルが計算しやすい形になります。この過程を通じて、モデルはテキストの意味や文脈を理解するための特徴量を抽出します。

・デコード

デコードは、モデルが生成した数値データを、人間が理解できるテキストに戻す処理です。エンコードによって得られた数値ベクトルは、最終的に実際の言葉に変換されます。例えば、モデルが「今日は天気がいい」という文章を予測した場合、その数値データが「今日は天気がいい」というテキストに変換され、ユーザーに表示されます。

・確率出力

LLMは、次に出力する単語を確率的に選びます。モデルは、文脈に基づいて各単語に確率を割り当て、最も適切な単語を予測します。例えば、「今日は天気がいい」の後に続く単語として「晴れ」「曇り」「雨」などが考えられる場合、モデルはそれぞれに確率を割り当て、最も確率が高い単語(例えば「晴れ」)を選んで出力します。このように、確率的な予測を使って自然なテキストを生成します。

これらのプロセスを通じて、LLMはテキストを効果的に理解し、適切な応答や生成を行います。

 

類似技術との違い

 

LLMはテキスト生成に特化した技術で、生成AI、AI、RAG、機械学習とは異なる目的に対応するため、使い分けが重要です。

技術

概要

主な違い

生成AI

テキスト、画像、音声などのコンテンツを生成するAI技術全般。

生成AIは、テキスト、画像、音声など多様なコンテンツを生成する技術全般。LLMはその中でも「テキスト生成」に特化。

AI(人口知能)

人間の知能を模倣するコンピュータシステム全般。機械学習や深層学習も含む。

AIは広範な技術で、LLMはその一部。
LLMは「言語処理」に特化したAIの一形態。

RAG(Retrieval-Augmented Generation)

外部データベースや検索を利用して、生成内容を強化する技術。

RAGは情報検索を組み合わせて生成を行う。
LLMは事前学習したデータのみを基に生成。

機械学習(ML)

データからパターンを学び、予測や分類を行う技術。

機械学習はテキストだけでなく、画像、音声、数値など多様なデータに対応。LLMはテキストデータに特化した機械学習モデル。

 

LLMで処理すべきタスク

 

LLMは、自然言語を理解し生成する能力を持ち、さまざまなタスクに利用できます。
主な用途としては、文章生成、質問応答、要約、翻訳などが挙げられます。例えば、与えられた入力から意味を理解し、適切な応答を返したり、長文を要約したりすることができます。また、LLMは、対話型AIとしての役割も果たし、ユーザーと自然に会話を行うことが可能です。さらに、文法チェックや文章のリライト、感情分析なども得意としています。複雑なテキストや専門的な内容にも対応できるため、企業のカスタマーサポートや教育、コンテンツ生成など、多岐にわたる分野で活用されています。

 

 

LLMの活用状況

 

メルカリはLLMを活用し、商品説明の自動生成を実現。ベネッセもLLMでキャッチコピーや教材説明文を作成しており、これにより商品やサービスの魅力を効率的に伝える説明文がAIによって自動生成され、企業の負担軽減に寄与しています。生成AI(特にLLM)は商品説明や広告制作、学習支援など多方面で効率化と新しい価値創造に貢献しています。企業が競争力を高めるためには、経営層のビジョン、適切な投資、社員のスキル向上が重要であり、今後、生成AIによる業務変革が進み、企業の競争優位性を高める技術となると予想されています。

 

 

LLMをビジネス活用をする上での課題

 

LLMをビジネスで活用する際には、いくつかの重要な課題があります。

 

誤った出力のリスク:LLMは高精度な自然言語生成を実現していますが、必ずしも正確な情報を提供するわけではありません。誤った情報を提供すると、顧客の信頼を損ねたり、法的な問題を引き起こす可能性があります。

データ依存性:LLMのアウトプットは学習データの多様性や品質に依存します。不完全または偏ったデータで学習すると、出力結果も不正確でバイアスがかかる恐れがあり、ビジネスの意思決定に悪影響を与えることがあります。

著作権問題:LLMは膨大なデータを学習する際、著作権で保護されたコンテンツを無断で使用してしまうリスクがあります。ビジネスで生成されたコンテンツが著作権侵害にあたる場合、法的な問題が発生する可能性があります。

セキュリティ:LLMが機密情報や個人データを含む場合、その情報が不正に出力されるリスクがあります。セキュリティ対策を十分に講じないと、プライバシー侵害やデータ漏洩が発生する恐れがあります。

人材不足:LLMの運用には高度な技術が必要であり、適切なスキルを持つ人材が不足しています。企業は専門的な人材の採用や育成を進める必要があります。

 

これらの課題を解決するためには、データの整備やセキュリティ対策、適切な人材の確保が不可欠です。データアドベンチャーでは、これらの課題に対し、データアナリストやデータエンジニアを中心にプロフェッショナル人材が在籍しているため、包括したご支援が可能です。

▶関連プレスリリース

データ活用における生成AI導入・活用支援サービスを提供開始 データ抽出・集計・本番移行の作業時間を8割削減

 

 

まとめ

 

LLMは、自然言語処理の精度向上により、ビジネスや技術革新に大きな影響を与えると予想されます。特に、商品説明の自動生成やカスタマーサポートの効率化、コンテンツ作成支援などでの活用が進み、業務の自動化とコスト削減を実現します。今後は、医療や法律など専門分野にも応用が広がり、複雑な問題解決をサポートするツールとなるでしょう。また、生成AIの進化により、より自然な対話型AIの実現が期待されます。技術の信頼性向上とセキュリティ対策が課題ですが、LLMは企業の競争力強化に貢献する重要な技術となります。


\ 生成AIを利用したデータ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

\ 相談する前に資料を見たいという方はこちら /

 「生成AIを活用したデータ活用支援サービスパッケージ」のご紹介 > 

データ利活用の需要は年々増加しています。この背景には、生成AI技術の急速な普及があり、多様な分析手法が利用可能になったことや、自社の情報をAIに回答させるRAG(検索拡張生成)などの技術への注目があります。
これらの技術を活用して競争優位性を確保するには、保持しているデータの品質確保が不可欠で、正しいデータを必要なタイミングで安全に使用するために、データマネジメントの取り組みが重要となります。
この記事では、データマネジメントの概要と実践方法について解説します。 

執筆者のご紹介

佐々木 渉
所属:
株式会社メンバーズ メンバーズデータアドベンチャーカンパニー サービス開発室
大手小売企業のクライアント様にて、メタデータ管理やデータセキュリティ管理などのデータマネジメント領域の支援や、データ分析基盤のデータ連携業務を担当。
職歴:
サービス業の店舗営業部にて、複数店舗のマネジメントやシステム導入の推進、データ分析から施策策定まで、幅広いビジネス業務を経験。その後メンバーズに入社、データアナリスト・プロジェクトマネージャーとして従事。

目次
01.| データマネジメントとは
02.|データマネジメントの重要性
03.|生成AI活用におけるデータマネジメント
04.|データマネジメントの領域とプロセス
05.|具体的実行手順
06.|実行に必要なスキル
07.|メンバーズデータアドベンチャーでのデータマネジメント支援事例
08.|まとめ

 

データマネジメントとは

 

データマネジメントとは、文字通り組織のデータを管理することです。

具体的には、組織がデータを必要とした時にいつでも正しく安全に活用できるように維持・管理をする取り組みのことで、データの生成、収集、処理、活用、廃棄における一連の流れ(データライフサイクル)を管理するプロセスのことを指します。

一概に管理と言っても、スコープは広範であり、データの説明の管理や、生成から活用までの経路の可視化、アクセスの監視などもデータマネジメントに含まれます。そのため、幅広い知識とリソースが求められます。

 

データマネジメントの重要性

 

生成AIの躍進により、自社データの品質を高める重要性はより高まっています。

専門家以外でも様々な分析手法を採用可能になったことで、データ分析に取り組む敷居は下がってきています。 分析から結果を出す工程自体の取り組みやすさは平準化される流れになっています。その状況下で競争優位性を確立するためには、データ利活用の中でも「戦略」と「データ」で差別化することが重要になり、高品質なデータをスピーディに準備できる企業が優位な立場に立てる可能性が高くなると考えます。

このような背景を踏まえ、データを効果的に利活用するプロセスは以下の通りです。

  1. 戦略策定:ビジネスゴールに沿ったデータ活用戦略を構築
  2. データ収集・整備:必要なデータを収集し、整理して分析しやすい形に変換
  3. 可視化や機械学習による分析:データを視覚化したり機械学習手法を用いて分析する
  4. ビジネス活用:分析結果を基にビジネスに活かす

良い戦略が構築できていても、ビジネス要求に対応した使えるデータが揃っていなければ、分析フェーズで良い手法を適用できたとしても成果に結びつかない可能性が大きくなります。

「Garbage in Garbage out(ゴミを入れたら、ゴミが出てくる)」という言葉がある通り、使えるデータが整備されていない場合、分析結果が誤った方向に導かれてしまいます。

また、データ分析はデータの準備工程(データを探し、品質チェックを行い、処理を行う)に多くの時間を要しますが、適切なデータマネジメントを実施することで、その工数の削減が期待でき、より効率的なデータ分析を実現することができます。

 

生成AI活用におけるデータマネジメント

 

生成AI活用においても、データマネジメントは欠かせません。
生成AI導入の代表的なユースケースは以下のようなものが挙げられますが、自社のデータを活用する場合であれば、データ品質の確保は非常に重要です。

技術面でいうと、自社ドキュメントから情報を検索して応答を生成するRAG(Retrieval-Augmented Generation)や、生成AIモデルに自社の情報を学習させるファインチューニングは、いずれも入力するデータの質に大きく依存しています。
それらは、既存のデータパターンに基づいて応答を生成するため、不完全なデータを与えると、その情報に基づいて誤った回答が生成されるリスクがあります。
不完全なデータの例としては、以下のようなケースが挙げられます。

このようなデータ品質やプライバシー・セキュリティを考慮せずに生成AIを導入すると、結果として誤ったビジネス判断を引き起こしたり、手戻りを発生させることで、費やしたリソースを無駄にする可能性が非常に高まります。したがって、生成AIを導入する際はデータマネジメントを十分に考慮することが重要です。

 

データマネジメントの領域とプロセス

 

データマネジメントの知識体系をデータの専門家によって解説している書籍のDMBOK(データマネジメント知識体系ガイド)では、広範なデータマネジメントの概念を11の知識領域に分類して定義しています。

図1

*図1出典:『データマネジメント知識体系ガイド 第二版』 DAMA International編著、DAMA日本支部、Metafindコンサルティング株式会社 監訳、日経BP
https://www.dama-japan.org/DMBOK2ImageDownLoad.html#top(2024年11月22日に利用)

 

円の中心にデータガバナンスが置かれ、外側にそれぞれの機能が示されています。

データガバナンスとは、データマネジメントを統括し、各領域の実行を監督するための枠組みです。具体的には、課題の特定、アクションの整理、ルールの策定などを行い、データ管理の信頼性とセキュリティを確保します。これにより、データマネジメントの成果を最大化することを目指します。

他のそれぞれの機能については下表を参照ください。

 

知識領域

概要

データアーキテクチャ

データの生成から活用までの設計

データストレージ・オペレーション

データベースの維持と管理

データ統合と相互運用性

様々なデータソースからのデータの統合

データモデリングとデザイン

データ同士の対応関係の可視化

参照データとマスターデータ

相互で整合性のあるデータを管理

ドキュメントとコンテンツ管理

非構造化データの管理

データセキュリティ

セキュリティルールの管理運用

データ品質

データ品質の向上と管理

データウェアハウジング

データ分析基盤の管理とデータ提供

メタデータ管理

データを説明するデータの管理

 

また、DMBOKピラミッドというフレームワークでは、前項に記載した11の知識領域をピラミッド化し、フェーズ毎にどの領域に取り組むかを図化しています。

 

データマネジメントの取り組みが不十分だった際に起きうる問題例の一部をピラミッドのフェーズ単位で記載しました。複数の領域・フェーズを跨いで発生する問題もあるため、この表現はあくまで例として参照ください。

図2
Aikenのピラミッドを引用し、和訳・解釈を記載した図

*図2 Aikenのピラミッドを引用し、和訳・解釈を記載した図 
出典:SAP Community『Why HR Data Management Strategy is important in your HR Transformation』(2024年11月22日に利用)

 

実行方法

 

データマネジメントのプロジェクトにおいて、優先度は組織の状況によって異なります。

データマネジメントの領域は多岐にわたるため、どこから着手すべきか悩む方が多いかもしれません。

まず、組織のデータマネジメントの全体像を把握するため、DMBOKの11の知識体系を用いて現状を評価し、データライフサイクル内の状況と課題を整理することを推奨します。

このプロセスは、単一の課題を解決するだけでなく、全体のデータマネジメントを俯瞰することで相互に関連する問題を理解し、根本的な改善を図ることが目的です。

各領域の強みと弱みを把握し、優先順位を設定することで、場当たり的な対応を避け、改善後もデータが効果的に活用されない状況や同様の問題の再発を防ぐことができます。

実行については、DMBOKの「データマネジメント成熟度アセスメント」でプロセスが定義されており、「ステークホルダーからの情報収集」「領域毎の評価」「アクション特定・ロードマップ策定」「改善」「再評価」をおこなうフレームワークがあるため、それを採用し体系的に進行することを推奨します。

また、この評価と実行のプロセスには、データマネジメントに関する専門的な知見が必要です。社内にデータマネジメントに精通した人材がいない場合、データガバナンスやデータ品質、データ戦略に関する経験を持つ外部の専門家を調達することを推奨します。

 

実行に必要なスキル

 

データマネジメントは組織全体の取り組みであり、一人がすべてのスキルを持つ必要はありません。ITや分析などの専門領域のスキルは、それぞれの部門で保有していれば問題ありません。
データマネジメントを実行するために必要なスキルは以下の通りです。

ただし、データマネジメント、および、データガバナンスの推進者は、各専門領域の担当者やビジネス部門の担当者、データオーナーなど、幅広いレイヤーのステークホルダーとのコミュニケーションを通じて、組織全体のガバナンスを適用することが求められるため、専門知識からプロジェクト推進力まで、広範なスキルが必要となる場合があります。

 

 

メンバーズデータアドベンチャーでのデータマネジメント支援事例

 

弊社でデータマネジメント領域の支援をした事例として、グループ企業間の多岐にわたるデータを収集した分析基盤の運用を行っているクライアント様における、データマネジメント支援について紹介します。


データレビュー

目的:新規連携、提供するデータの詳細を把握し、リスクに対処する。
内容:プロジェクトで取り扱うデータについて、プロジェクト推進側にレビューを実施し、利用目的、データの経路、データの仕様、個人情報の取り扱い方法などの把握を行い、適切なデータの管理を行うと共に、リスクを特定し、問題を未然に防ぐ。

データ一覧管理

目的:分析基盤で保持する全社のデータを一元化し、業務効率を向上させる。
内容:収集・加工・提供されるデータのメタデータを統一して管理。データの流れの可視化や検索性の向上を行い、データ利用者や分析基盤の担当者が迅速に必要な情報にアクセスできる環境を整備する。

データカタログの運用

目的:データの利便性とセキュリティを同時に確保し、データの検索と安全な活用を支援する。
内容:データウェアハウスに連携しているテーブルの情報をカタログに登録し、テーブル・カラムの説明や個人情報の有無などを明示。利用者の効率的なデータ活用と、安全性の担保をサポートする。

データセキュリティ対応

目的:データのセキュリティを確保し、情報漏洩リスクを低減する。
内容:保持しているデータに対してカラム単位で個人情報レベルのチェックを行い、セキュリティリスクを最小限に抑えるための管理体制を整備する。

まとめ

 

本記事では、データマネジメントの重要性について紹介しました。

データマネジメントは、データ利活用戦略の成果を向上させるために欠かせない取り組みです。分析手法やツールの選定に目が行きがちですが、最も重要なのは「良いデータを必要なタイミングで利用できること」です。

データマネジメントの実行は、非常に広範な領域にわたり、専門知識からプロジェクトマネジメントの能力まで、多様なスキルが求められます。このため、実行には高い難易度がありますが、この記事を通じてデータマネジメントに興味を持っていただければ幸いです。

弊社では、データマネジメントの支援を行っており、状況に応じた提案が可能ですので、ぜひお問い合わせください。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

\ 相談する前に資料を見たいという方はこちら /

 「生成AIを活用したデータ活用支援サービスパッケージ」のご紹介 > 

 

 

参考文献

・ゆずたそ (著, 編集), はせりょ (著), 株式会社風音屋 (著) 「データマネジメントが30分でわかる本」
・データマネジメント研修【MIXI 23新卒技術研修】
https://speakerdeck.com/mixi_engineers/2023-datamanagement-training

自走力が高く、“中の人”目線で動ける
データ活用のプロフェッショナルを提供します

お問い合わせ

データ活用のプロになるための
学習・実践環境を用意します

採用情報