こんにちは。データアドベンチャーの北島です。
今回は、「企業のデータ分析の失敗理由と、成功と対策」についてお話ししたいと思います。

執筆者のご紹介

北島史徒
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー(以下データアドベンチャー)サービス開発室 所属戦略プランナー
データ活用におけるお客さまの課題に対して高付加価値のサービスを提供する「エキスパートサービス」の開発や、実際にお客さまへ課題のヒアリング〜提案業務を行っています。
経歴:2019年 株式会社メンバーズ入社。顧客専任のデジタルマーケティング運用支援チームのマネージャーとして顧客のデジタルトランスフォーメーション(以下DX)やカスタマーサクセスの推進を支援。2023年からデータアドベンチャーのサービス開発室へジョインし、データをキーに顧客のDX、カスタマーサクセスの推進をサービス開発という立場から後方支援しています。


 

目次
01.|はじめに
02.|日本のデータ活用が進まない要因
03.|データ活用が失敗してしまう要因
04.|データ活用を成功させるための具体的なステップ
05.|データ活用の実例
06.|まとめ

 

はじめに

 

データ分析の重要性と現状

データ活用は企業の競争力を高めるだけでなく、業務効率の向上や意思決定の質を飛躍的に向上させる手段となっています。
しかし現状は、多くの企業がデータ分析の取り組みに課題を抱えています。

国内企業におけるデータの利活用の状況についての調査データによると、「全社で利活用している」「事業部門・部署ごとに利活用している」「現在実証実験を行っている」は 2022 年度と2023年度との間ではほぼ変わらない結果となっています。2022年度米国調査結果と比べると、データ利活用をしている割合は同等ですが、「全社で利活用している」の回答割合は差があることがわかります。

図1
DX動向2024
*図1出典:「DX動向2024」(IPA)
https://www.ipa.go.jp/digital/chousa/dx-trend/eid2eo0000002cs5-att/dx-trend-2024.pdf(2024年11月28日に利用)

 

日本のデータ活用が進まない要因

 

一言で伝えますと、「現状のままでも業務がなんとなく回っていること」が根本の要因であると想定していますが、具体的には以下のような背景があるのではないかと考えられます。

①現状維持バイアス

②組織文化の保守性

③データ活用技術や人材不足

④現状の業務プロセスの最適化を優先

 

データ活用が失敗してしまう要因

 

一方で、データ活用をいざ進めようとする中で、データ活用の推進プロジェクトを立ち上げたもののプロジェクトが失敗してしまうケースも多くみられます。考えられる原因には以下のようなものが挙げられます。

1.サイロ化の進行

2.重複投資とコスト増加

3.データの整合性・信頼性の低下

4.意思決定のスピードと精度の低下

5.分析リソースの偏りと人材の活用不足


上記に述べた目の前の事象に引っ張られ、データ活用が頓挫することが少なくありません。
これらの事象を引き起こす原因について、正しく向き合い、解決策を講じることが重要と考えます。

 

データ活用を成功させるための具体的なステップ

 

①目的や戦略を明確にする

課題

データ分析プロジェクトが明確なビジョンやゴールを持たずに始まることが多く、その結果、期待する成果を得られないケースが見受けられます。データ活用の目的が明確でないと、どのデータを使って何を分析すべきかが定まらず、結果として有効なインサイトが得られません。

解決策

まずは、データ分析の目的を明確に定めることが必要です。例えば「業務の効率化」「顧客満足度の向上」「売上増加」などのビジネスゴールを設定し、そのゴールに基づいてデータを収集し、分析することが成功への鍵となります。

 

②データの信頼性を高めるための準備を行う

課題

データ分析が失敗する理由の一つに、データの準備不足があります。多くの企業では、データが散在していたり、分析に使われるデータが不正確であったり、必要なフォーマットに整理されてないことが多いため、分析の前段階で時間がかかってしまいがちで、効果的な分析が困難となります。

解決策

データ統合プラットフォームの導入や、データの正規化(データクレンジング)を進めることで、分析に必要なデータを迅速に準備し、効率的に活用できる環境を整えることが重要です。

 

③ツールの導入はスモールスタートで

課題

分析ツールの選定ミスも、データ分析の進行を妨げる要因です。コストや機能に焦点を当てすぎ、実際の業務ニーズに合わないツールを導入してしまうことがあります。

解決策

高価なツールを導入する以前に、まずは今ある既存のツールでどんなデータを分析し可視化していきたいかを社内で検討し方向性を決めてから、ツールを選定する形でも遅くは無いでしょう。ツール選定の際には、使いやすさ、他システムとの連携、カスタマイズ性など、自社の業務フローに合ったものを選ぶことが重要です。導入前に実際の現場でのテストを行い、適合性を確認することもおすすめです。

 

④データ活用の専門家を活用する

課題

データ分析の専門スキルを持った人材の不足が、企業のデータ活用を妨げています。また、既存の社員がデータ分析を理解していないと、今行っていることが果たして正しいのか不安になったり、ツールや手法が導入されても効果がなかなか思うように出ないことがあります。

解決策

外部からデータサイエンティストを採用したり、社内でトレーニングプログラムを導入して既存の社員を教育する必要があります。データリテラシーを高めることで、現場レベルでのデータ活用が促進されます。

 

データ活用の実例

 

これまでご説明した背景を持つお客様に対して、弊社がご支援したデータ活用の推進実例をご紹介します。

丸亀製麺

社内で既にデータ活用は進めているものの、データ分析の人員不足、業務スピードに課題を抱えていたお客様に対し、データのプロフェッショナル人材が効率的なデータ分析~他部署への示唆出しまでデータ運用のPDCAサイクルをスピーディに回せる仕組づくりをご支援しました。

データのプロがジョインすることでチームの機能が高まり、マーケティングがより高速に。


②クレディセゾン様

データのサイロ化や、膨大なデータを蓄積している中で、そのデータを学習モデルに活用したいが何から手を付けるべきか悩んでいたお客様に対し、地道にデータの信頼性を改善し、より高度なビジネスへデータを活用できるようにしていくための分析環境づくりをご支援をした実例です。

クレディセゾンで活躍 本気のビジネス課題解決にデータのプロフェッショナル人材「常駐サービス」の薦め

 

 

まとめ

データ活用の信頼性を担保し、PDCAを小さく地道に回し続けることで成果は生まれる

弊社ではデータに特化した専門人材がお客様オフィスへ常駐しご支援を行うことが可能な伴走型の支援サービスを提供しています。
以下から弊社のサービス詳細をまとめた資料をダウンロード頂けます。ぜひご活用ください。

 

\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

\ 相談する前に資料を見たいという方はこちら /

 資料ダウンロードはこちら > 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

今回は9月に開催されました「若手人材のマネジメント方法大放出!データ人材使いこなしセミナー」にて株式会社トラストバンク(以下トラストバンク)データマネジメントグループマネージャーの町田様へご講演いただきました内容を記事にてお伝えいたします。

登壇者紹介

町田泰基(まちだ やすのり)
株式会社トラストバンク データマネジメントグループマネージャー
経歴:福岡県北九州市生まれ。早稲田大学在学中に、偶然の出会いがあって新卒でトラストバンクに2020年入社。入社以来データマネジメントチームに所属しており、2024年4月よりマネージャーになる。
趣味:筋トレ、筋肉を活かせないゴルフ

 

目次
01.|トラストバンクデータチームについて
  トラストバンクのデータチームとは?どんな組織?
   これまでのデータ組織の歩み
02.|データ人材を活用し、成果を出すために持っておくべき考え方
  そもそもデータ人材の成果とは?
  目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう
  チームの目標、ミッション、重要アクションを整理する。ミッションがあることでメンバーが主体的にアクションを起こせる状態にする
  業務系の仕事は自動化するか、極力やらない
  新しい技術を積極的に取り入れる
03.|若手専門人材との接し方
  【前提】若手人材は長く在籍することで中長期的に価値を発揮しやすい
  工数の30-50%は若手人材にとって成長につながるチャレンジ
  心理的安全性の高い状態を保つ
  【その他】マネジメントの落とし穴にハマらないように気をつける
      【その他】Winsession
04.|まとめ

 

トラストバンクデータチームについて

 

トラストバンクのデータチームとは?どんな組織?

トラストバンクのデータマネジメントグループはチョイス事業部内事業戦略部内に位置しており、総勢14名のメンバーで成り立っている組織です。

チョイス事業部は主に「ふるさとチョイス」、「めいぶつチョイス」に関するデータマネジメントを担っており、具体的にはデータ基盤の構築や、データ抽出、データ分析、データ活用推進などを行っているとのこと。
またチョイス事業部だけでなくChiica事業部のデータ業務も一部行っているなど、社内のデータ活用を横串で行う組織構造となっていることがうかがえました。

講演では、このデータマネジメントグループについて育成方法をお話しいただきました。

 

これまでのデータ組織の歩み



トラストバンクにおいてデータ組織が発足したのは2019年12月とのこと。
そこから現在までのあゆみについては上記のように大きく3フェーズに分かれています。

フェーズ①基盤構築期



トラストバンクでは、データチームが発足するまでふるさとチョイスのデータベースから直接データをとっていたそう。
そのためまずデータ分析基盤を構築するところから始まります。

町田:当初Amazon Redshiftを導入したものの、コスト面とGoogle Analyticsとの互換性があるという理由からGoogleのBigqueryにリプレイスし、現在もBigqueryを活用しています。

最初期に当たる分析基盤の構築をしていた時期はデータ抽出の要員が足りておらず、データエンジニアがアナリスト業務を担当するなど個々の役割のみに限らず柔軟に必要とされる業務を行っていました。

フェーズ②データ量産・データカオス期



フェーズ②データ量産・データカオス期では事業部で求められるデータをたくさん出して、データ活用が一気に進んだ時期となります。

データ基盤の構築ができ、各方面でデータ活用が進むに伴って、以下の課題が出現します。


町田:
安定的にデータ活用を行うためのリソースが不足していた結果、上記のようなイシューが発生していました。
このフェーズではそれまで柔軟に行っていたアナリスト業務とエンジニア業務を明確に仕分けするとともに、データカオスな状況を打破すべくデータスチュワード*1の役割を新設しました。
データスチュワードはデータに関する管理人、番人のような役割を果たします。

これによりデータマネジメントグループの個々の役割が整備され、データカオスの脱却に向かったのです。


* 1データスチュワードとは、「データを、スチュワード(他人から預かった資産を、責任をもって管理運用)する部署または人のこと」です。
具体的には、以下のようなことを行います。
・データモデル仕様に関する検討、改善
・データクオリティ要件およびビジネスルールの定義と維持
・データ資産の監視(データの品質・利用に関する問題がないかチェック)
・問題が発生した際には、CDOに報告
出典:NTTDATA「データスチュワードとは? データマネジメント用語をわかりやすく解説」(2024年11月13日利用)


フェーズ③課題解決・売上創出期




フェーズ②データ量産・データカオス期ではデータマネジメントグループの個々の役割が整備されデータカオスの脱却に向かいました。
それまで生じていた課題については、以下のようにして課題解決と利益創出に尽力しているそうです。

課題解決
データチームの工数の大半が抽出依頼に割かれている
→ビジネスサイドでも、SQLを使わず自由にデータが出せるようにした(抽出セルフ化)

目的のデータがどこにあるかがわかりづらい状態に
→Notionに抽出データ一覧、ダッシュボード一覧を整備

似たようなダッシュボードが複数存在していたり、同じ指標なのにダッシュボードによって数字が異なるケースが発生
→未解決。Lookerを導入することで解決する予定

大元のデータベースと分析基盤とでデータの差異が発生(データの鮮度)
→データベースから分析基盤へ、定期的に全件連携を行うことでデータの差異をなくした

利益創出

 

データ人材を活用し、成果を出すために持っておくべき考え方

 

そもそもデータ人材の成果とは?



町田:前提としてデータにおける攻めも守りも成果だという考え方は持っておくべきです。
データ活用がそのまま売上に直結することはなく、たいていの場合データ活用から得た示唆を落とし込んだサービスや企画が利益を創出します。
そのうえでデータ分析基盤が安定することはその後の分析活動の礎となるため、安定していることが当たり前と思われがちだが、重要な業務であり十分成果と言えるでしょう。
業界内ではデータ分析やデータドリブンが長く重要だと言われ続けています。
しかし改めて考えてみると、データ分析の一番良いところは、答えのヒントがデータの中にあり、失敗したとしてもいつか答えにたどり着くところだと考えられます。
そのため企業のデータチームが存続していく上で必ず必要となる「データ活用の不を減らす、無くすこと」も現場でのデータ活用のスピードや質が上がり間接的に事業の成長に貢献しているのです。

 

目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう。



町田:例えば、抽出セルフ化の例では都度確認をいれず、自由度を上げた方がスピードが早くなります。現場に100%の時間を使っていない自分より、毎日現場で起きる事象と向き合っているメンバーのスキルを信じて任せています。
その他にも「ある程度自由に」、の「ある程度」の範囲は、個人の性格やパフォーマンスを見て設定しています。
人によって依頼の深度は変えて、必要であれば具体的なタスクに落とし込むこともあります。
ここで絶対に抑えておくべきは、いつまでに何を達成するかの期限の把握となります。
実はデータの取り組みに関しては期限がないことが多く、業務がスタックしないよう事前に決めておきます。

 

チームの目標、ミッション、重要アクションを整理する。ミッションがあることでメンバーが主体的にアクションを起こせる状態にする



町田:「目的やゴールの達成状態、課題や背景をできるだけ細かく言語化した上で、あとはデータ人材に自由にやってもらう。」ためには、まずメンバー自身が何をするべきか理解しておかなくてはいけません。
チームが目指すべき状態、それを達成するために何が必要かを整理した上で、実際に重要アクションをお願いしています。また重要アクションのロードマップも作成し、メンバー間で共通認識を持つようにしています。

 

業務系の仕事は自動化するか、極力やらない。



町田:BigQueryは容易にレポート作成やデータ抽出ができるため、各部署からの依頼が殺到しやすくなります。
しかしある一定のラインを超えると、データ人材は売上や利益に貢献しやすい業務に注力するために、業務に優先順位をつける必要が出てきます。
データ人材にしかできない仕事、価値を発揮できることがあるためデータ抽出をセルフ化することやデータ更新を自動化することも重要となります。
また自動化のために、データ人材をメンバーズデータアドベンチャーのような外部ベンダーを取り入れるのも1つの手といえるでしょう。

 

 

新しい技術を積極的に取り入れる

町田:データ領域周辺の技術は進歩のスピードが速く、活用の幅も年々広がっています。
そのため、成果創出には先進的な取り組みを行っている会社の事例を参考にしつつ、積極的に新しい技術を取り入れる必要があります。
特にデータエンジニアリングに関しては、新しい取り組みを行った方がメンバーのモチベーション維持にもつながるため会社にとっても本人にとってもプラスになる取り組みと考えています。

 

若手専門人材との接し方

 

【前提】若手人材は長く在籍することで中長期的に価値を発揮しやすい



上記はトラストバンクに在籍する若手データ人材の成果の量や質について、在籍時間の経過とともにどのような変化がみられるかを表した図です。

町田:若手のデータ人材は着任後数か月間、データになれること、ドメイン知識や事業内容の理解に時間を要することが多いです。そのため成果の量や質の変化は緩やかです。
しかし数ヶ月〜1年を乗り越えると、事業に対する理解度や想いも強くなり生産性の向上がうかがえるため、成果の質・量の変化が大きくなる傾向があります。
一方、数ヶ月で成果が出ないことを理由に次のメンバーをアサインした際は、当然その都度知識や事業理解のコストがかかるため結果的には効率的でないことが多いです。
上記を前提としたうえで、トラストバンクでは多くのメンバーが長期的に在籍してくれているのでその要因を深ぼっていきたいと思います。

 

工数の30-50%は若手人材にとって成長につながるチャレンジ

 

町田:前提でもお伝えした通り若手のデータ人材は長く在籍することで中長期的に価値を発揮しやすくなるため、本人の意思やキャリア志向を尊重し、成長につながる経験をし続けることが価値創出の第一歩です。本人の意思やキャリア志向がマッチしないままの業務では成長できないと感じ早期離職を生み出す要因となってしまいます。
そのため全体の30%~50%に関してはできるだけ本人のキャリア志向とマッチし、かつ成長できるチャレンジ業務を任せることが必要となります。

 

心理的安全性の高い状態を保つ

町田:データ人材に限らずとも、若手のメンバーは特に職場での心理的安全性を確保しておく必要性があります。実際に心がけている意識と行動は以下の通りです。

特に若手であればスキル不足により業務がうまく進まない、他部署との繋がりが少ないためコミュニケーションコストが発生するといったことも往々にしてあり得ます。
そのような場合には業務がスタックしている部分がどこなのかを把握しフォローに入ることや他部署への橋渡しを丁寧に行う必要があります。
うまく進まない場合はメンバーのキャパシティを再度把握しなおし、依頼する業務の再配分を行うことでメンバーの心理的安全性の担保を図っています。

 

【その他】マネジメントの落とし穴にハマらないように気をつける

町田さんがメンバーと接する際、個人的に気を付けていることの1つにマネジメントの落とし穴にはまっていないか?を定期的に確認することがあげられるそうです。

町田:具体的な項目は図にある通りです。適切なマネジメントが出来ているのかと疑心暗鬼になった方はこのような項目で振り返ってみるのもよいかもしれません。

 

【その他】Winsession

トラストバンクではWinsessionというMTGを行っているとのこと。
Winsessionではメンバー一人ひとりが今週の自分のコンディションについて天気で表し、頑張ったことや一言コメントを披露する会で、それに対しマネージャーから今週よかったポイントを伝えようというものです。
メンバーの頑張りを誉めあい気持ちよく週末を迎えること、リモートワークでも気軽に話せる場を設けるという目的で実施されているそうです。

マネージャー目線ではメンバーの健康状態やモチベーションを把握できるという点、メンバー間では普段かかわらない社員の状況が把握できるという点で好評のため、リモートワークでコミュニケーションに悩まれている部署があれば取り入れてみてはいかがでしょう。

まとめ

 

データ人材を活用して成果を出すためには

若手データ人材の活かし方

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

国内最大級のビジネス向けDXメディア「DX Stock」に掲載されました。

【2024年最新】おススメの企業向けAI関連サービス・開発会社まとめ

 

弊カンパニーでは、データ活用への生成AIの導入支援が可能です。

詳細につきましてはお問い合わせください。

当記事は「データサイエンスをビジネスに活用したい」「データサイエンスを活用する際の概観を知りたい」といった方を対象に、以下に挙げた項目の説明を通じて、データサイエンスとその活用法への理解を深めていただくことを目的にしています。

「データサイエンスができること」では、弊社による実際の分析事例も含めてご紹介します。データサイエンスを活用したいとお考えの方にとって、当記事が次のステップに踏みだす足がかりとなれば幸いです。

執筆者のご紹介

武藤 賢悟(むとう けんご)
東北大学薬学部大学院修了後、大手食品メーカーにて統計解析を含む研究業務および商品開発に従事。その後2021年にDAへ中途入社し、現在までEC事業会社に常駐。ほか、教育事業会社や化粧品会社への常駐経験を経て、現在に至る。DAではサービス開発室に所属し、エキスパート人材として高度な分析手法を用いることで、クライアントのビジネス成果創出に貢献している。

 

 

目次
01.|データサイエンスとは
02.|データサイエンティストのスキルセット
03.|データサイエンスができること
04.|おわりに

 

データサイエンスとは

 

筆者が調査した限り、「データサイエンス」という学術領域に対して、世界共通の普遍的な定義はないようです。

これはおそらく、一般的にデータサイエンスの領分とされるデータの扱い方や解析技法が、現在進行形で進歩を続けていることと、その活動領域がいくつかの高度な専門分野にまたがっていることから、世間一般が描くデータサイエンス像が理解されづらく流動的であるゆえだろうと思われます。ハーバード公衆衛生大学院で教鞭をとっているHernán教授も、データサイエンスに関する考察の冒頭で次のように述べています。

 We argue that a failure to adequately describe the role of subject-matter expert knowledge in data analysis is a source of widespread misunderstandings about data science. 
 データ分析における専門知識の役割を適切に説明できない原因は、データサイエンスに対する広範な誤解にあると主張したい。 (筆者訳)
 – 出典:Miguel A. Hernán, et.al "Data science is science's second chance to get causal inference right: A classification of data science tasks"(2024年11月19日に利用)


この状況をふまえた上で、あえて現在における「データサイエンス」の定義を考えるにあたっては、いくつかの見解を見比べることが有効だろうと思われます。
筆者が調査したなかで最も簡潔な定義は、googleの元チーフデータサイエンティストであるKozyrkov氏による以下のものです。


 Data science is the discipline of making data useful. 
 データサイエンスは、データを便利にする学術分野である。(筆者訳)
 –出典:Cassie Kozyrkov"What on earth is data science?"(2024年11月19日に利用)


この定義には個人的に首肯できるものの、いささか抽象的すぎるため、他にもいくつかの定義を確認しました。

 データに隠されている実用的な洞察を、専門知識、数学と統計、特殊プログラミング、高度な分析、人工知能(AI)、
 機械学習を組み合わせて明らかにすることです。
 得られた洞察は、意思決定と戦略計画策定の指針として活用できます。
 –出典:IBM「データサイエンスとは?」 (2024年11月19日に利用)

 データサイエンスは、ビジネスにとって意味のあるインサイトを抽出するためのデータの研究です。
 これは、数学、統計、人工知能、コンピュータエンジニアリングの分野の原則と実践を組み合わせて、
 大量のデータを分析する学際的なアプローチです。
 この分析は、データサイエンティストが、何が起こったのか、なぜ起こったのか、何が起こるのか、
 結果で何ができるのかなどの問題を提起し、答えるのに役立ちます。 
 –出典:AWS「データサイエンスとは」 (2024年11月19日に利用)

 データサイエンティスト(分析人材)とは、高度に情報化された社会において、
 日々複雑化及び増大化(ビッグデータ化)するデータを、利用者の利用目的に応じて情報を収集・分析する技術を有し、
 ビジネスにおいて実行可能な情報を作ることができる者をいう。 
 – 出典:一般社団法人データサイエンティスト協会「協会概要(2024年11月19日に利用)

これらの定義から最小公倍数的な要素を抽出し、筆者はビジネス活用をめざしたデータサイエンスを次のように解釈しました。

また、ビジネスの意思決定はPDCAサイクルやOODAループの一部として説明されるように、おおむね「課題の設定 -> 現状の確認  -> 解釈 -> 意思決定」というフローを経るものと想定されます。この流れにもとづいて考えると、データサイエンスは意思決定に先行する「現状の確認」および「解釈」のステップを科学的なアプローチによって慎重に進める営みとも解釈できそうです。

 

データサイエンティストのスキルセット

 

では、データサイエンスの実践者たる「データサイエンティスト」は、どのようなスキルセットをもってデータサイエンスを行っていくのでしょうか? 「データサイエンス」に対する共通の定義がない以上、その担い手のスキルセットも同様に共通見解を見出すことは難しいようです。データサイエンティスト協会の目的に

 

 社会のビッグデータ化に伴い重要視されているデータサイエンティスト(分析人材)の育成のため、 
 その技能(スキル)要件の定義・標準化を推進し、社会に対する普及啓蒙活動を行う。

 

とあることからも、逆説的にデータサイエンティストのスキルセットが流動的であることが示唆されます。

このような状況を鑑み、当記事では現在のデータサイエンティストがもつ個別具体の技術 (例: Pythonのxxモジュール, yy機械学習, etc..) には言及しません。今後しばらくは普遍的に求められるであろう、要素レベルでのスキルセットについて考えていきたいと思います。これにあたっては、IBMによるデータサイエンティストの記述が参考になりました。

 

 ”データサイエンスは学術分野で、データサイエンティストはこの学術分野における実践者であると考えられています。
 データサイエンティストは必ずしも、データサイエンスのライフサイクルに伴うすべてのプロセスに直接的な責任
 を負うわけではありません。
 例えば、データ・パイプラインは通常、データ・エンジニアが処理します。
 しかし、データサイエンティストがどのような種類のデータが便利であるか、
  あるいは必要であるかについて提案する場合があります。
 データサイエンティストは機械学習モデルを構築できる一方、
 こうした取り組みを大規模なレベルで拡張するにはプログラムを最適化してより迅速に実行できるようにするための
 ソフトウェア・エンジニアリング・スキルがさらに求められます。
 そのため、データサイエンティストが機械学習エンジニアと協力して機械学習モデルを拡張するのは珍しいことではありま
 せん。”
 –出典:IBM「データサイエンスとは?」 (2024年11月19日に利用)

 

ここから、データサイエンティストはデータサイエンスのすべての行程を単独で行うとは限らず、周辺領域のスペシャリストやアナリストとの協力のもと業務にあたることが一般的だとわかります。
また、データサイエンティストはその軸足をデータの分析に置いているため、特定の調査対象に関するドメイン知識が十分でないことは珍しくありません。したがって、データサイエンティストがその業務を全うするためには、意思決定者や調査対象の実務担当者を通して十分なドメイン知識を得ることも重要な必要条件の一つです。

以上を踏まえ、引き続きIBMのデータサイエンティストの技術要件を確認します。

 

 ”つまり、データサイエンティストは次のことができる必要があります。

十分に整理されており蛇足であることは否めませんが、あえてさらに要約するならば、

以上がデータサイエンティストが果たすべき要件だといえそうです。

 

データサイエンスができること

 

データサイエンスが特定のビジネス領域に留まらず、学術的研究や政策決定にも応用可能であることについては、当記事ではことさらに言及しません。

では、応用先によらずデータサイエンスが果たせる要素はどのようなものなのでしょうか。Hernán教授はデータサイエンスの果たす役割を考えるにあたって、そのアウトプットを「意味」や「洞察」とするのは曖昧すぎると述べ、より具体的な要素として次のような分類を提唱しています。

 The scientific  contributions of data science can be organized into three classes of tasks: description, prediction, and counterfactual prediction
 データサイエンスによる科学的な貢献は「記述」「予測」「反実仮想」の3つに分類できる。(筆者訳)
 – 出典:Miguel A. Hernán, et.al "Data science is science's second chance to get causal inference right: A classification of data science tasks"(2024年11月19日に利用)


当記事でもこの分類にならい、それぞれの概要と事例を説明します。

記述 (description)

概要

データを使って、あるできごとを定量的に要約することを指します。要約した値の可視化もこれに含まれます。

技術

平均値や割合計算などの簡単な計算から、次元削減や教師なし学習などに代表される技術に至るまでの広汎な技術が用いられます。

可視化にあたっては、データサイエンティストに親しまれているPythonやRのモジュールや、TableauやPowerBIなどに代表されるBIツールを活用するケースが一般的です。

図1

図1出典:弊社事例集(2024年11月19日に利用)

 

予測 (prediction)

概要

あるデータから、他のデータの値を予測することを指します。予測する値は、元の値との関係性がうたがわれる値や、元の値の将来にわたる値などが該当します。

技術

相関係数やリスク比などの簡単な計算から、統計モデリング・機械学習・ニューラルネットワークなどを活用するケースなど、記述と同様に広汎な技術が用いられます。

反実仮想の予測 (counterfactual prediction)

概要

ビジネス上の意思決定においては、"ある意思決定の結果が目標に対してどのような効果をもたらすか" –言い換えれば、意思決定を行った場合の目標は、行わなかった場合と比べてどの程度変わるか- に関する示唆が重要であるケースが珍しくありません。

このような課題が設定された場合、「記述」や「予測」の結果は直接的な解答たりえないことがあります。 たとえば、売上を精度よく予測することに成功したとしても、これは「売上を最大化させるための広告出稿配分はどのようなものか?」といった意思決定にはなんら答えを提供してくれません。

"反実仮想"とは、実際にあるイベントが起きた現実に対し「もしイベントがなかったら?」というifの世界を指します。反実仮想下での目標値の様子を推定することができれば、現実の目標値との差から、イベントが原因でもたらされた変化を定量的に評価することができます。

技術

反実仮想を正確に推定するためには、主に統計学分野の十分な知識が必要とされるだけでなく、「関心のあるできごとがどのような力学で動いているのか」に関する実務者の十分な知見や仮説も必要不可欠です。なぜならば、反実仮想の予測とは、乱暴にいえば「興味のある値の変化にかかわるすべての値をシミュレーションすることで、ある特定のイベントの有無による差を調べる」ものであるためです。必然的に、記述や予測とくらべて達成難易度の高いタスクといえます。

なお、すでに得られた過去のデータから得られる反実仮想への示唆は非常に限定的であり、より精緻な予測をしたい場合には試験を行うことが推奨されます。ウェブマーケティングの分野では、ある施策をセッションごとにランダムに割り当てることで施策の効果を推定する「ABテスト」が実施されるケースが散見されますが、これも試験の一形態です。

ただし、ABテストから関心のある反実仮想を正確に予想するためには、本当にランダムな割り付けがされているか、判断したいことに対して適切な統計手法の選択と解釈ができているか、評価結果による受益者と評価者が同一でデータを剽窃するモチベーションが働かないかなど、いくつかの専門的な見地から慎重な計画と実施が求められます。

 

おわりに

 

ここまで、「データサイエンス」「データサイエンティスト」とはどのようなものなのか、複数の見解を参照しつつ考えてきました。

また、さまざまな領域での応用ができるデータサイエンスについて、その普遍的な役割についてもHernán教授の分類を交えて紹介しました。

周辺技術のめぐるましい進歩やセンセーショナルな活用事例が喧伝されやすい環境にあって、その輪郭が見えにくいデータサイエンスですが、この記事が地に足のついたデータサイエンスの活用法を考える一助になることを願います。

また、お持ちの個別具体な課題に対してデータサイエンスがどのように活用できるか、データサイエンスによる意思決定を推進するためにはどうすればいいかといったご相談も弊社では承っております。この記事をご覧になって気になることがございましたら、ぜひご気軽にご連絡くださいませ。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

参考資料

 

今回の記事では以下のことをお伝えします。

執筆者のご紹介

吉川寛
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー サービス開発室 室長
企業のデータ活用を強力に進めるために不可欠なスキルやジョブを定義しそれらを提供するためのサービスを開発を担当
データサイエンティストとして顧客企業に常駐し、現在はWebサイト訪問時の購入予測モデルの構築や、サービスの需要予測モデルのチューニングを担当
経歴:人事コンサルタント、事業会社での経営企画を経て2020年2月にメンバーズ入社
顧客企業にデータサイエンティストとして常駐し、データチームの立上げとグロース、施策効果検証や需要予測分析を行うほか、社内データ活用レベルの向上を狙った勉強会を開催してきました。2023年から現職。

 

目次
01.| MOps(マーケティングオペレーション)とは?
02.|MOpsのメリット
03.|MOpsの課題
04.|データアドベンチャーのMOps支援
05.|まとめ

 

MOps(マーケティングオペレーション)とは?

 

マーケティングオペレーション(以下MOps)とはマーケティングチームを支える縁の下の力持ち的な役割です。マーケターの主な業務は顧客への価値提供を企画することにあるといえます。顧客の趣向や課題を探り自社サービスを届けるためその知見を駆使しています。さらに近年ではプロジェクト管理ツール、MAやBIツール、DMPやCDP、CRMシステムなどのマーケティングテクノロジーを活用するシーンが劇的に増えています。これらマーケティングテクノロジーを最大限活用できる環境を選定・構築し、活用するためのルール設計、データマネジメントやデータサイエンス、データ可視化などを担い、マーケティング活動の管理体制やプロセスの構築・運用を担う役割です。

 

MOpsのメリット

 

マーケティングオペレーションはマーケティングとITの架け橋と言われ、マーケターをマーケティングテクノロジーの管理から解放します。マーケティングテクノロジーの活用にはクラウドシステムやデータマネジメントの知識が必要とされます。具体的にはMAツールへの顧客データの連携やWeb接客ツールで利用するための顧客フラグや属性情報の作成、アクセス解析や解析のためのタグ設計などです。IT部門とマーケターの架け橋としてMOpsが有効に機能することでCRM基盤の強化、マーケターの創造性向上、データ活用による施策デザインが可能となり、マーケターが施策企画・実施に専念し、成果向上のためのPDCAサイクルをより高速に効率的に回すことができるようになります。属人的になりやすいマーケティング施策においても再現性の獲得や標準レベルの向上が見込めます。これはデータドリブンマーケティングの実現にも大変有効です。

 

MOpsの課題

 

企業のマーケティングレベルを向上させるMOpsですが、最大のネックは人材不足です。MOpsの実行にはマーケティング実務に関する知識だけでなくテクノロジーの知識が多く必要となります。中でもクラウドサービスの導入やデータ準備、顧客基盤やデータ分析基盤の構築などには従来のマーケティングチームにはなかなか知識・技能をもった人材のいない領域が多くあります。またマーケターは企業収益の中心にいるため、それらの知識・技能を獲得するための時間を取ることが難しく、実行可能であったとしても本来の企画推進業務と並行して実施するにはリソース不足となりやすいのが現実です。多くの企業ではマーケティングテクノロジーを導入してもその活用環境や活用のための業務・組織構築が追いつかず、結果的にツールを活用しきれなかったり、ツールを変更することでその解決を測ろうとしても同じことが起きたりします。

 

データアドベンチャーのMOps支援

 

データアドベンチャーではそのようなお客様の課題を解決するため「データMOpsサービス」をご用意しております。
MOpsという言葉は知らなくともマーケティングテクノロジーの導入や活用に課題のある企業は多くあります。
データMOpsサービスはデジタルマーケティング領域でのデータ活用支援に数多くの実績があるデータアドベンチャーが様々なお客様と共に課題を解決してきた実績とその知見を集約したサービスです。
マーケティングにおけるデータ活用の構想からデータ収集・分析・活用、各種ツールの導入・運用支援、データサイエンスを用いた顧客分類やLTV予測、運用内製化までトータルで支援するサービスです。全体導入から部分支援まであらゆる形での支援が可能となっております。

まとめ

 

マーケティングチームを支えるMOpsはその多くの領域でデータ活用に関する知識・技術が要求されます。まずは自社にとって必要なMOpsの仕組みを検討するために部分的に開始し、領域を広げながら徐々に浸透させたい。あるいは一気に全社のマーケティングプロセスの改革を実行したい。どちらの場合でもMOpsやデータ活用の専門人材が必要となります。
データアドベンチャーでは数多くのMOps領域におけるデータ活用支援実績があります。お客様の課題に合わせたご支援をプランニングいたします。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

昨今、自社サイトを持っている企業は増え続けているのではないかと思います。ただ、サイトを作成しただけでは効果が出ることは少ないです。アクセス解析を行うことで自社サイトの効果を何倍にも高めませんか。この記事ではアクセス解析を行うメリットや実際に行う方法、アクセス解析に使用するツールをご紹介します。

 

執筆者のご紹介

柏谷
所属:株式会社メンバーズメンバーズデータアドベンチャーカンパニーアナリスト事業部
ECプラットフォームでのアクセス解析、ユーザー分析関連企業に常駐中
Data Saber/ウェブ解析士/OSS-DB Silverなど

 

目次
01.| アクセス解析とは
02.|アクセス解析を行うメリット・重要性
  サイトの課題・改善点がわかる
  サイト上で効果検証が行えるようになる
03.|アクセス解析のステップ
  事前準備
   サイトの目的を明確にする
   アクセス解析できるツールの導入
   正しくデータが収集できる環境のを用意
  アクセス解析の実際のステップ
    何を調査したいか決める
   サイト全体の大枠のデータを理解する
   CVまでのカスタマージャーニーを考える
   施策に落とし込む
04.|アクセス解析におすすめのツール紹介
05.|筆者のアクセス解析支援事例
06.|まとめ

 

アクセス解析とは

 

Webサイトを運営するにあたって、WebサイトのCV(品物の購入や会員登録など成果となるもの)数が思うように伸びない、そもそもどの程度効果が出ているかわからないと悩んでいる人もいるのではないでしょうか。このようにサイトの課題を発見・改善する際にはアクセス解析が有効です。

 

アクセス解析とは以下のデータを用いてサイト訪問者の状況を数値によって可視化・分析することです。

 

この記事では、アクセス解析を行うことでのメリット、行う際のステップ、アクセス解析に役立つツールについて解説します。定量的なデータを見ながら施策検討や効果測定を行うことへの参考としてください。

 

アクセス解析を行うメリット・重要性

 

実際にアクセス解析を行うメリットは何でしょうか。アクセス解析の結果からわかること、できることについて説明していきます。

サイトの課題・改善点がわかる

アクセス解析を行うことにより、データからサイトの課題を見つけることが可能です。アクセス解析をしようと思い立ちこの記事を閲覧しているということは、運営しているサイトについて何かしら改善したい箇所があるのかと思います。ただ、具体的に何を改善すればよいかがわからず悩んでいるのではないでしょうか。その課題を発見し、詳細まで原因を解析する材料としてアクセス解析で得られるデータが必要となります。

例えば、サイト全体でCVが落ち込んでいる際に、どこに原因があるかを考えてみましょう。
仮にCV=サイトでの会員登録と仮定します。
新規ユーザーがサイトを訪問し、会員登録するまでのステップを、アクセス元のデバイスをセグメントとして区切った際にデスクトップではCVRが30%だったのに対し、スマートフォンからではCVRが15%だったということが見えて来たとします。スマートフォンでの会員登録率がデスクトップの登録率と比べ半減していたということは、スマートフォンでの会員登録導線が使いにくいのではないかと仮説を立てることができるでしょう。

サイト上で効果検証が行えるようになる

アクセス解析では、改善点を知るだけでなく実際に改善を行う際の効果検証を行うことができます。
ユーザーのために使いやすくサイトを改修したとしても、実際にユーザーが使いやすくなったかどうかはインタビューをするか、データでユーザーの行動を確認しなければわかりません。
そのため、ABテストや改修前後でユーザーの行動がどう変化したかを数値として分析することが必要です。

 

アクセス解析のステップ

 

1.事前準備

a.サイトの目的を明確にする
アクセス解析をする前に、Webサイトの目的や目標を明確にする必要があります。これらが明確でないと誤った分析を行い、改善施策も意味のないものになります。
何をサイトでやりたいのか、対象者は誰なのかを明確にしたうえで先に進むことができます。
サイトを作る際に目的や対象者を決めているはずなので、その内容を深堀りして、目的やKPIに落とし込んでみてください。

b.アクセス解析できるツールの導入
アクセス解析するためには、データ取得をするためのツールが必要になります。
Googleアナリティクスなど無料のツールもあるので、データ取得ができるように準備を進めてください。詳しいツールの紹介はこの後でも紹介しています。

c.正しくデータが収集できる環境の用意
ツール導入するだけでなく、欲しいデータ取得のためのイベントやパラメータの設定(データ計測を行うためのシステム上の設定)が必要となります。マーケティング担当者だけでは難しい場合もあるので、その際には専門家に頼んでみることもおすすめします。

 

2.アクセス解析の実際のステップ

a.何を調査したいか決める
まずは何を調査したいかを決めていきます。難しく考えず、現時点で困っている内容に目を向けましょう。例えば、会員登録率が下がっている、購入単価が減っているのはなぜか、などです。

b.サイト全体の大枠のデータを理解する
課題を把握した上で、まずはサイト全体のデータを眺めてみましょう。全体を把握することでセグメント別に分けたり、過去のデータを見た際に比較して多いのか、少ないのかなど目安がわかるようになります。

PV(ページビュー)数
UU(ユニークユーザー)数
セッション数
ユーザー数
エンゲージメント率
直帰・離脱率

ほかに、サイトにアクセスしているユーザーデータも確認してみましょう。

c.CVまでのカスタマージャーニーを考える
全体を見たところで本格的にアクセス解析を進めていきます。サイト上でCVとなるまでのステップを考えてみましょう。
自社のCVまでの想像がつかないのであればAIDMA(消費者が商品を初めて知ってから購入にいたるまでのプロセス)で考えてみるとわかりやすいでしょう。

CV=商品の購入と考えた場合、以下のようなステップが考えられます。

Attention(認知):サイト内外で商品を検索する。
Interest(関心):商品を発見、興味を持ちほかの品のページを読んで比較する。
Desire(欲求):商品を欲しいと考える、悩む
Memory(記憶):商品をお気に入り登録したり、カートに入れる。
Action(行動):商品を購入する

このステップの中で極端に数値が低い箇所はないかを探します。例えば、Attentionで商品ページの閲覧が少ない場合にはバナーなどで商品をサイト内でPRするところから始まるでしょうし、カートまで入れているのに購入が少ない場合にはもしかしたら、購入する際のクレジットカードの登録や住所を記載するのが大変で離脱しているということが考えられるかもしれません。

ほかにもユーザーのデバイスや性別、年齢、購入する曜日などで差がないかなどを調査できます。

d.施策に落とし込む
これが原因かもしれないというヒントが見つかったら、施策を行ってみましょう。
施策を行う前後でデータに変動があるか確認してみてもいいですし、もしできるのであればABテストを行って効果があったのかを検証することも有効です。
施策を行って終わりではなく、効果検証を行うことで次のアクセス解析につながっていきます。

 

アクセス解析におすすめのツール紹介

 

アクセス解析を進めるにあたり、おすすめのツールをご紹介します。

 

Googleアナリティクス

ページごと(URLごと)・ユーザー別・期間別など、セグメントに分けたアクセス状況を細かく分析することが可能になります。無料で使用できるため、サイトのアクセス数など基礎的なデータを確認するのにはおすすめです。LookerStudioなどの可視化ツールやGoogleタグマネージャなどGoogleの他のWebマーケティングツールと連携するとより分析が楽になります。無料では使用できることが限られるため、必要に応じて有料プランに移行するのもいいでしょう。

 

Google Search Console

Google Search Consoleとは、検索エンジンのロボットがSEO観点でどのようにサイトを認識しているかを確認・管理できる、Googleの無料ツールです。自社サイトのクリック数や表示回数といった検索内容や外部リンク、内部リンクの状況など、SEO対策において重要な要素やエラー状況を確認することができます。Googleアナリティクスとは分析できる項目が違うため、併用をおすすめします。

 

Adobe Analytics

Adobe Analyticsは、アドビ社が提供するアクセス解析ツールとなります。ユーザーの行動データを可視化して、簡単に分析・ボトルネックを発見できるツールです。大まかな内容はGoogleアナリティクスと似ていますが、ユーザーデータをインポートして使用することができるなどの機能が存在します。

 

SimilarWeb

SimilarWebとは、世界規模でWebサイトの分析ができる、無料のマーケティングツールで、競合他社のアクセス状況が把握できます。上記で紹介したツールは自社のサイトしかアクセス解析ができないので、競合他社と比較したい場合にはSimilarWebを使用してみてください。

 

User Local

User Localは無料アクセス解析ツールの中でも、ユーザーが利用している端末の情報を取得できるという特徴があります。またPV数やユーザ数は10分ごとの数字を確認できるため、リアルタイム分析に適しています。ヒートマップを使用すればユーザーがページのどこを重点的に閲覧しているのか、クリックしたか、どのくらいスクロールされたのかなども確認ができます。

 

筆者のアクセス解析支援事例

弊社ではアクセス解析での事例は多々存在しますが、ここではある一例をご紹介します。

私が常駐していた企業が提供するプラットフォームサービスの、サイトでのCV(=無料パンフレット請求)数をより向上できないか、請求依頼の多いパンフレットをまとめて送付できないかと相談を受けたことがありました。

カートまでのユーザー行動の導線や同一ユーザーの長期間の行動を分析していった結果、パンフレットを1回ではなく2〜3回に分けて請求依頼をしていることに気づきました。起きていたユーザー行動としては、元々欲しいと思っていたパンフレットを読んだ結果、ほかの資料も読みたい、確認しておきたいということに気づき、再度似たようなパンフレットを請求しているということでした。

そのため、カートの下に「このパンフレットもまとめて請求しませんか、このパンフレットを請求している方はこちらのパンフレットもよく請求しています」というような文言を掲載し、ユーザーのカートに入れたパンフレットと類似しているパンフレットを追加で請求させる施策を行いました。また、まとめて請求できるというボタンも追加しました。

この施策の結果としてパンフレット請求数を1.8倍ほどに増やすことができました。ユーザーの行動まで分析した結果として上記のような結果を出すことにつながりました。

 

まとめ

 

今回はアクセス解析のメリットと重要なポイントを紹介してきました。アクセス解析ができるようになることで、サイトの課題を分析して改善するまでを迅速に行うことができます。これからアクセス解析を実施するなら、まずはデータ収集から始めましょう。ツール導入や選定が難しい場合にはデータアドベンチャーカンパニーをぜひ頼ってくださいね。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

今回の記事では、数多くあるSaaSツールから自社に合った適切なSaaSツールの選定〜導入までの過程について解説していきます。
この記事を通して、自社に合ったSaaSツールの選定〜導入ができることを目的としています。

 

執筆者のご紹介

村上
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
経歴:理系大学院を卒業後、株式会社メンバーズに入社
データエンジニアとして不動産ディベロッパーのクライアント様に常駐
Excelを用いたデータ整理の手法を提案し、開発し、運用しています。
またクライアント様のDX化とデータ基盤構築開発のアドバイスを担当しています。


所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
経歴:情報系高専を卒業後、株式会社メンバーズに入社。
2024年9月までイベントプラットフォーム運用企業にてデータ関連業務の支援を行いました。
現在は、Azureを用いた検索拡張生成 (RAG) システムの開発を行っています。

 

目次
01.| そもそもSaaSツールとは?
  SaaSの定義
  一般的にどのようなツールが対象となるのか
02.|SaaSツールを使用するメリット
  インターネットが接続できる環境があれば、どこでも利用できる
  初期投資のコストを削減できる
  スケーラビリティが高い
  クラウドサービス事業者による管理
03.|データの専門家が考える、何を基準にSaasツールを選定すべきか
   ニーズの明確化
  業務で使用するツールとの適合性・統合性
  ユーザビリティ(ツールの操作性)
  セキュリティとコンプライアンス
  コストパフォーマンス
04.|データの専門家が利用する代表的なSaaSツール
  Amazon Redshift
  Google BigQuery
  Snowflake
  Azure Synapse Analytics
05.|Saasツールは導入してからの活用が本番
06.|まとめ

 

そもそもSaaSツールとは?

SaaSの定義

SaaSは『Software as a Service』の略称で、サースまたはサーズと呼びます。
SaaSは、クラウドサービス事業者が提供するソフトウェアをインターネット経由でユーザーが利用できる仕組みです。利用契約を結ぶことで即座に利用できることが大きな特徴です。無料版やトライアル版を提供しているサービスも存在します。

一般的にどのようなツールが対象となるのか

代表的なツールとして下記のものが挙げられます。(一部ご紹介)

・オンライン上でオフィス環境を提供する
 Google Workspace(Google社提供)
 Office365(Microsoft社提供)

・Web会議
 Zoom(Zoom社提供)
 Skype(Microsoft社提供)
 Google Meet(Google社提供)

・ビジネスチャットツール
 Slack(Salesforce社提供)
 Gmail(Google社提供)
 Teams(Microsoft社提供)

 

SaaSツールを使用するメリット

 

SaaSツールの導入には、様々なメリットがあります。


1.インターネットが接続できる環境があれば、どこでも利用できる
 SaaSツールはインターネット経由でアクセス可能なため、インターネット接続ができる環境であれば、どこでも利用できます。リモートワークなど、従業員の柔軟な働き方を実現する一助ともなります。

2.初期投資のコストを削減できる
 SaaSツールは、既に開発されているサービスを利用するため、独自に開発する必要がなく、開発費用や設備追加などの初期投資のコストを削減できます
 基本的に買い切り型の購入ではなく、定額で一定機能を利用できるサブスクリプション型の課金や、利用量や機能に応じて料金も変動する従量課金があります。一般的にはどの利用形態でも必要なくなればすぐに解約可能です。また、コスト管理の観点(特に従量課金制)では、上限を設定してアラートをあげる・サービスを止めるなどの仕組みは存在しているため、使いすぎも防げます。

3.スケーラビリティが高い
 SaaSツールは、ユーザーのビジネス用途に応じてリソースや機能を容易に拡張・縮小できるため、突発的な需要の増減に柔軟に対応しながらシステムを運用できます。必要な機能があれば簡単に追加し、不必要な機能は削除することが可能です。

4.クラウドサービス事業者による管理
 多くのSaaSツールは、クラウドサービス事業者が管理するサーバー上に設置されており、バージョンアップやセキュリティ対策も行ってくれます。
 また、クラウドサービス事業者は常に最新の機能やセキュリティパッチを適用してくれるため、利用者は常に最新の状態で利用できます。

 

データの専門家が考える、何を基準にSaasツールを選定すべきか

 

1. ニーズの明確化
自社の業務課題や目標を明確にし、ニーズを把握することは必要不可欠です。ニーズが明確でないと、適切なSaaSツールを選定することができません。適していないツールを導入すると、課題が解決できず、無駄な労力やコストが発生します。そのため、ニーズを把握することが適したSaaSツールを導入するための重要な第一歩となります。

2. 業務で使用するツールとの適合性・統合性
普段業務で使用しているツールやシステムと連携ができるか、またその連携が容易であるかも重要な観点です。普段使用しているツールや既存システムと連携が取れない場合、導入したSaaSツールを使いこなせず、期待した効果を得られないことがあります。そのため、自社で使用しているツールが検討中のSaaSツールとの連携が可能かどうかは、重要な選定基準となります。

3. ユーザビリティ(ツールの操作性)
当然、使いやすさも選定要素の一つです。操作性が複雑だと、活用する人が少なくなり、せっかく導入しても誰も使わなくなる可能性があります。そのため、操作性が優れたツールを選ぶことが重要です。ツールによってはトライアル版が用意されている場合があるため、事前にトライアル版を使用してみることで選定がスムーズかつ的確になります。

4. セキュリティとコンプライアンス
SaaSツールを導入する上で、セキュリティは重要な要素の一つです。特に個人情報や機密情報を扱う場合、SaaSプロバイダーがどのようなセキュリティ対策を講じているのか、また法令遵守の状況を確認する必要があります。セキュリティが不十分だと、問題が発生した場合に対応が遅れたり、二次被害を引き起こす可能性があります。そのため、コンプライアンス要件とプロバイダーのセキュリティポリシーを照らし合わせて確認することが重要です。

5. コストパフォーマンス
SaaSツールのコストも重要な要素です。初期投資や運用コストだけでなく、導入後の効果(業務効率の向上、売上の増加など)を考慮し、そこから得られる利益や効果を算出することで、適切なコストが判明します。ツールによって料金体系が異なるため、担当者と確認しながら選定することで、無駄なコストを支払うことなく業務効率を高めることができます。

 

データの専門家が利用する代表的なSaaSツール

 

Amazon Redshift

機能

コスト

特徴

 

Google BigQuery

機能

コスト

特徴

 

Snowflake

機能

コスト

特徴

 

Azure Synapse Analytics

機能

コスト

特徴

 

Saasツールは導入してからの活用が本番

 

SaaSツールは導入しても、ツールを活用してくれる人がいないと効果がありません。
活用されない大きな理由として、「社内に浸透していないので活用しづらい」というものが挙げられます。
社内に浸透していない理由として、以下のような例があります。

  1. SaaSツールの使い方がわからない。または問題発生時の対応がわからない
  2. 既存の業務に慣れているため、新規で覚えるのが難しい
  3. ツールを使うのに抵抗がある

これらの理由でSaaSツールが活用されずにいます。

そのため、SaaSツールを導入したら社員に導入の目的やメリットなどを伝える必要があります。
更に以下のことを行うとツールの活用促進に繋がります。

1.SaaSツールのワークショップの開催
 ツールの導入時に、社員に対してSaaSツールのワークショップを実施します。実際の業務でどのように使うか、どのようなメリットがあるのかを示してあげることで、不安を解消し活用を促進します。

2.マニュアルを展開
 ツールのマニュアルを展開することで、社員が新規で覚える必要がありません。また問題発生時の対応を記載することで社員は安心してツールを活用します。

3.フィードバック対応
 SaaSツールは導入しただけでは意味はなく、定期的に社員の意見をフィードバックをしてもらい改善することも重要です。改善した情報を小まめに発信することで、使う環境を整えます。

SaaSツールは導入するだけでは意味がありません。導入して活用されて結果を出してこそ初めて意味があります。計画的な導入と定期的な改善を通じて、社員が使いやすい環境を整えることが重要です。

 

まとめ

 

SaaSツールは、インターネット経由で提供されるソフトウェアであり、企業にとって多くのメリットを提供します。導入は容易でインターネット接続があればどこでも利用可能で、業務の柔軟性が向上します。
ツールの選定時には、自社の業務課題や目標を明確にし、ニーズを把握することが重要です。
更に既存の業務ツールとの適合性や統合性、ユーザビリティ、セキュリティ、コストパフォーマンスを考慮する必要があります。

SaaSツールは導入してからの活用が本番です。社内浸透が鍵であり、ワークショップやマニュアル展開、フィードバック対応を通じて、社員が使いやすい環境を整え、そのツールの効果を最大化することが重要です。

このように、SaaSツールを効果的に選定・活用することができれば、企業のビジネスに大きく貢献できるでしょう。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

執筆者のご紹介

青木
所属:株式会社メンバーズ メンバーズデータアドベンチャーカンパニー アナリスト事業部
データアナリストとして、これまでに様々な企業のデータに関わる業務(データ抽出、分析、相談、ダッシュボード実装など)を担当いたしました。特にGCP関連やExcelに強いです。

 

目次
01.| データドリブンマーケティングとは?
02.|データドリブンマーケティングが浸透した背景
03.|データドリブンマーケティングのメリット
04.|データドリブンな意思決定をするために必要な手順
05.|失敗しないために何が重要か
06.|まとめ

 

データドリブンマーケティングとは?

 

データドリブンとは、直訳すると「データ駆動」となります。
ビジネスの文脈での意味は、課題解決策の考案や意思決定の根拠として、売上データやWEB解析データなど、「データに基づいて」判断やアクションを行うことです。
ちなみに「ドリブン(driven)」という言葉には「何かを基にした意思決定」などの意味が含まれています。

つまり、データドリブンマーケティングとは、オンライン・オフラインを問わず取得した売上データ、ユーザー行動データなど複数のマーケティングデータに基づいて、経験や勘のみに頼らず、データ主導で客観的に判断するマーケティング手法をいいます。定量的な評価ができることから、KPIなどの指標を設けて比較できる場合はスピード感のある判断が可能です。

 

データドリブンマーケティングが浸透した背景

 

デジタル技術が発達した現代では、企業も個人もデータを通じたコミュニケーションが活発な時代となりました。

このように売上データ、ユーザー行動データ、顧客対応データ、広告データ、Eメール配信データ、会員データ、位置情報など、マーケティングに活かせる可能性がある膨大なデータを蓄積できるようになりました。そして、これらは重要な資産となります。データを蓄積していれば、あらゆる比較や高精度な分析・機械学習モデルの構築などが行えます。

これらを活用し、競争優位性を得るためのデータ活用が不可欠になった点が、データドリブンマーケティングが浸透した背景です。
また、実績データの即時性から費用対効果やKPI進捗についても日々把握できるようになり、データに基づいた判断がしやすくなった点も大きいでしょう。

 

データドリブンマーケティングのメリット

 

1.正確な予測ができ(=コスト削減につなげられる)、顧客満足度を向上させることができる

時系列データ、実績データなどの過去データを蓄積できていれば、予測して、消費者のニーズに応えることもできます。データが多ければ予測精度も上げられるでしょう。
より正確な予測ができ、最適な量やニーズが分かれば新商品の開発につなげることもできるかもしれません。また、これらを機械的に行うことで、より意思決定のスピードを上げることができます。

 

2.属人化を防ぎ、具体的に把握できる

経験や勘のみに頼ることのない、データによる根拠に基づいた意思決定ができるため、属人化を防ぐことができます。また、経験をもとにした仮説が、データによって補完・補正され、より筋の良いものになります

例えば、あるスーパーマーケットで「13:00~15:00に女性の購買がとても多い」と店長から報告があったとします。「とても多い」は店長の肌感覚ですが、データをみれば実際にその時間帯に店舗にいなくとも、一定期間の「購買客の属性データ・売上時間データ・売上金額データ」からおおよその傾向をつかむことができます。また、データにより他の時間帯との売上の比較もでき「とても多い」を「〇割多い」など店長の主張を客観的に表すことができます。

 

3.課題や改善策をみつけることができる

課題について、データから以下の状況が判明し、改善策を検討することができます。

課題(例1)…ECサイトでスマートフォンユーザーはカートまで商品を入れるのに、その先の決済が完了されない
データから判明した状況…スマートフォンのカート画面ではキャンペーンバナーが表示され、そちらに誘導されるユーザーが一定数いた。
改善策…スマートフォンのカート画面のキャンペーンバナー表示をやめ、ユーザーの意識が分散しないように画面設計を修正する。

課題(例2)…メールよりもXからの流入が多いようだ
データから判明した状況…メールからの誘導を試みていたが、会員はXをよく利用し、そちらの閲覧が多いようだ。
改善策…会員の行動傾向を再度分析し、どのメディアのアプローチが有効か、メディアのあり方と施策を検討する。

このように、データに基づいて客観的にボトルネックや新たな発見、弱点、課題をみつけることができます。

 

データドリブンな意思決定をするために必要な手順

 

1.指標とKPIを設定する

データに基づいた意思決定をするには、基準が必要です。
KPIは組織内で「何を」「いつまでに」のような達成状況を分かりやすく、共通で把握できる基準です。また、KPIから具体的な改善施策などが導き出されますが、進捗により必要に応じて戦略を調整することも可能です。
KGIを踏まえたうえで、指標を決め、KPIを設定しましょう。

 

2.適切なデータを収集する

データをそのまま使用することもあれば、何かと組み合わせた指標を作ることもあります。
マーケティングデータといっても多種多様です。「粒度が異なるもの」「ある時点での情報のもの」「最近取得を始めた新しい指標のもの」など、なかには「なかなか活用できそうにない」データもあるかもしれません。
データの仕様を理解したうえで、目的に応じた適切なデータを収集しましょう。

 

3.データを加工する・可視化する

データを加工することで、様々な粒度でみることや、組み合わせて目的に応じた指標を作成することができます。
また、可視化は一目で状況を把握できる大変便利な機能です。時系列や前年同月比較など、現状がどのような位置づけなのか、目標に対しどれくらい近づいているのか、グラフや表に表すだけで視覚でインプットできるため、大変効率のよい手法です。

 

4.データを分析する、示唆を得る、仮説を立てる

データ分析によって得られた要素について、示唆を得られたり、仮説を立てることができます。
「ECサイトでスマートフォンユーザーはカートまで商品を入れるが、カートのページからキャンペーンページに遷移しているケースがあるようだ」
WEB解析ツールやダッシュボードでは、このような課題が見えてくるかもしれません。ここからさらに高度な分析を必要とするケースもあるかもしれません。

 

5.施策や計画を策定・実行する

仮説を立てられたら、それを元に改善策や施策(アクションプラン)が見えてくると思います。

仮説:スマートフォン版のサイトではカートのページでキャンペーンバナーが表示されるようになっていた。キャンペーンバナーを表示させないようにすれば決済率が向上するのではないか。
改善策・実行:スマートフォン版のサイトのキャンペーンバナーの表示をやめる。
別の仮説や施策:スマートフォンでは画面の大きさに対し、表示バナーのインパクトが強いかもしれない。もっと効果のある表示場所やタイミングを検討し、表示バナーの効果を検証する。

 

6.効果測定する

改善策や施策について策定・計画ができたら、引き続きデータ収集を行い、事前事後などで比較し、どれくらい改善できたか、効果があったのかを測定しましょう。
1回限りの効果測定ではなく、時期によってはほかの要因もみえてくるかもしれません。
データ収集・仮説・施策の検証サイクルをもって、改善や施策を繰り返すことで顧客満足度や実績の向上につなげることができます。

 

データドリブンマーケティングに失敗しないために何が重要か

 

データを保有しているだけでは何もアクションを起こせません。活用できる状態になってから初めてデータドリブンマーケティングを行える状態になります。また、データをどのように扱ってよいか、そもそもどのようなデータがあるのか把握する必要もあります。
特に重要なポイントは3つです。

 

1.ゴール地点とアクションプランをしっかりと定める

データから色々なことが見えてくると、当初の目的を見失ったり、方向性が変わりがちです。データドリブンマーケティングでは、目的(ゴール)とアクションプランをしっかりと定めることが重要です。

 

2.事業部内、自社内にあるデータを整備・把握する

自動でデータを蓄積する仕組みもあれば、事業部内の担当者が保有しているデータがあり、それらを活用したいケースもあるでしょう。無理のない運用方法が定まれば、事業部内の属人化した特殊なデータも自動化や活用につなげることができます。
また、自社ではどのようなデータを保有しているのか、データがない場合は作ることができるのか、自社内のデータを把握することで今後のアクションプランを検討することができます。

 

3.データ人材のスキルを確保

解析ツールや可視化などのダッシュボードから得られる示唆もありますが、より高度な検証や複雑な定義に則った分析になると、データ分野に特化した人材が必要となります。
誤った方法でデータを操作してしまっては、活用できるデータも意味のないものになってしまいます。

 

まとめ

 

今や企業がマーケティングデータを保有しているケースは少なくありません。
しかし、データはただ保有しているだけでは意味がなく、活用できる状態で初めてデータドリブンマーケティングが行えるようになります。そして、データは重要な資産となります。
データを基に状況を把握できたり、課題がみえたり、ボトルネックを見つけることができ、数値を使用して効果を測定・検証することができます。
過去にどのようなことが起きていたか、また、過去データが多ければ予測モデルのような機械学習を行うこともできます。
そこに経験や勘は必要ありません。つまりデータを扱える人材がいれば、様々な課題解決など顧客満足度向上、事業成長につなげることができます。

 


\ データ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

 

▶こちらも要チェック

データアドベンチャーのサービスご紹介

 

本記事では、LLM(大規模言語モデル)と生成AIとの違いや、LLMのビジネス活用方法をご紹介します。

 

執筆者のご紹介

池田志穂
所属:
株式会社メンバーズ メンバーズデータアドベンチャーカンパニー エンジニア事業部
PM、データアナリスト、エンジニア業務を担当
経歴:
Webデザイナー、Webディレクター、コンサルティング業務に携わり、2019年3月メンバーズ再入社。顧客企業にてマーケティングに活用できるデータを可視化し、経営戦略の意思決定を支援。大規模データを利活用できる構築を行っています。現在、生成AIを学習中です。

目次
01.| LLMとは
02.|LLMの仕組み
03.|類似技術との違い
04.|LLMで処理すべきタスク
05.|LLMの活用状況
06.|LLMをビジネス活用をする上での課題
07.|まとめ

 

LLMとは

 

LLM(Large Language Model)は、大規模なデータセットを基にトレーニングされた自然言語処理(NLP)モデルです。
質問応答、文章生成、翻訳など、多様な自然言語処理タスクに活用され、高精度な結果を提供します。

LLMの種類

代表的なLLMを紹介します。各モデルは異なるアプローチや用途に特化しており、適用されるタスクや目的に応じて選ばれます。

・BERT(Bidirectional Encoder Representations from Transformers)

BERTは、Googleによって開発された自然言語理解のためのモデルです。特徴的なのは、文脈を双方向(前後の単語)で理解する点です。従来のモデルは一方向で文脈を処理していたのに対し、BERTは文全体を同時に解析し、単語の意味をより正確に捉えます。この特性により、質問応答や文脈に基づいた情報抽出など、様々なNLPタスクで高い性能を発揮します。

・GPT-4(Generative Pre-trained Transformer 4)

GPT-4は、OpenAIによって開発された大規模な生成系言語モデルです。Transformerアーキテクチャを基盤にしており、主に文章生成に強みを持ちます。大量のテキストデータを事前学習し、生成タスク(文章生成、要約、質問応答など)で優れた性能を発揮します。GPT-4は、前バージョンに比べて大規模で高度な推論能力を持ち、自然で流暢な文章を生成する能力が向上しています。

・LaMDA(Language Model for Dialogue Applications)

LaMDAは、Googleが開発した対話型の大規模言語モデルで、特に自然な会話生成に焦点を当てています。LaMDAは従来のモデルよりも、トピックに沿った柔軟で意味のある対話が可能で、長期的なコンテキストを保ちながらユーザーとの対話を続けられる能力があります。例えば、オープンドメインの会話(雑談など)でも、意図をしっかりと理解して応答します。

・Claude

Claudeは、Anthropicによって開発された言語モデルで、倫理的かつ安全なAIの使用を重視しています。Claudeの目標は、安全性と信頼性の高い対話型AIを提供することです。Anthropicは、AIによるリスクを最小限に抑え、透明で説明可能なAIを目指してClaudeを開発しました。Claudeは、複雑な質問応答や会話をこなす能力に加えて、利用者の安全性を確保するためのフィルタリング機能や制御機構が強化されています。

 

LLMの仕組み

 

LLMは、自然言語を理解し生成するために、さまざまな仕組みを利用しています。主なプロセスとして、トークン化文脈理解エンコードデコード確率出力があります。

・トークン化

トークン化は、テキストを機械が処理しやすい単位に分割する工程です。テキストはそのままではモデルに入力できないため、まず単語やサブワード、さらには文字単位に分割します。例えば、「今日は天気がいい」という文は、「今日」「は」「天気」「が」「いい」といったトークンに分けられます。これにより、モデルはテキストの内容を細かく解析できるようになります。

・文脈理解

LLMは、入力されたテキストの文脈を理解するために、前後の単語やフレーズを考慮します。例えば、「リンゴを食べるのが好き」と「リンゴは赤い」という文があれば、「赤い」がリンゴの色を指していることを理解します。この文脈理解は、モデルが次に来る単語を予測する際に重要な役割を果たし、適切な反応を生み出します。

・エンコード

エンコードは、トークン化された単語やフレーズを数値データに変換する処理です。テキストそのものは機械学習モデルで扱えないため、トークンは「埋め込みベクトル」と呼ばれる数値に変換され、モデルが計算しやすい形になります。この過程を通じて、モデルはテキストの意味や文脈を理解するための特徴量を抽出します。

・デコード

デコードは、モデルが生成した数値データを、人間が理解できるテキストに戻す処理です。エンコードによって得られた数値ベクトルは、最終的に実際の言葉に変換されます。例えば、モデルが「今日は天気がいい」という文章を予測した場合、その数値データが「今日は天気がいい」というテキストに変換され、ユーザーに表示されます。

・確率出力

LLMは、次に出力する単語を確率的に選びます。モデルは、文脈に基づいて各単語に確率を割り当て、最も適切な単語を予測します。例えば、「今日は天気がいい」の後に続く単語として「晴れ」「曇り」「雨」などが考えられる場合、モデルはそれぞれに確率を割り当て、最も確率が高い単語(例えば「晴れ」)を選んで出力します。このように、確率的な予測を使って自然なテキストを生成します。

これらのプロセスを通じて、LLMはテキストを効果的に理解し、適切な応答や生成を行います。

 

類似技術との違い

 

LLMはテキスト生成に特化した技術で、生成AI、AI、RAG、機械学習とは異なる目的に対応するため、使い分けが重要です。

技術

概要

主な違い

生成AI

テキスト、画像、音声などのコンテンツを生成するAI技術全般。

生成AIは、テキスト、画像、音声など多様なコンテンツを生成する技術全般。LLMはその中でも「テキスト生成」に特化。

AI(人口知能)

人間の知能を模倣するコンピュータシステム全般。機械学習や深層学習も含む。

AIは広範な技術で、LLMはその一部。
LLMは「言語処理」に特化したAIの一形態。

RAG(Retrieval-Augmented Generation)

外部データベースや検索を利用して、生成内容を強化する技術。

RAGは情報検索を組み合わせて生成を行う。
LLMは事前学習したデータのみを基に生成。

機械学習(ML)

データからパターンを学び、予測や分類を行う技術。

機械学習はテキストだけでなく、画像、音声、数値など多様なデータに対応。LLMはテキストデータに特化した機械学習モデル。

 

LLMで処理すべきタスク

 

LLMは、自然言語を理解し生成する能力を持ち、さまざまなタスクに利用できます。
主な用途としては、文章生成、質問応答、要約、翻訳などが挙げられます。例えば、与えられた入力から意味を理解し、適切な応答を返したり、長文を要約したりすることができます。また、LLMは、対話型AIとしての役割も果たし、ユーザーと自然に会話を行うことが可能です。さらに、文法チェックや文章のリライト、感情分析なども得意としています。複雑なテキストや専門的な内容にも対応できるため、企業のカスタマーサポートや教育、コンテンツ生成など、多岐にわたる分野で活用されています。

 

 

LLMの活用状況

 

メルカリはLLMを活用し、商品説明の自動生成を実現。ベネッセもLLMでキャッチコピーや教材説明文を作成しており、これにより商品やサービスの魅力を効率的に伝える説明文がAIによって自動生成され、企業の負担軽減に寄与しています。生成AI(特にLLM)は商品説明や広告制作、学習支援など多方面で効率化と新しい価値創造に貢献しています。企業が競争力を高めるためには、経営層のビジョン、適切な投資、社員のスキル向上が重要であり、今後、生成AIによる業務変革が進み、企業の競争優位性を高める技術となると予想されています。

 

 

LLMをビジネス活用をする上での課題

 

LLMをビジネスで活用する際には、いくつかの重要な課題があります。

 

誤った出力のリスク:LLMは高精度な自然言語生成を実現していますが、必ずしも正確な情報を提供するわけではありません。誤った情報を提供すると、顧客の信頼を損ねたり、法的な問題を引き起こす可能性があります。

データ依存性:LLMのアウトプットは学習データの多様性や品質に依存します。不完全または偏ったデータで学習すると、出力結果も不正確でバイアスがかかる恐れがあり、ビジネスの意思決定に悪影響を与えることがあります。

著作権問題:LLMは膨大なデータを学習する際、著作権で保護されたコンテンツを無断で使用してしまうリスクがあります。ビジネスで生成されたコンテンツが著作権侵害にあたる場合、法的な問題が発生する可能性があります。

セキュリティ:LLMが機密情報や個人データを含む場合、その情報が不正に出力されるリスクがあります。セキュリティ対策を十分に講じないと、プライバシー侵害やデータ漏洩が発生する恐れがあります。

人材不足:LLMの運用には高度な技術が必要であり、適切なスキルを持つ人材が不足しています。企業は専門的な人材の採用や育成を進める必要があります。

 

これらの課題を解決するためには、データの整備やセキュリティ対策、適切な人材の確保が不可欠です。データアドベンチャーでは、これらの課題に対し、データアナリストやデータエンジニアを中心にプロフェッショナル人材が在籍しているため、包括したご支援が可能です。

▶関連プレスリリース

データ活用における生成AI導入・活用支援サービスを提供開始 データ抽出・集計・本番移行の作業時間を8割削減

 

 

まとめ

 

LLMは、自然言語処理の精度向上により、ビジネスや技術革新に大きな影響を与えると予想されます。特に、商品説明の自動生成やカスタマーサポートの効率化、コンテンツ作成支援などでの活用が進み、業務の自動化とコスト削減を実現します。今後は、医療や法律など専門分野にも応用が広がり、複雑な問題解決をサポートするツールとなるでしょう。また、生成AIの進化により、より自然な対話型AIの実現が期待されます。技術の信頼性向上とセキュリティ対策が課題ですが、LLMは企業の競争力強化に貢献する重要な技術となります。


\ 生成AIを利用したデータ活用についてのご相談はメンバーズデータアドベンチャーまで /

 お問い合わせはこちら > 

\ 相談する前に資料を見たいという方はこちら /

 「生成AIを活用したデータ活用支援サービスパッケージ」のご紹介 > 

自走力が高く、“中の人”目線で動ける
データ活用のプロフェッショナルを提供します

お問い合わせ

データ活用のプロになるための
学習・実践環境を用意します

採用情報