BIツール活用事例から考えるデータ利活用へのアプローチのサムネイル
デジタルテクノロジー

BIツール活用事例から考えるデータ利活用へのアプローチ

ライター

鈴木 航輔(LTS コンサルタント)

業務システムの開発・導入支援を経験した後、データサイエンティストチームに参画。金融・商社を中心に、データ利活用の促進を支援。最近では、デジタルマーケティング施策の企画・設計にも携わる。アウトドアブームに乗りキャンプに行き始める。(2021年8月時点)

こんにちは、LTSの鈴木航輔です。

私は、データ分析チームに所属しています。そのチームでは「データを持ったお客様が、データを基にdata drivenな意思決定を行うことを推進する。」というミッションを掲げ、日々お客様のご支援をしています。

今回、企業におけるデータ利活用の課題を解決するためにBI(Business Intelligence)ツールを導入したケースを紹介し、AI導入との違い、BIツールが適切だと判断されるポイント、実際にBIツールを導入するにはどうしたらいいのか、などを解説したいと思います。

特に、企業のデータ利活用に課題を感じている人、BIツールを導入した後のイメージが湧かない人、DXの施策を検討しているけれど行き詰っている人、などにおすすめの内容です。

なお、本記事では「AI」と「BI」および「BIツール」を下記のように定義します。
AI(Artificial Intelligence):深層学習やそれ以外の機械学習手法を含む情報処理技術
BI(Business Intelligence):データを収集・蓄積・分析・加工し、経営戦略のための意志決定を支援すること
BIツール:データを取得・加工・可視化するツール

AIは目的ではなく手段だという認識が一般化

AIがもてはやされるようになって数年が経ちました。そのピーク時には、「PoC※1地獄」という言葉が用いられるくらいにAIのPoCが乱立していましたが、最近はそれも少し落ち着きを見せています。

※1 PoC:Proof of Conceptの略で概念実証のこと。新しい概念や理論、原理、アイデアの実現可能性を検証すること。

理由としては、目的や利用シーンがよくわからないままにPoCを実施しても先に進まないことや、内部でデータ分析人材を育成しないと導入後の運用が回らないことに、多くの人が気づいていることが挙げられます。

実際にここ数年は、データ分析を内製化できるよう企業内での人材育成を加速させる企業と、内製化をせずに割り切り外部委託する企業の二分化が目立っており、外部委託をされるお客様からのご依頼も「AIを導入したい」というものから、「このような課題があり、このような姿を目指したい(が、AIも含めた何かしらのアプローチで解決できないか?)」というご相談に変わってきています。

また、ご相談される課題についてもすぐにAIを適用するケースは少なくなってきています。それは現状の課題を深堀してみると、複雑でブラックボックス要素が強いAIではなく、データの可視化とルールベースによる処理を得意とするBIツールの方がユーザーの理解を得やすく、課題解決に適していると判断されることが多いためです。

BIツールを導入した事例(アパレル企業X社)

では、実際にBIツールを導入したケースを紹介します。

アパレル事業を展開するX社では、コロナ禍になってから店頭にあるアパレルの商品が売れなくなる一方でECサイトでの注文が増え、これまでの在庫管理の運用では間に合わなくなっていました。

具体的には、これまでの運用では「この商品がよく売れるだろう」「この商品は去年と同じでいいだろう」と従来の感覚で発注業務がなされていたところ、コロナ化の影響によりECでの欠品が増加し、店頭での滞留在庫が増えてしまったため、欠品や在庫過多が防げるような商品発注や在庫管理の方法を検討したい…といったご相談をいただきました。

そこで、まずはどのような商品に欠品が発生していて、どのような商品に在庫過多が発生しているのか、欠品による機会損失量はどの程度なのかを把握したのち発注方法の検討に着手しました。

この時点で、「高度な分析モデルや機械学習を活用するのだろうか」と思われることが多くありますが、今回のケースではルールベースによる発注数量の算出とその可視化といったシンプルな方法で解決を図りました。

なぜなら、お客様の課題は「機会損失と過剰在庫を減らすこと」であり、話を伺ってみるとその中に「精度の高い予測モデル」は必要なかったからです。

具体的には、以下のような施策を導入しました。

  • 商品ごとの優先度を整理し、推定した機会損失数を織り込んだ見積もり発注数を一覧化する
  • 欠品になってしまいがちな商品に対しては、在庫が少なくなった時点でアラートをあげる
  • 機会損失数の推定についても、最初の段階では平均販売数量×欠品日数の様にかなりシンプルな計算を用いる
  • 上記の数値をExcelおよびBIツールで可視化し、これから発注すべき数値や全体の在庫傾向を把握できるようにする

もちろん、AIを使い予測する方法もありますが、AIは予測精度を上げるために多くのデータ・時間を必要とします。今回のお客様の要件は精度の高い予測モデルは必要なかったため、過去の数量を計算式にあてはめ数値を算出・可視化する方針を取りました。

導入後に「使えないもの」にしないために①可視化した後のアクションを意識して設計する

BIツールはデータの可視化により企業やサービスの現状を客観的に理解し、今後の意思決定を行う際の強力な助っ人となります。しかし、導入したBIツールが利用されていない、KPIを可視化したダッシュボードを作ったものの使われていない、そういうケースは往々にしてあります。それはなぜかというと、データを可視化する目的が検討されていなかったからではないか、と私は考えています。

本来、データとはそれ自体で利益を生むものではなく、データをもとに何かしらの意思決定がなされて初めて効果が得られます

BIツールについても同様で、導入して終わりではなく、それを業務の中でどのように活用していくのか、作成したダッシュボードを誰が見て、どのようなアクションを取らなければならないのか、を明確にしておく必要があります。そうでないと、何のアクションにもつながらないダッシュボードが次々に作られて管理コストが増すだけです。

BIツールの導入というと、データの取込みとダッシュボード作成に焦点が置かれがちですが、重要な点は「作成する前の設計」だと考えています。

売上の改善が目的であればどの様な改善アクションが想定されるのかを整理し、そのアクションの実施要否を判断するのに必要なKPIをダッシュボードに掲載します。

  • 「ダッシュボードを見た人が次にどういったアクションをとりたいのか」
  • 「その為にはどんな情報が必要なのか」
  • 「その情報を把握するためにダッシュボードでは何を表示するべきなのか」

上記のような観点でお客様とディスカッションし、整理することがダッシュボードの設計です。使われ続けるダッシュボードの作成には、この工程が必須です。

導入後に「使えないもの」にしないために②導入後のアップデートも自走できるよう設計する

ここまでがBIツールで「使われる」ダッシュボードを作るというお話でした。ここからは、BIツールの導入後に実際にダッシュボードを見直す仕組みをご紹介します。

例えば、既存のダッシュボードから見えた課題に対して新たな販促施策を実行したのでその効果測定を行いたい、という要望があったとしたら、これまで使用していたダッシュボードではデータが足りない、別の観点での分析が必要、といった声が出てくるため、それを反映するようにダッシュボードを更新する必要があります。

このようにBIツールを運用し続けるためには、ダッシュボードを作っておしまい、内容を日々見ておしまい、ではなく使い続けることで見えてくる新たな要望をキャッチし、それをダッシュボードに反映させるようなメンテナンスサイクルを構築することが必です。そうすることで、日々の課題に対応するためのBIツールになります。

PDCAによってビジネスが成長するように、ダッシュボードにもPDCAを適用することでBIツールの価値を最大限に発揮することができます。そのためには、導入後の運用にまで踏み込んで、業務フローの作成をはじめとした業務設計まで行う必要があるかもしれません。

ツールの導入だからと言ってツール周りのあれこれに閉じず、それを運用する業務までを設計することがBIツールを有効活用するポイントだと考えています。

データ利活用を推進するために必要な体制

データ活用を進めていくには、意思決定をおこなう人や分析をする人が必要です。そのような人材をいかにして増やしていくかが、昨今の課題になっています。社内に分析作業ができる人が初めから存在しているケースは少なく、そういった人材を育成していく必要があります。そして、データ利活用の目的や組織の文化によっても、人材の育成方法は異なります

例えば、CoE※2のような各部署から独立している組織で、各部署に対してサービスを提供するような中央集権的な組織を作るのか、あるいは各現場で分析ができるような人材を育成したり、教育を展開したりといった事例があります。

※2 CoE:センターオブエクセレンス(center of excellence)の略で組織を横断する取り組みを継続的に行う際に中核となる部署や研究拠点のこと。

まず、CoEのような組織を作る場合、新しく人を採用したり、感度の高い人や興味のある人を集めたりすることが必要です。ただ、あらゆる組織で発生するデータや課題への対応が求められるため、業務やデータへの理解など必要な知識・スキルは高度なものになります。

各現場で育成する場合は、慣れ親しんだデータや業務・課題に取り掛かれるのでハードルが比較的低い一方で、既存業務に加えてデータ分析を行うための業務調整に苦労することがあります。

実態としては、CoEのような分析を専門にしている部署を置いている企業が多い印象です。ただ一方で、現場の人が課題感を認識し必要なデータを準備できないと、その分析組織へ依頼するところまでたどり着きません。そのため、基本的なIT・分析リテラシーは、部署や部門、肩書に関係なくみなさん持っておいた方が良いだろうとも考えています。

ある企業では、データ分析の専門部署を置き、下記のようなあらゆる手段で組織内のデータ利活用促進に取り組まれています。

  • 社内のあらゆるニーズに応じて様々なツールやプログラミングを活用して分析を行う
  • 業務をモニタリングするためのダッシュボード開発とその導入サポートを実施する
  • 引き合いベースでの取り組みに留まらず、定期的にBIツールの操作研修や分析用のプログラミング研修を開催する
  • ツールを用いた業務の効率化方法を社内に発信する

もちろん、初めからデータ分析組織を立ち上げるのはハードルが高いので、データ利活用に課題を感じている部署の方が試しに分析してみる、といった形でボトムアップ的に人材を育成しているケースもあります。その場合は、スモールステップで成果を創出し周りを巻き込んでいく必要があるため、初めから高度な分析手法を試そうとせず、基礎的なデータの集計や可視化を行いつつ周囲に分析の重要性を説くことが重要になるでしょう。

今後、データ分析による意思決定を内製化したり、データ分析の文化を醸成していく際には、誰が分析の価値を提供するのか、データを活用する主体が誰なのか、などの要素を吟味したうえで、その担当の方が扱うことができるようなツールやテクノロジーを導入していくことが非常に重要だと考えています。

さまざまなBIツール

※2022年3月時点の情報です。最新の情報は各ツールの公式サイトをご覧ください。

BIツールには様々なものがあります。たとえばTableauやMicrosoftのPower BI、WingArc1stのMotionBoardなどが有名です。Excelやデータベースからいろんなデータを取り込んでグラフを作ったりすることに強いツール、可視化以外にも分析時に利用されるプログラミング言語であるPythonやRを用いた分析機能をアドオンするようなツール、有料の製品から無料のOSS製品まで様々です。

もちろん、どのツールにもメリットデメリットがあります。どういうBIツールが自分の会社・部署や部門にあっているかは、誰がどう使いたいかといったことはもちろん、普段の業務にどのようにして組み込むかというところまで検討して判断します

今回はPowerBIとTableauについて簡単にご紹介いたします。

Power BI(Microsoft)

デスクトップ版は無料のため、初期導入時のハードルが低いことが1つの特徴です。GUIベースのため操作が容易で、様々なデータソースにも対応しているため幅広いデータを集計・可視化することが可能です。

オンラインサーバーにダッシュボードをアップロードして、それを社内の不特定多数の人が見られるようにするのは有料です。

Tableau(Tableau)

直感的な操作や柔軟な集計・可視化に優れており、使いやすさの点でも二重丸です。様々な集計方法に対応し、多様なグラフを作成することができます。

ライセンス費用が比較的高いため、大人数へ展開するには若干向かない点もありますが、スピード感を持って多種多様な観点からデータを分析したい場合は特に適しています。

私も普段の業務の中でTableauを活用していますが、それはTableauを提案するためではなく、お客様から頂いたデータを分析すると「このようなことが明確になり、このような施策で対応できそうです」とクイックにレスポンスしたい場合に向いているからです。

進化系のデータアナリティクス(データ分析)ツール

昨今は、BIツール以外にも様々なデータ分析ツールが存在しています。

DataRobotをはじめとする自動的に機械学習モデルを構築してくれるAuto-MLツールや、SAP BusinessObjectsのように、Excelライクな表計算シートの要素も併せ持った分析ツール。これまで大学や研究機関で導入されてきたSAS※3やSPSS※4についてもGUI版製品が展開されるなど、より幅広いニーズ・ユーザーに向けて様々なツールが開発されています。

※3 SAS:世界的に人気の高い統計解析ソフトウェアで、データベースや表計算ソフトのスプレッドシートなどに蓄積されたデータを取り出し、統計的手法をはじめとする様々な解析手法を用いて分析し、結果を表やグラフなどで表すことができる。(https://www.sas.com/ja_jp/home.html
※4 SPSS:分析計画から、データ収集、予測分析・統計解析・データマイニングなどのデータ分析、レポーティングとその展開までの分析プロセス全体に対する幅広い機能を提供できる製品で、分析プロセス毎に大きく4つの製品群で提供されている。(https://www.ibm.com/jp-ja/analytics/spss-statistics-software

例えば、LTSではTableau以外に、R※5ベースの分析ツールであるExploratory※6を導入しています。「データの民主化」をキーワードに、シリコンバレーにある会社が運営しています。データを取り込んで可視化できるのはもちろん、本来はプログラミングで実施するような、高度な分析を簡単な操作で実施できるのが強みです。

※5 R:データ分析用のプログラミング言語
※6 https://ja.exploratory.io/

また、最近気になったものですとKeyenceが出しているKIツール※7は、分析したいデータを投入すると、目的の数値(例えば商品の売り上げ)に影響する要因やその影響度合いを自動的に抽出してくれます。

このようなツールは拡張分析ツールと呼ばれ、これまで人があらゆる角度から可視化して得ていた示唆を、機械学習を用いて自動的に発見・提示してくれる仕組みをとっています。他には、BrainPadのVizTact※8などが挙げられます。

各ツールが担っている機能は様々であり、利用時の目的や利用者のスキル/リテラシー、想定される利用シーン、運用体制など、状況によって採用すべきツールは違うので慎重に判断していただきたいと思います。

もし、私たちのようなデータサイエンティストに相談したい!という場合は、ぜひお声がけいただければと思います。

最後までお読みいただき、ありがとうございました。