読んだ本をひたすら列挙。読書のペース配分とその後の読み直しのためのメモ。学而不思則罔、思而不学則殆。
Tableau社が出しているTableau blueprintに基づく、DX組織形成・育成の方法論を解説したもの。なのでBIツールの導入によるデータ可視化が主なDX施策として想定されている。Tableau blueprintの解説そのものはTableau社のサイトにある。個人的にはあまり分かりやすくはない。アジャイル性、スキル、コミュニティというまったくカテゴリが異なるようなものが縦に三つ並んでいる。信頼と管理の三つのノードは何か時系列的意味があって並んでいるのか。縦がそろっているノードは何か共通する意味があるのか、など疑問が浮かぶ。
DX組織作りは基本的に経営戦略として始まる。経営戦略の一部として、分析戦略が作られる。分析戦略として全体の方向づけをするには、経営幹部の強い主導が必要だ。ただし、トップダウンだけではなく、実際に価値を実現していく現場からのボトムアップの活動も、分析戦略が画餅に終わらないために重要。分析戦略ではまずどこから着手するかを決める。最優先は、小さくても3ヶ月程度で成功が得られる分析課題。この成功は、KPIなど誰にも分かりやすく数値化されているもので測ることが必要。その次に、課題解決の必要性が高いものが対象となる。最初の分析課題は、問題解決のために大きな変化をもたらす業務改革プロセスのようなものより、既存業務の一部置き換えである効率化が適する。ただし効率化だけでは、BIの全社展開に向けて経営層の支持を説得していくには弱い。全社展開に向かっては、全社の重点施策を支える共通基盤であるとして経営層に訴求していくのがよい。
政治の世界の三権分立のように、データ活用にも三権分立が必要としている。データ提供者のようにデータを利用するルールを定めるもの(立法)、データを収集して利用しやすくするもの(行政)、ルールに沿ったデータ活用が行われているか裁定するもの(司法)。データ活用の三権分立の均衡が保てない場合に不祥事を招く危険がある。権力の不均衡を防ぐためには、適切な役割分担を行い、戦略立案やチーム編成を行う必要がある。一見分かりやすいように見えるが、後半になってデータを収集して使えるようにする、つまりデータレイクからデータウェアハウスに移行させるのも立法の役割としている。これはルール作りというよりオペレーションなので、三権分立の比喩としては行政だろう。
データ活用を推進する中心的チームCoEを構成することが、全社拡大に向けて必要となる。CoEは4つのパターンに分けられている。IT部門から発展するITユニット型、トップダウンで組織されるビジネスオペレーション型、データ活用の有志が勝手連的に集まったバーチャル型、各部門にそれぞれのCoEができ連携する理想的な分散型なとが考えられる。IT部門はもともと経営層とのつながりが薄いため、ITユニット型のCoEはまず経営層とつながりが深い管理部門(経営企画や経理、人事など)を支援すべき。そのためには、ITユニット型CoEには管理部門に精通した人材が必要となる。ITユニット型、ビジネスオペレーション型といった中央集権的なCoE組織に必要なのは、4つの役割。本質的な課題を掴み社内を調整するリーダー、可視化や分析を実施するクリエーター、現場の教育と情報発信を行うトレーナー、データやサーバを管理するインフラ担当。
こうしたデータ活用に関わる人々の役割を分類するには、DACIモデルが使える。これは1980年代にIntuitが提唱したもの。Driver(実際に分析を実施する人)、Approver(分析結果に基づき意思決定する人)、Contributor(分析をサポートするCoEなどデータ活用推進部門)、Informed(分析に基づく施策を実行する人)。これらの役割を明確に別の人に分けることが重要。
全社展開には、全社的な研修やコミュニティ形成が必要になる。なかでも新人社員への研修がおすすめ。新人社員研修でデータ分析・活用の基礎知識や、基礎スキルの教育を行う。変な型にハマっていない新人社員に早期にデータリテラシーを高めたほうが効果的。コミュニティ育成と普及のためのアイデアには、Data Marcheがある。これは四半期に一度、CoEチームからツールやルールの最新情報、ユーザから活用事例を共有する。
インフラ面では、データベースが鍵。データ活用で最も問題が起こりやすいのがデータベース。データベースが遅いとデータ活用の障害となるし、システム自体が不安定になりビジネスに影響を及ぼす。人による管理コストをかけるより、データベースに投資することが結局は安くつく。解決法は、負荷が高い処理を別のデータベースに分離する、データベースの性能を増強する、インデックスなどデータベースの設計を変更する、データ分析に向くデータベースへの載せ替えがある。なかでもマスタデータは重要。特にマスタデータは単独のデータマートとして用意しておき、どんな分析にもすぐ使えるようにする(部品化)。マスタデータの重要性はMDMとして話題に挙がってきた十数年前から言われているが、あまり進化していない印象。
データを一元管理することはガバナンスを効かせやすいが、個々の事情に対応せずデータ活用のスピードが落ちる。こうした、柔軟性と厳格性のバランスが重要。データ管理そのものはそれぞれのプロジェクトに権限を委譲しつつ、個人情報の取り扱いなど最低限必要なガバナンスは一元管理するのか良い。
データの種類と量が増えると、活用したいデータがどこにあるか調べるのに時間がかかるようになる。このようなときにはデータカタログの導入を検討すべき。しかしデータカタログは商用製品は高価で、導入に手間もかかるため、まずは自作することがおすすめとしている。データベースとの連携や、カタログ検索結果の閲覧権限の制御など、運用に手間と時間がかかるため、データカタログの導入は費用対効果を厳しく検討すべきと、かなり慎重な意見を記している。
Author:坂間 毅 (Sakama Tsuyoshi)
コンサルティングファームに所属。数学の哲学を専攻して研究者を目指し、20代のほとんどを大学院で長々と過ごす。しかし博士号は取らず進路変更。以降IT業界に住んでいる。
別館:note
コメントの投稿