民間主導のDX

政府主導で行われるDXは、仕様ありきの競争入札の仕組みになりがちだと言える。それではせっかくの民間の技術も枠にはめられ、先端技術も仕様作成側の理解レベルに留まり、なかなかDXによる技術進歩の様なものは期待できなさそう。

需給間での要請の違い

そもそも、行政のDXと言っても、現場のアプリケーションレベルでは、もはや工夫も色々と出てかなりの程度になっているのだろうと思われる。だから、現状での焦点は、利用者側とのインターフェース部分になっていると考えられそうで、その観点から、政府主導だと利用者管理的な案が出やすくなるが、利用者側からは情報公開と意志決定への参画と言ったことが求められ、ここでその方向感が真っ二つに分かれるのだと言えそう。
技術革新や社会への技術の波及効果という点で考えれば、政府主導で管理を志向した仕様に従ってシステムを作るというのは、非常に閉鎖的で現状維持的な物になりそうで、コストパフォーマンスが良くなさそうに感じる。それならば、政府の持っているデータをいかに開示し、そしてそれを利用できるかの知恵、さらにはいかに民意をその意志決定の中に組み込むことができるかの知恵を、上からのお仕着せではなく、民間が自分たちで必要だと思う機能を自分たちで付け加えられる様な仕組として行ったほうが良いのだろう。

情報対応アプローチの変化

政府サイドから見れば、これまでは必要な情報を小出しにして政策をコントロールする、という手法が有効だったのかもしれないが、情報の流通速度がこれだけ速くなってしまうと、小出しにしているよりもどんどん開示して支持を集め、政策を進めやすい環境づくりをして行ったほうが良いという局面になりつつあるのではないだろうか。そして、情報の質・量共に爆発的に増えている中、今更マイナンバーの様なものによって利用者の全ての情報を管理しようなどという、ハイコストで労多くして実の少ないことをやるよりも、利用者にとって使い勝手の良い政策をどんどん実行してゆくことで、自然に必要な情報が集まる様にしたほうがはるかに無駄が少ない。情報を集めること自体にはそれほど意味はなく、必要な情報をいかに手に入れやすくするのか、ということの方がずっと重要になっていると言えるのではないか。

情報利用度向上のために

では、具体的にどうすれば良いのか、ということであるが、個人的にはいつも言っている通りエッジ化を進めるということが必要だと考えているが、それは社会全体のこととなり、もちろんできることは多くあるのだが、社会的合意のない状態で今政府が何か一方的にそれを推し進めるというのは問題が多い様に感じる。政府サイドで進められるのは、結局政府自身の情報の利用度をどんどん上げてゆくことであり、それには、データセキュリティとAPIの充実という両面が必要なのだろう。政策は常に方向感を持ち、その成果を確認しながら進められる、ということだろうから、その方向感の共有と成果確認ということで、方向感の共有が政府の持っているデータをセキュアな形で開示するということになり、その成果を確認するために、利用者の反応が見られる様にそのデータの利用度を高めるためのAPIを充実させるということになりそう。

政策進捗に合わせた情報政策

セキュアな情報公開とは、実務的に発生する情報についてそこに直接アクセスするのではなく、データをいじられても困らない様なコピーが整理された形で公開されるという流れをいわばシステム化し、政策の進行過程をなるべくリアルタイムに利用しやすい形で公表してゆくことで、政策進捗の共有度を高めてそれを進めやすくするということを意味するだろう。
一方でAPIの充実は、定量的な情報については純システム的な問題となるが、問題は定性的情報をどうするのか、ということだろう。政策進捗を随時公開ということと定量化との間には随分なタイムラグが生じ、むしろ定性的情報への反応を集計することで定量化がなされる、というプロセスだと考えるべきなのだろう。

定性的情報処理の問題点

政策の進捗は、定性的情報が拡散する動的なプロセスであり、その動的処理の技術がまだインターネットには備わっていないのでは、という気がする。インターネットでの動的処理というと、動画の様な超短期のものになってしまい、中長期的に進展してゆくもう少しゆったりとした動的処理という部分については置き去りにされている様に感じ、それが情報の陳腐化を早めている様に見える。
ここの部分というのは、アクセスの多い政府の情報だからこそ工夫の余地が非常に大きいと考えており、まずプライバシーと両立した情報収集というのがなんなのか、ということの最前線になるのではないかと感じている。cookieのような技術が利用者の行動把握のために利用されているが、ブラウザサイドではなくクライアントサイドでの、サイト内回遊の利便性を上げるためにそれだけにしか用いられずIP長期保存もできないようなアクセス同一性確認技術が、アクセス数の多い政府のサイトによって確立されれば、(もっともおそらく技術的には確立しているのだろうが理解の難しさからの不安があるのだろう)cookie承認という非常に不安感を掻き立てる様な処理は必要なくなるのではないだろうか。

技術的ボトルネックの中長期動的処理

これによって得られた情報をもとに、関連情報へのリンクを充実させることで、サイト内回遊の様子が分かり、それによってなんの情報が求められているのか、ということが、利用者向けの具体的アンケートなどを介さずに、ある程度できる様になるのではないだろうか。
その関連情報リンク形成というのは、現状サイト製作者が過去の情報に手作業でリンクを貼るというのが主流だと考えているが、その作業は非常に面倒である様に感じ、そのために定性的情報が流れとして把握し難く、すぐに情報の山の中に埋もれてしまって陳腐化する、ということがあるのではないかと感じている。せっかく公開速度を早めても、それが故に陳腐化も早まるのでは、なんのために情報公開をしているのかがわからなくなってしまう。回遊性の向上、関連情報リンク、バージョン管理を含めた過去の公開情報とのつながり、あるいは精度の高いサイト内検索と言ったことは定性的情報処理の技術的ボトルネックとなっている様に感じており、そこをアクセスの多い政府の情報についてその公開のあり方自体をオープンプロジェクト化してさまざまな知恵を集め、そこから新技術が生まれる様に主導する、という手法はありうるのではないかと感じる。

オープンプロジェクトの可能性

このように、政府の情報公開を、民間を巻きこんだオープンプロジェクトとすることで、民間の知恵を借りながら、その技術発展も図って、情報流通のあり方においてある程度の流れを主導してゆくということは、情報政策上も非常に重要なことではないかと感じる。意志決定への参画までは辿り着けなかったが、今日はここまでとしたい。


誰かが読んで、評価をしてくれた、ということはとても大きな励みになります。サポート、本当にありがとうございます。