『データの見えざる手』を読んでビッグデータとかディープラーニングとか考えたこと。

『データの見えざる手』を読みました。

以前から持っていたのですが、あまり時間が取れずにこのタイミングになってしまいました。

発行は2014年7月とちょうど2年前ですが、本の内容はより意味を持つようになっていると感じます。

  • 1日の活動量は科学的に決まっているため、(動作レベルで)同じ作業を繰り返すのは身体的にも難しい。
  • ソフトウェアのアルゴリズムを考える仕事は今後代替される

あたりはメモっておいた部分。

また、ビッグデータを活用するときに、人間が仮説を立ててはいけないという一文。これはディープラーニングにも当てはまることなのですが、ブラックボックス化されている因果関係を、コンピュータがブラックボックス化したままで結果(仮説)を返すのが最も効率良く技術を使えているということになるのですね。

つまり、なんだかよくわからないけどこうやったらうまくいくらしい、という状態が最善だと。人間が仮説を立てることで、恣意的な見解が入る余地を防ぐことができます。

ビッグデータ関連は多くの生データを集めることが重要なので、今後はデータを集めるビジネス、が大きく伸びるかもしれません。

解析ツールはTensorFlowとかChainerとかいろいろ出てきた気がします。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です