2016年10月10日月曜日

『人工知能は人間を超えるか』

仕事上付き合いのあった建築家のY先生がFBにて勧めていて、今の仕事でも概念的に「AI(人工知能)とはなんぞや?」
を学ぶ必要があり手にとった本。
「人工知能」の来し方行く末のイメージが持てる本。
個人的には進化論とも絡んできて非常に面白かった。

<人工知能の来し方行く末>

人工知能にはこれまで2回のブームがあった。
1956年から1960年代が第1次ブーム。
1980年代が第2次ブーム。
1次の時も2次の時も、「人工知能はもうすぐできる」その言葉にみんな踊った。
しかし、思ったほど技術は進展しなかった。思い描いていた未来は実現しなかった。期待が大きかった分だけ失望も大きかった。
今や第3次ブーム。
うまくいけば、人工知能は急速に進展する。なぜなら「ディープラーニング」、あるいは「特徴表現学習」という領域が開拓されたからだ。これは人工知能の「大きな飛躍の可能性」を示すものだ。
一方、冷静に見た時に、人工知能にできることは現状ではまだ限られている。基本的には、決められれた処理を決められたように行うことしかできず、「学習」と呼ばれる技術も、決められた範囲で適切な値を見つけ出すだけだ。例外に弱く、汎用性や柔軟性がない。

人類にとっての人工知能の脅威は、シンギュラリティ(技術的特異点)という概念でよく語られる。人工知能が十分に賢くなって、自分自身よりも賢い人工知能を作れるようになった瞬間、無限に知能の高い存在が出現するというものである。実業家のレイ・カーツワイル氏は、その技術的特異点が2045年に到来すると主張している。
こうした人工知能がもたらすかもしれない脅威に、宇宙物理学で有名なスティーブン・ホーキング氏は「完全な人工知能を開発できたら、それは人類の終焉を意味するかもしれない」と警鐘を鳴らしている。
電気自動車で有名なテスラモーターズのCEOイーロン・マスク氏は「人工知能にはかなり慎重に取り組む必要がある。結果的に悪魔を呼び出していることになるからだ」と述べる。

高名な科学者ですら、一見すると非合理的な理論を持ち出して人間の特殊性を説明しようとするくらいだから、やはり、人間(だけ)が特別な存在であるというのは、誰もがそう願いたいことなのだろう。
人間を特別視したい気持ちも分かるが、脳の機能や、その計算のアルゴリズムとの対応を一つ一つ冷静に考えていけば、「人間の知能は、原理的には全てコンピュータで実現できるはずだ」というのが、科学的には妥当である。
そして、人工知能はもともと、その実現を目指している分野なのである。

<人工知能の定義>

人工知能の定義は専門家の中でも定まっていない。
ちなみに、私の定義では、「人工的につくれらた人間のような知能」であり、人間のように知的であるというのは、「気づくことのできる」コンピュータ、つまり、データの中から特徴量を生成し現象をモデル化することのできるコンピュータという意味である。

<人工知能のレベル>

世の中で人工知能と呼ばれているものを整理すると、次のようなレベル1からレベル4の4段階に分けることができる。
<レベル1>
単純な制御プログラムを「人工知能」と称している マーケティング的に「人工知能」「AI」と名乗っているものであり、ごく単純な制御プログラムを搭載しているだけの家電製品に「人工知能搭載」などとうたっているケースが該当する。
<レベル2>
古典的な人工知能 振る舞いのパターンが極めて多彩なものである。将棋のプログラムや掃除ロボット、あるいは質問に答える人工知能などが対応する。
いわゆる古典的人工知能であり、入力と出力を関係付ける方法が洗練されており、入力と出力の組み合わせの数が極端に多いものである。
その理由は、推論・探索を行っていたり、知識ベースを入れていたりすることによる。
<レベル3>
機械学習を取り入れた人工知能 レベル3は、検索エンジンに内蔵されていたり、ビッグデータをもとに自動的に判断したりするような人工知能である。
入力と出力を関係付ける方法が、データをもとに学習されているもので、典型的には機械学習のアルゴリズムが利用される場合が多い。
機械学習というのは、サンプルとなるデータをもとに、ルールや知識を自ら学習するものである。
最近の人工知能というと、このレベル3を指すことが多い。
<レベル4>
ディープラーニングを取り入れた人工知能 さらにその上のレベルとして、機械学習をする際のデータを表すために使われる変数(特徴量と呼ばれる)自体を学習するものがある。

言われたことだけをこなすレベル1はアルバイト、たくさんのルールを理解し判断するレベル2は一般社員、決められたチェック項目に従って業務をよくしていくレベル3は課長クラス、チェック項目まで自分で発見するレベル4がマネージャークラスという言い方もできるだろうか。

<人工知能の課題>

○高度な専門知識が必要な限定された分野ではよくても、より広い範囲の知識を扱おうとすると、途端に知識を記述するのが難しくなった。 例えば、何となくお腹が痛いとか、「曖昧な症状」について診断を下すことは、コンピュータにとって難易度が高い。
「常識レベルの知識」が人工知能にとって思いがけず難敵なのである。
コンピュータが知識を獲得することの難しさを、人工知能の分野では「知識獲得のボトルネック」という。
「フレーム問題」は、人工知能における難問の1つとして知られている。
もともとは人工知能の大家の一人、ジョン・マッカーシー氏の議論から始まっている。
フレーム問題は、あるタスクを実行するのに「関係ある知識だけを取り出してそれを使う」という、人間ならごく当たり前にやっている作業がいかに難しいかを表している。
○フレーム問題とならんで、人工知能の難問の1つとされるものに、「シンボルグラウンディング問題」がある。
認知科学者のスティーブン・ハルナッド氏により議論されたもので、記号(文字列、言葉)をそれが意味するものと結び付けられるかどうかを問うものである。コンピュータは記号の意味を分かっていないので、記号をその意味するものと結びつけることができない。
ロボット研究者の中には、このシンボルグラウンディング問題を、知能を実現する上で非常に重要な問題だと考えている人もいる。
ウマというものを本当に理解するには、現実世界における身体がないといけない。身体がないと、シンボルそれが指すものを接地させる(グラウンドさせる)ことができないため、こういったアプローチは「身体性」に着目した研究と呼ばれる。
「外界と相互作用できる身体がないと概念は捉えきれない」というのが、身体性というアプローチの考え方である。


<機械学習>

第2次AIブームでは「知識」を沢山入れれば、それらしく振舞うことはできたが、基本的に入力した知識以上のことはできない。そして、入力する知識はより実用に耐えるもの、例外にも対応できるものを作ろうとするほど膨大になり、いつまでも書き終わらない。根本的には、記号とそれが指す意味内容が結びついておらず、コンピュータにとって「意味」を扱うことは極めて難しい。
こうした閉塞感の中、着々と力を伸ばしてきたのが「機械学習(Machine Learning)」という技術であり、その背景にあるのが、文字認識などのパターン認識の分野で長年蓄積されてきた基盤技術と、増加するデータの存在だった。
ウェブ上にあるウェブページの存在は強烈で、ウェブページのテキストを扱うことのできる自然言語処理と機械学習の研究が大きく発展した。 その結果、統計的自然言語処理(Statistical Natural Language Processing)」と呼ばれる領域が急速に進展した。これは、例えば、翻訳を考える時に、文法構造や意味構造を考えず、単に機械的に、訳される確率の高いものを当てはめていけばいいという考え方である。

機械学習とは、人工知能のプログラム自身が学習する仕組みである。 そもそも学習とは何か。どうなれば学習したと言えるのか。
学習の根幹を成すのは「分ける」という処理である。
人間にとっての「認識」や「判断」は、基本的に「イエス・ノー問題」として捉えることができる。この「イエス・ノー問題」の精度、正解率を上げることが学習することである。
機械学習は、コンピュータが大量のデータを処理しながらこの「分け方」を自動的に習得する。一旦「分け方」を習得すれば、それを使って未知のデータを「分ける」ことができる。
機械学習は、大きく「教師あり学習」「教師なし学習」に分けられる。
「教師あり学習」は、「入力」と「正しい出力(分け方)」がセットになった訓練データをあらかじめ用意して、ある入力が与えられた時に、正しい出力(分け方)ができるようコンピュータに学習させる。
通常は、人間か教師役として正しい分け方を与える。
ロイター通信のデータセットというのが有名で、2万個の新聞記事のデータに135個のカテゴリが付与されているものが文書分類の研究ではよく使われる。
一方、「教師なし学習」は、入力用のデータのみを与え、データに内在する構造をつかむために用いられる。
データの中にある一定のパターンやルールを抽出することが目的である。
全体のデータを、ある共通項を持つクラスタに分けたり(クラスタリング)、頻出パターンを見つけたりすることが代表的な処理である。(頻出パターンマインニング、あるいは相関ルール抽出と呼ばれる処理)

機械学習は、ニューラルネットワークを作る「学習フェーズ」と、出来上がったニューラルネットワークを使って正解を出す「予測フェーズ」の2つに分かれる。
学習フェーズは、大量のデータを入力し、答え合わせをして、間違うたびに適切な値に修正するという作業をひたすら繰り返すので、とても時間がかかる。
しかし、いったんできてしまえば、使う時は簡単で、出来上がった重み付けを使って、出力を計算する。この作業は一瞬で終わる。
人間も学習している時は時間がかかるが、学習した成果を使って判断する時は一瞬でできる。

機械学習にも弱点がある。 それがフィーチャーエンジニアリング(Feature engneering)である。つまり、特徴量(あるいは素性(そせい)という)の設計であり、ここでは「特徴量設計」と呼ぶ。
特徴量というのは、機械学習の入力に使う変数のことで、その値が対象の特徴を定量的に表す。この特徴量に何を選ぶかで、予測精度が大きく変化する。
人間は特徴量をつかむことに長けている。 何か同じ対象を見ていると、自然にそこに内在する特徴に気づき、より簡単に理解することができる。
ある道の先人が、驚くほどシンプルに物事を語るのを聞いたことがあるかもしれない。特徴をつかみさえすれば、複雑に見える事象も整理され、簡単に理解することができる。

<誤差逆伝播>

答え合わせをして間違えるたびに重み付けの調整を繰り返して、認識の精度を上げていく学習法の代表的なものを「誤差逆伝播(Back Propagation)」 という。
どう調整するのかというと、全体の誤差(間違う確率)が少なくなるように微分をとる。
微分をとるというのは、つまり、ある1つの重み付けを大きくすると誤差が減るのか、小さくすると誤差が減るのかを計算するということである。
そして、誤差が小さくなる方向に、ニューロン同士をつなぐ線の重み付けのそれぞれに微調整を加えていく。
別なたとえ話で説明すると、ある組織において上司が判断を下さないといけない場面を考える。
上司は部下からの情報を基に判断を下す。自分の判断が正しかった時は、その判断の根拠となった情報を上げてきた部下との関係を強め、判断が間違った時は、間違いの原因となった情報を上げてきた部下との関係を弱める。
これを何度も繰り返せば、組織として正しい判断を下す確率が上がっていくはずだ。

<ディープラーニング>

2012年、人工知能研究の世界に衝撃が走った。
世界的な画像認識のコンペティション「ILSVRC(Imagenet Large Scale Visual Recognition Challenge)」で初参加のカナダのトロント大学が開発したSuper Visonが圧倒的勝利を飾ったのだ。
何がトロント大学に勝利をもたらしたのか。その勝因は同大学教授ジェフリー・ヒントン氏が中心になって開発した新しい機械学習の方法「ディープラーニング(深層学習)」だった。
ディープラーニングは、データをもとに、コンピュータが自ら特徴量を作り出す。
人間が特徴量を設計するのではなく、コンピュータが自ら高次の特徴量を獲得し、それをもとに画像を分類できるようになる。

通常、ディープラーニングは「表現学習(representation learning)」の1つとされる。

ディープラーニングは多階層のニューラルネットワークである。
3層でうまくいったものを4層、5層とすればもっと良くなるはずである。
ところが、やってみるとそうならなかった。精度が上がらないのだ。
なぜかと言うと、深い層だと誤差逆伝播が、下の方まで届かないからだ。
上司の判断が良かったかどうかで、部下との関係を強めるか弱めるかして修正する、これを階層を順番に下ってやっていけば良いというのが誤差逆伝播だったが、組織の階層が深くなりすぎると、一番上の上司の判断が良かったか悪かったかということが、末端の従業員まで到達する頃には、ほとんど影響がゼロになってしまうのだ。

ディープラーニングは、その多層のニューラルネットワークを実現した。どうやって実現したのだろうか。
ディープラーニングが従来の機械学習とは異なる点が2点ある。
1つは、1層ずつ階層ごとに学習していく点。
もう1つは、自己符号化器(オートエンコーダー)という「情報圧縮器」を用いることだ。 自己符号化器では、少し変わった処理を行う。
ニューラルネットワークを作るには、正解を与えて学習させる学習フェーズが必要だった。
ところが、自己符号化器では「出力」と「入力」を同じにする。
「手書きの3」の画像を入力して、正解も同じ「手書きの3」の画像として答え合わせをするのだ。
ただひたすら同じ画像のエンコーディング(圧縮)とでコーディング(復元・再構築)を繰り返すうちに、いかに効率的に少ない情報量を経由して元に戻せるかを学習していく。
そして、答え合わせの成績が良い時に、隠れそうにできているものが、良い特徴表現なのだ。
自己符号化器でやっていることは、アンケート結果の分析でおなじみの「主成分分析」と同じである。
自己符号化器の場合は、さまざまな形でノイズを与え、それによって非常に頑健に主成分を取り出すことができる。 そのことが「ディープに」、つまり多階層にすることを可能にし、その結果、主成分分析では取り出せないような高次の特徴量を取り出すことができる。

コンピュータが概念(シニフィエ、意味されるもの)を自力で作り出せれば、その段階で「これは人間だ」「これは猫だ」という記号表現(シニフィアン、意味するもの)を当てはめてやるだけで、コンピュータはシニフィアンとシニフィエが組み合わさったものとして認識する。ここまでくれば次からは人間や猫の画像を見ただけで判断できることになる。
ところが、少し理解が難しいのは、得られた特徴量を使って、最後に分類する時、つまり、「その特徴量を有するのは猫だ」とか「犬だ」とかいう正解ラベルを与える時は、「教師あり学習」になることだ。
「教師あり学習的な方法による教師なし学習」で特徴量を作り、最後に何か分類させたい時は「教師あり学習」になるのである。
結局、教師あり学習をするのなら、ディープラーニングをやってもあまり意味がないと思うかもしれないが、この違いは極めて大きい。
コンピュータにとっては、「教師データ」を必要とする度合いが全く違うのだ。 世の中の「相関する事象」の相関をあらかじめ捉えておくことによって、現実的な問題の学習は早くなる。
なぜなら、相関があるということは、その背景に何らかの現実の構造が隠れているはずだからだ。

ディープラーニングは「データをもとに何を特徴表現すべきか」という、これまで一番難しかった部分を解決する光明が見えてきたという意味で、人工知能研究を飛躍的に発展させる可能性を秘めている。
ところが、その実、ディープラーニングでやっていることは、主成分分析を非線形にし、多段にしただけである。つまり、データの中から特徴量や概念を見つけ、その塊を使って、もっと大きな塊を見つけるだけである。

<概念の頑健性>

こうした特徴量や概念を取り出すということは、非常に長時間の「精錬」の過程を必要とする。何度も熱しては叩き上げ、強くするようなプロセスが必要である。それが、得られる特徴量が概念の頑健性(ロバスト性とも呼ぶ)につながる。
そのためにどういうことをやるかというと、一見すると逆説的だが、入力信号に「ノイズ」を加えるのだ。ノイズを加えても出てくる「概念」はちょっとやそっとではぐらつかない。
頑健性を高めるには、ノイズを加えて「ちょっと違った過去」を作り出すやり方のほか、ドロップアウトと言って、ニューラルネットワークのニューロンを一部停止させるという方法もある。隠れ層の50%のニューロンをランダムに欠落させるのだ。
ほかにもニューラルネットワークにとって「過酷な環境」がいろいろと研究されている。そこまで苛め抜かないと、データの背後に存在する「本質的な特徴量」を獲得できないのだ。
1個1個の抽象化の作業が非常に堅牢であることによって、2段目、3段目と積み上がった時
にも効果を発揮する。


<人工知能が獲得する概念>

人間が「知識」として教えるのではなく、コンピュータ自ら特徴量や概念を獲得するディープラーニングでは、コンピュータが作り出した「概念」が、実は人間が持っていた「概念」とは違うというケースが起こりうる。
そもそも、センサー(入力)のレベルで違っていたら、同じ「特徴量」になるはずがない。
人間には見えない赤外線や紫外線、小さすぎて見えない物体、動きが早すぎて見えない物体、人間には聞こえない高音や低音、犬にしか嗅ぎ分けられない匂い、そうした情報もコンピュータが取り込んだとしたら、そこから出てくるものは、人間の知らない世界だろう。
そうやってできた人工知能は、もしかしたら「人間の知能」とは別のものかもしれないが、間違いなく「知能」であるはずだ。

人間が獲得する概念の中には、単に復元エラーを最小化するだけではなく、何が「快」か「不快」かによって方向付けられているものも多い。
人間の場合、生物であるから基本的に、生存(あるいは種の保存)に有利な行動は「快」となるようにできている。
こうした本能に直結するような概念をコンピュータが獲得することは難しい。
「人間と同じ身体」「文法」「本能」などの問題を解決しないと、人工知能は人間が使っている概念を正しく理解できるようにはならないかもしれない。

<創造性>

よく創造性がコンピュータで実現できるかと聞かれるが、創造性というのは、2つの意味があり、区別しなければならない。
1つは個人の中で日常的に起こっている創造性で、もう1つは社会的な創造性である。
概念の獲得、あるいは特徴量の獲得は創造性そのものである。個人の内部で日常的に起こっているので、特に創造的であるとは思わないかもしれないが、あることに「気づく」のは創造的な行為である。
「アハ体験」と言う言い方をしてもいいかもしれない。 複数のものを説明する1つの要因(あるいは特徴量)を発見した時、物事がよりスッキリ見える。そうしたレベルの創造性は日常的に起こっている。
一方で、社会の誰も考えていない、実現していないような創造性は、いわば「社会の中に以前考えていた人がいるかどうか」という相対的なものである。

人間は試行錯誤によっても創造する。これは、環境とインタラクション(相互作用)することで、ある一連の行為によって環境が変化し新しい性質が引き出される、あるいは、それによって自分の中にある情報の新しい特徴量が生まれるということである。
「行動を通じた特徴量を獲得できるAI」の段階に達すれば、人工知能も試行錯誤ができるようになるだろう。 環境とのインタラクションが起きるようになれば、試行錯誤による創造性ということも自然に起こるはずだ。

<人工知能と社会性>

人間は社会的な動物である。一人では生きていけない。一人ひとりの脳では、物事の特徴表現が次々に学習されているが、人間社会は、こうした個体がまとまって社会を作っている。その意味を人工知能の観点から考えるとどうなるだろうか。

言語の果たす役割とも関係があるが、社会が概念性獲得の「頑健性」を担保している可能性がある。複数の人間に共通して現れる概念は、本質を捉えている可能性が高い。 つまり、「ノイズを加えても」でてくる概念と同じで、「生きている場所や環境が異なるのに共通に出てくる概念」は何らかの普遍性を持っている可能性が高い。
言語はこうした頑健性を高めることに役立っているのかもしれない。

そう考えると、人間の社会がやっていることは、現実世界の物事の特徴量や概念を捉える作業を、社会の中で生きる人たち全員が、お互いコミュニケーションをとることによって、共同して行っていると考えることもできる。
進化生物学者のリチャード・ドーキンス氏が唱えた、人から人へ受け継がれる文化的な情報である「ミーム」も近い考え方だが、現実世界を適切に表す特徴表現を受け継いでいると考える点は異なる。
そして、そうして得た世界に関する本質的な抽象化を巧みに利用することによって、主としての人類が生き残る確率を上げている。
つまり、人間という種全体がやっていることも、個体がやっている物事の抽象化も、統一的な視点で捉えることができるかもしれない。「世界から特徴量を発見し、それを生存に活かす」ということである。


<選択と淘汰>

認知心理学者のジェラルド・エーデルマン氏は、脳の中にも種の進化と同じ、選択と淘汰のメカニズムが働いていると主張した。
我々が生きるこの世界において、複雑な問題を解く方法は、実は、選択と淘汰、つまり遺伝的な進化のアルゴリズムしかないのかもしれない。
優れたものは繁栄し、そのバリエーションを残し、劣ったものは淘汰される。
人間の脳の中でも、予測という目的に役立つニューロンの一群は残り、そうでないものは消えていくというような構造があるのではないだろうか。

生物進化における脳の発展と、それに伴う抽象化能力の向上と、これからのビッグデータを活用した「知識転移」はほとんど同じ流れである。
当初、生物は単純な反応系として情報を入力し、処理し、行動として出力した。
ところが、その情報がリッチになり、たくさんのデータで世界を見られるようになった。特に「目の誕生」は強烈で、それゆえに、捕食者からいかに生き延びるか、身を隠すかといった生物の戦略が多様化し、5億4200万年前のカンブリア紀における性粒の多様性の爆発(カンブリア爆発)の契機となったという。
企業活動も同じで、ビッグデータによって、企業を取り巻く様々な環境を捉えられるようになった。まさに「目の誕生」だ。センサーが発達した結果、企業は様々な戦略が取れるようになる。
そして、次に来るのは「脳の進化」である。センサーの情報から他の生物が捉えられないような情報を捉え生存に活かす。変わりゆく環境においては抽象化能力が高ければ少ないサンプル数で適応することができ、生存確率が上がる。

産業構造という視点から見た経済の分析と、抽象化という視点から見た(人工)知能の分析が、ほぼ同じ答えになるというのは極めて興味深い。
その背景には、資本主義経済も、生物の生き残る環境のいずれにおいても「予測性(予測能力)が高いものが勝ち残りやすい」という本質的な競争条件があること、そのために選択と淘汰という原理が採用されていること(エーデルマン氏は脳の中でも予測性が高いかどうかによる選択と淘汰が働いているとした)、そして抽象化によって知識を転移させるということが、変化する環境に対応する極めて強力な武器であることという共通点があるからではないかと思う。


<産業への波及>

ディープラーニングからの技術進展予測は以下の順番。
①画像特徴の抽象化ができるAI(認識精度の向上)
 →広告・画像からの診断
②マルチモーダルな(複数の感覚のデータを組み合わせた)抽象化ができるAI(感情理解・行動予測・環境認識)
 →ペッパー、ビッグデータ、防犯・監視
③行動と結果の抽象化ができるAI(自律的な行動計画)
 →自動運転、農業の自動化、物流(ラストワンマイル)、ロボット
④行動を通じた特徴量を獲得できるAI(環境認識能力の向上、大幅向上)
 →社会への進出、家事・介護、コールセンター、他者理解、感情労働の代替
⑤言語理解・自動翻訳ができるAI(言語理解)
 →翻訳、海外向けEC
⑥知識獲得ができるAI(大規模知識理解)
 →教育、秘書、ホワイトカラー支援


<シンギュラリティは来るか>

今ディープラーニングで起こりつつあることは「世界の特徴量を見つけ特徴表現を学習する」ことであり、これ自体は予測能力を上げる上で極めて重要である。ところが、このことと、人工知能が自らの意思を持ったり、人工知能を設計しなおしたりすることとは天と地ほど距離が離れている。
その理由を簡単に言うと、「人間=知能+生命」であるからだ。
知能を作ることができたとしても、生命を作ることは非常に難しい。
いまだかつて人類が新たな生命を作ったことがあるだろうか。仮に生命をつくることができるとして、それが人類よりも優れた知能を持っている必然性がどこにあるのだろうか。あるいは逆に、人類よりも知能の高い人工知能に「生命」を与えることが可能だろうか。 自らを維持し、複製できるような生命ができて初めて、自らを保存したいという欲求、自らの複製を増やしたいという欲求が出てくる。それが「征服したい」というような意思につながる。
生命の話を抜きにして、人工知能が勝手に意思を持ち始めるかもと危惧するのは滑稽である。

<その他>

○ライトウェイト・オントロジーのひとつの究極の形とも言えるのが、IBMが開発した人工知能「ワトソン」である。
ワトソンは、2011年にアメリカのクイズ番組「ジョパディ!」に出演し、歴代のチャンピオンと対戦して勝利したことで一躍脚光を浴びた。
手法としては、従来からあるクエスチョン・アンサリング(質問応答)という研究分野の成果である。ウェイキペディアの記述をもとにライトウェイト・オントロジーを生成して、それを解答に使っている。
ワトソン自体は質問の意味を理解して答えているわけではなく、質問に含まれるキーワードと関連しそうな答えを高速に引っ張り出しているだけである。人間のクイズ王と違って、質問文を理解しているわけではない。

○企業などの組織構造も、「抽象化」という観点で見ると、特徴表現の階層構造と近いものがある。下の階層の人は現場を見ている。上に行くと抽象度が上がる。一番上は最も大局的な情報を見ている。これが上下に連携をとることで、組織としての的確な認識、およびそれに基づく判断をしているのだ。
脳内で行われる、あるいはディープラーニングが行っている抽象化は、符号化(エンコーディング)と復号化(デコーディング)として実現されている。そのことと通信、つまり異なる主体が情報をやり取りすることは本質的に極めて近い。そのため、組織内でやり取り(通信)をすることによって、組織自体が脳と同じような抽象化の機構を持つというのも不思議ではない。



シンギュラリティが来て、人工知能は人間にとって替わり、「神」のような存在となるか。
筆者は「生命」という観点からその未来を否定するが、「擬似生命」としてのプログラムを(マッドサイエンティストの誰かに)入力された途端、悪魔を呼び出すことは否定できないはずだ。
とはいえ、複雑なことは”正解”が一つではない。エヴァンゲリオンにおけるMAGIシステムのように幾つかの判断軸による合議のような形をとるのではないか。それでも三賢者ならぬ3人の神による運用という感じで、そこに人間の介在する余地はどこまであるのか。

人工知能なのに、判断基準そのものに「選択と淘汰」の概念が入ると、まるで生物の進化と非常に似通ってくるというのが、進化論者の自分には非常に面白かった。

また、組織も符号化と復号化を上下で繰り返すこと(ビジョンのもと実践を行うこと)で抽象化(より抽象的なミッションを共有すること)を実現できる、というのが導き出されるのが本当に面白いと思った。
やはり山の登り方は沢山あって、一つじゃないね。




0 件のコメント: