個々人が発行する電子的な商品券・サービス券のトレード、使用、保有プラットフォームの提案。通貨による経済を置き換え、経済の活性化を実現する。
今回提案するプラットフォーム(Webサイト)では、個人個人が電子的な商品券・サービス券を発行し出品し、それらの券を個人個人(ユーザー)同士がトレードしたり使用したり保有したりすることができる。
商品券・サービス券の例として「ハンドメイドのアクセサリーと交換できる券」「米と交換できる券」「肩たたき券」「ヘアカットのサービス券」等である。「円と交換できる券」も考えられるが法的にどうなのかよく分からない。
このプラットフォームの仕組みと画期性
現在の経済社会は通貨を使用するものである。通貨は確かに便利な物である。原始の社会の経済は物々交換(正確には券と物との交換)であった。(参考URL→https://fknews-2ch.net/archives/20171029.html)
しかしそれは需要と供給のマッチングが難しかったので貴金属(ゴールド等)が価値を代替するようになりマッチングが活性化し経済が活性化した。そして紙幣が発明され貴金属に比べ輸送も簡便になった、そして信用創造により経済はさらに活性化した。
しかし紙幣が使われる社会では不便もある。通貨発行権は中央銀行に集約されたし、市民が商売をするには銀行から紙幣(通貨)を借りなければならなくなった。つまり、種類の少ない通貨(日本では実質円一種)に市民は行動を縛られるようになった。社会全体の景気の浮き沈みは中央銀行や、超富裕層、銀行、投資機関などの極一部の集団によって舵を取られることになった。
起業など商売をする為に通貨を借りるには極一部の集団である彼らの審査を受けなければならないし、景気が沈んでいる時は借りることが難しい。それがポジティブフィードバックされさらに景気は落ち込んでしまう。これは通貨の種類が少ない事、また通貨の流動性がごく一部の集団に託されていることによる。
通貨を借りる際の審査も数少ない機関からではビジネスの可能性を認めてもらえる可能性が低くなる。
今回提案するプラットフォームでは経済の仕組みを原始の経済をアップデートして再実装するものである。
紙幣は便利であったが紙幣は経済の多様性を捨象して解像度が落とされたものといえる。紙幣はけして原始の経済を進化させた優れたものであるわけではない。
原始の経済の仕組み(個人個人が発行する券と物の交換)の不便だった部分を"現代の情報技術で解消する"事で、現在の通貨(紙幣)による経済を、経済の「本質」に回帰させる。
このプラットフォームの仕組みを説明する。基本的に上記の参考URLのサイトに書かれている、券の使用のされ方と同じである。
このプラットフォーム上でユーザーは電子的な商品券・サービス券を発行し出品できる。発行できるという事は、既存の券ではなく、ユーザーが自分で券を作ることができ、そのような件がこのプラットフォーム上に出品されるという事である。
そして誰かの券を持っているユーザーは原始の経済のように券に記されている約束(モノやサービスとの交換等)を行使する事ができるし、別の券とトレードする事も出来る。(券に記された権利をトレードできるという点が既存のフリマアプリやクラウドソーシング、クラウドファンディングには無い点である)
券をトレードできるという事は供給者と需要者の要求が直接マッチングする必要が無いという事である。自分に必要の無い券を持っていても誰かが自分に必要な券とトレードしてくれるのである。これは2人の間だけのトレードだけではなく、何人ものユーザーを介したわらしべ長者的なトレードも想定し得る。
様々な券には様々な需要が対応しているので券を色々トレードする事でまるで、通貨のように様々な需要があるもの(つまり通貨)と同一視できる。自分のウォレット内で常に流動する券はさながら定常開放系のようなもので、通貨のような固体(個)のように捉える事ができる。(人体がそれを構成する物質が常に入れ替わっても個人という確固たる個が存在するようなものである)つまり、このプラットフォームのウォレットは通貨の要件である、価値の保存などを満たす。つまり通貨と同一視できる。
そして通貨よりも優れた点は、個人個人が券を自由に作成し発行できるので、上記のごく一部の集団にビジネス行動を縛られないことであり、多様性が増し経済の解像度、流動性が上がるという事である。(もちろん既存の通貨だってこの世界に同時に存在していても良い。どちらかの経済社会を一つ選ばなければならないという事は無く、この提案にデメリットがあるとすればそのデメリットを必ず取らなければならないという事は無い)
現在の社会でビジネスをしていくには通貨を借りなければならないが、このプラットフォームがあれば自分から価値を創造でき、通貨を借りる必要が無い。現代の資本主義社会は経済を発展させていくには常に信用創造された通貨を借りなければならない。誰かが通貨を借りるから、その分社会に増えた通貨を自分が稼ぎ自分が借りた通貨を返す、この繰り返しが活発化していかないと経済は回らない(借金の利子は時間経過とともに増えていくからである)。個人的にこのような全員が立ち止まることができず、走り続けなければならない、信用創造で経済を発展させなければならない仕組みは大変だと思う。(ちなみにこのプラットフォームの仕組みでも券の信用創造は可能である。しかもユーザー個人が行う事ができるし、券の銀行のような組織が立ち上がれば組織的にも可能である)
トマピケティ氏が述べるように超富裕層とそれ以外の層の富の格差は拡大している。この経済社会にうまく適合できない(私のような)人は社会から脱落してしまう。しかしこのプラットフォームなら自分から価値を創造できる。多種多様な人が優れたビジネスを起こせる可能性がある(異能を発揮できる人が沢山現れ得る)。もちろん天才的な人間でなくとも普通に牧歌的にこのプラットフォームなら働き暮らすこともできる。格差が拡大していく現在の資本主義社会ではピケティ氏は超富裕層の増税が必要と述べている。つまり富の再配分が重要だという事である。しかし氏はこれは難しい事だと述べている。また近年ベーシックインカムの必要性も活発に議論されている。しかし超富裕層の増税もベーシックインカムももし実現がとても難しい事ならば、このプラットフォームがこの問題を解決する新たな一案である!(そして何よりこの案は楽しい事だと思いませんか?)
近年ビットコインなどの暗号資産(仮想通貨)が生まれ、そしてそれからNFTが生まれた。通貨から具体的な物(デジタルデータ)への流れが発生している。今回提案したプラットフォーム(通貨から券への回帰)はこの流れから鑑みても的外れな提案ではないのではないだろうか。
「roots 京丹後市未来チャレンジ交流センター」に行ってきた
今日「roots 京丹後市未来チャレンジ交流センター」に行ってきた。
地域の人々と地域の高校生がやりたいことを実現して地域を活性化させよう、というような感じの場所らしい。
↓こちらがフェイスブックの公式アカウントになる。
https://www.facebook.com/roots1031/
頻繁に更新され、活動の様子の写真も沢山あって、人見知りの私でもとても入りやすそうだと思えた。
事前のアポは無しで突然お邪魔したが普通に入れてもらえた。
OPEN時間は基本的に11:00~20:00
日曜と月曜は休み。
※追記:基本13:00~15:00は閉まっている。逆に開いていることもあるし日曜月曜でも開いていることもある。rootsのインスタグラムのストーリーなどで確認できることもある。https://www.instagram.com/roots_kyotango/
自分のやりたいことを紙に書いて壁に貼って良いので早速「パソコン教室、サークルを開きたい」と書いて貼らせてもらった。
私が滞在している間、建築関係の方々やスタッフの方々の活発な情報交換、議論が行われていた。私は地域の方々が持ち寄った本を読んで過ごしていた。
私はパソコン教室を開くにあたって地域の方や高校生と情報交換がしたかった。
一人の高校生がやってきてダンスの企画を練っていた。
その高校生と話してみると、近くの京都府立峰山高等学校にはプログラミングをやりたいと思っている生徒が幾人かいるということを教えてもらえた。
今日ここへ来て情報の収穫を得られて良かった。
最後になったが、ここ「roots 京丹後市未来チャレンジ交流センター」はとても良い所だ。開所されたことに感謝したいと思う。スタッフさん達の頑張りにも感謝したい。
AI理論アイデア記事のまとめ
私の考案したAI理論を説明する記事は今のところ二つに分かれています。
以下の二つの記事を上から順にお読みください。
一つ目:
AI理論の提案 Ver.2020.03.14 - ぼくちんの極秘アイデア倉庫
二つ目:
画像認識AIの設計と論理的思考するAIの設計アイデア
前回の記事公開から約5か月経過して、前回の記事の最後の方の具体的なAI設計を記述しようとした不明瞭な文章部分をいくらか具体的にさせるための思考の進展がありましたので今回この記事にて記述していこうと思います。
初めから汎用的な機能を持つAIを作るのは難しいと考え、MNISTデータを判別するAIのような画像認識AIの仕組みから考えようと思いました。
教師あり学習の精度を超えた!?相互情報量の最大化による教師なし学習手法IICの登場! | AI-SCHOLAR | AI:(人工知能)論文・技術情報メディア
前回の記事でも紹介したこちらの記事の論文の手法では、画像を関数で変換して別の画像に近づけることで、画像同士はその関数で互いに関係付けるということをしていますが、このアイデアをもう少し発展させたものを考えました。
そのアイデアというのは、画像変換に使う関数を統合情報量φが高まるように抽象度を上げていく、つまり抽象度の高い関数を自動で構築していって、統合情報量φが高い視点での画像データ同士の関係性を獲得したAI(ニューラルネットワーク)を作るというものです。初めは、画像変換関数はランダムな変換を行うものを複数生成し、画像同士の関係性の密度つまり統合情報量φが高くなるように徐々に関数を変化させていくという事です。
もう一つ画像認識AIの手法のアイデアがあります。それは先ほど説明した画像を変換する関数にて別の画像との関係性を構築するという手法ではなく、単に、画像を記述するその記述の抽象度をだんだん上げていくというものです。例えばある正方形が映っている画像データの記述法には単に「何番目のピクセルが1で何番目のピクセルが0で」という記述の仕方ができますが、これは抽象度の低い記述法です。「正方形である」とか「四角形である」とかその画像を記述する方法はいろんな抽象度で可能であり、抽象度の高い記述法を得られれば、より多くの画像データがその記述法で関係づけられつまり統合情報量φが高い状態のAI(ニューラルネットワーク)が構築できるというアイデアです。かの有名な畳み込みニューラルネットワーク(CNN)は、線を認識するフィルター、目や鼻、口を認識するフィルター、顔を認識するフィルターのようにフィルターの抽象度を上げていき、認識力の高いニューラルネットワークを作るというものです。私のアイデアは、フィルターによらない方法で抽象度を上げていく方式であると言えます。これは画像認識能力ではCNNにかなわないかもしれませんが、より一般的(汎用性の高い)方式であると考えます。具体的にどのような方法で画像の記述の抽象度を上げていくのかですが、積層オートエンコーダを作る方式を参考にした方式をまず考えました。積層オートエンコーダは、中間層のユニット数をだんだんと少なくしていきますが、私の考えた方法では、統合情報量φが高まるようにパラメータを学習させることによって、中間層のユニット数を増やすこともできるということです、ユニット数が増え、多層化することで、より画像データの関係性のネットワークの密度が高い視点を持ったAI(ニューラルネットワーク)が作れると考えます。
問題としては統合情報量を高めるアルゴリズムをまだ考案できていないという事です。脳は統合情報量を高めるアルゴリズムを持っていると思います。覚醒時に情報を記憶し睡眠時に情報を整理しいらない情報を忘却する、それが統合情報量を高めるアルゴリズムの一つとして可能性があるのではないかと思っていますがどうでしょうか。なんとなくですが脳のニューラルネットワークの必要リソース(細胞数、エネルギー量など)と情報源の表現力の効率性を最大化するような感じのアルゴリズムではないかと思います。
ニューラルネットワークにはバックプロパゲーションなど実際のニューロンにはないアルゴリズムが使われていることもあるので、なんらかの直接的な統合情報量を高める人工的なアルゴリズムを考えることもできると思います。
以上が画像認識AIの仕組みのアイデアです、次に汎用AI、強いAIの仕組みのアイデアを書きます。
人間の知能とは、メンタル統合をしながら、無限に論理を連鎖させ思考を続けられる能力だと思います。心理学の用語でいえば、システム1とシステム2のうちシステム2の思考方法ですね。
それが可能であるには、物事を捉えるのに、概念同士の合成後の概念もまた再びほかの概念と合成できるものである、つまり例えば四則演算について「有理数」のように閉じた群の様になっている必要があると思います。ゲーデルの不完全性定理のように、自然数自体で自然数論を記述するような自己言及的な形式である必要があると思います。人間の使う自然言語は、高階関数の形式になっていることは分かっていることです。高階関数のように関数自体を関数の引数に出来ることが無限の思考の連鎖が可能なのではないかと思います。そのような思考の形式で、頭の中で記述可能な概念同士を関係づけ、統合情報量φを上げていくことで人間は、他の生物よりも統合情報量が高い認知能力を獲得できると考えます。しかしやみくもに思考を連鎖させていっても計算量の爆発によって効果的に統合情報量φは上げることは出来ないでしょう。DQN(deep Q-network)のような、状況を他の似た状況と同一視して、取るべき一手を取るように、ある概念をほかの概念と似たものとして考えて、アナロジー思考をすることで、新しい知識、新しい関係を発見するような強化学習のようなアルゴリズムが必要だと思います。
そこで肝心な必要物となってくるのが私の考案した統合情報理論(理論の名前はまだ決まっていませんが便宜的にこう言います)です。
強化学習では報酬が設定されます。通常の生物にとっての報酬は、食べ物を得た時、子孫を残せた時などに受け取られるでしょう。人間もそうでありますが、もう一つ、他の生物にない報酬をもらえる時があると考えます。それが、脳が思考をして脳内の概念同士が結びつき、脳内の統合情報量φが高くなった時です。人間はなぜアートを見て感動するのか、なぜ数学理論を閃いて嬉しくなるのか、食べ物を得た時とは違い、なぜ生命にとって必要不可欠でないことに、脳が脳に報酬を出すのか、これで説明がつきます。思考という行動をして統合情報量φが高くなった時に報酬を得られるように強化学習を設定すれば、人間のような抽象度の高い知性を持つ汎用AI、強いAIが作れると思います。
以上のようなアイデア以外にもまだ文章にまとめられない、スクラップのようなメモ書き的アイデアがたくさんありますが、これからは実際にプログラミングをして試行錯誤していこうと思っています。
AI理論の提案 Ver.2020.03.14
強いAIを構築するうえで有効と思われる理論を考案したので説明していきたいと思います。
ただ、理論を完全に完成させたわけではありません。急いで発表する必要を感じたため、未完成ですが、発表させていただきたいです。完成するために、これを読んだ方の協力も頂ければと思います。
この記事には事実と仮説が混在しています。
理論の名前もまだ決まっていません。ジュリオトノーニ氏の統合情報理論に発想の影響を受けています。
エントロピーの減少という現象に着目した理論です。
苫米地英人氏の『苫米地英人、宇宙を語る』という本に書かれている、観測者の必要性、情報空間のエントロピーの減少、宇宙の抽象度の階層性、情報は関係性で成り立つ などの概念に大いに影響を受けました。
マクスウェルの悪魔、シラードのエンジンなど 熱力学のエントロピーが観測の概念、情報の概念と密接に関係があることに刺激を受けました。
AI理論アイデアの説明をしていきます。
簡単に言うと、宇宙の地球のある場所で一貫して起こっている、「エントロピーの減少」という現象に着目した理論です。
原子→分子→単細胞→多細胞生物→人間の脳と来て、さらに人間の脳内で発展する、数学理論、物理学理論などの情報の進化 を情報エントロピーの減少という一貫した観点で統一的に説明するものです。
情報エントロピーの減少は情報の統合であるとし、「統合情報量」の増加であると考えるものです。
詳しく説明していきます。
これから事実あるいは仮説、直感的想像を列挙します、そのあとで、それらを統一的に説明できるモデル(理論)を提唱したいと思います。またその理論が強いAIを作る上でどのように関係するのかも説明したいと思います。
・「エントロピー」とは物事の散らかり度合。エントロピーが小さいほど物事(物体や情報)がより整頓されているということ。
・宇宙ではエントロピーは増大していく反面、局所的にはエントロピーが減少している現象が起きている。
・生命はエントロピーが減少している現象だと言われている。(確かシュレディンガーが『生命とは何か』でそう言及したのですよね)
・宇宙が誕生してから、原子ができる→分子ができる→単細胞生物ができる→多細胞生物ができる→人間ができる というようにエントロピーは小さくなっていっている。
物質的なエントロピーの減少の現象はこのような感じです。それでは次に、情報的なエントロピーの減少について述べます。
クロード・シャノンの情報理論のエントロピーの説明とは違うことを述べるかもしれません。
・数学における数学理論、科学における科学理論は、発展するにつれ、情報的エントロピーが小さくなっていっている。
・数の概念は、自然数→有理数→実数→複素数 と発展するにつれエントロピーが小さくなります
・群論、集合論、圏論などそれ以前の数学を抽象化、上位互換(?)したりする理論は、過去の数学よりエントロピーが小さくなります。
・物理理論は ガリレオの提唱した物体の落下の法則の理論と、ケプラーの天体の公転の法則の理論よりこの二つを統一したニュートンの古典力学の方がエントロピーが小さい。
・さらにニュートンの力学とマクスウェルの電磁気学よりこの二つを統一したアインシュタインの相対性理論の方がエントロピーが小さい。
・現代の最新(?)の理論である超ひも理論はかなりエントロピーが小さいということです。
・サルの知能より人間の知能の方がエントロピーが小さい。
・CNN(畳み込みニューラルネットワーク)など画像認識能力の高いニューラルネットワークは、それより画像認識能力の低いニューラルネットワークよりエントロピーが小さい。
以上が列挙です。
このような感じで値が小さくなっていく理論モデルを構築したいというわけです。「このような順でエントロピーが小さくなっていく」と言いたいわけで、そのような理論モデルを構築したいわけです。
それでは以上列挙したことを統一的に説明するための理論の説明をしていきたいと思います
この理論の発想の種から順々に考えていきたいと思います。
まず先ほども述べましたようにエントロピーとは物事の乱雑さです。
エントロピーが高いとは乱雑さが高い。エントロピーが低いとは乱雑さが低い、つまり整頓されているということです。
モノクロ2値画像で考えてみましょう。
①(ランダムなパターンの画像、0と1の数が半々)
②(全てが1の画像、いくつかが1の画像)
③(全てが0の画像、いくつかが0の画像)
この中(①~③)でエントロピーが一番高いのは①です。どのマスが白で、どのマスが黒になるかが50%でランダムで作成された画像です。②と③は50%のランダムではありません。かなり確率が偏っています。これはエントロピーが小さいです。白、あるいは黒のパターンが整頓されている度合いが高いのです。
このような明らかにどちらかに偏っていることが分かる画像は全ての画像パターンの中で非常に少ないレアなケースです。
④(数直線の両端を示す画像)
エントロピーが高いという事とは、ミクロな内部状態が沢山あるという事と言われています。(※『情報と秩序』)
それではこういう画像パターンではどうでしょうか
⑤(幾何学模様画像)
⑥(文字画像)
白と黒、どちらかに明らかに偏っているというわけではありませんので、これまでの説明からするとエントロピーが高いという事になります。
しかし、こういう何らかの情報が読み取れる、情報が乗っているパターンはエントロピーが低い、レアな現象だと言いたいのです。そのようなことを定式化できる理論モデルを考えたいのです。
「情報」という概念はあいまいです。本当に理論化できるのでしょうか。クロードシャノンは情報理論にて情報を理論化しました。ジュリオトノーニ氏は統合情報理論を提唱しています。
私はこれら2つの情報の理論に影響を受けまして、新しい情報の理論を考案しました。
そしてこの理論が、知能やAIとどう関係するのかという事も後ほど説明します。
話を戻して説明を続けます。
エントロピーというのは系のパターンの巨視的な状態を述べるものです。
系のパターンを(今回で言えば画像パターンを)微視的に見ると、どのような画像パターンにもエントロピーに差異は存在しません。
今度は画像パターンの話ではなく、空間と運動する粒子の系で考えます。
(図)
エントロピー増大の法則とは、系のエントロピーはだんだんと増大していき、減少することはないという法則です。つまりこれは巨視的には時間の矢が存在するという事です。巨視的には系内の現象は過去から未来へ向かう場合に見られる現象しか起きなくて、時間を逆再生しているように見えるような現象は起きないということです。
しかしニュートン力学の物理法則に従う粒子の運動には時間反転対称性があります。時間が進もうが戻ろうが区別が付かないという事です。つまり微視的に見るとエントロピーなるものは存在しないのです。
ではなぜ巨視的にはエントロピーが存在するのかという話になってきます。
それはエントロピーの低い巨視的(マクロ)なパターンには微視的(ミクロ)な視点には無い「情報」が付加されているからです。
モナリザの絵はエントロピーが低いです、なぜならインクの粒子の配列パターンが宇宙内の他のどこを探しても(絶対とは言わないがほぼ)見当たらない、珍しいパターンだからです。
⑦(モナリザの画像)(ランダム画像)
しかしながら、ある物質のランダムな配列パターンも、宇宙内の他のどこを探しても絶対とは言わないがほぼ見当たらないモナリザの絵と同じく珍しいパターンのはずです。
ミクロで見ればどちらのパターンも同じ情報量を持っていますが、モナリザの方はマクロ視点で見るとさらに情報が付加されているのです。
宇宙に原子ができ、分子ができ、単細胞生物ができ、多細胞生物ができ、人間の脳ができました。
後に行くほど情報量が多くなっているのです。ミクロで言えばどれも単なる素粒子の配列ですが、マクロではどれも情報量が異なるのです。(ここで『情報と秩序』の情報が地球に集まっているという引用文)
(宇宙全体ではエントロピーが増大していますが、地球という局所ではエントロピーが減少しています。地球では情報がどんどん増えているという事です)
先ほど列挙した事実、仮説、は後に行くにつれ情報が多くなっています。
「物事を発展、進化させるには情報を増やせばいいのだ」という事になりますが、その「情報」の定義がまだあいまいでどのようにすれば情報が増えるのかまだ述べていません。
また定義をまだ述べていないため、情報量が多いとはどういう状態を言うのかがまだここまでの文章を読んでも分かりません。
この「情報量」の定式化をしたいのです。
私はそれを今まで考えてきて、情報量の定式化をしました。(×)
と言ってもまだきっちりと明瞭にできていないかもしれません。ただ世界のAIの熾烈な開発競争を鑑みて、まだ少しの曖昧性があろうとも早急にここで発表し、協力者を募り、私のアイデアの完成とそのAIの実装を早めるべきだと思ったのです。
情報量の定式化といえば、クロードシャノンの情報理論の「情報量」やジュリオトノーニ氏の「統合情報理論」の「統合情報量」が先に存在します。もちろんこの2つの情報量に大いに影響を受けて発想しました。統合情報理論の、情報の統合具合という考え方はほぼそのまま影響を受けています。
単なる原子の配列と、多細胞生物のほ乳類ではどのように後者の方が情報量が多いと言えるでしょうか。
後者には、体組織の幾何学的な法則性のある配列が見られたり、沢山の臓器の沢山の機能があります、機能とはFunctionであり関数と言えるでしょう。
このように単なる原子の配列としてでは記述できない、いろんな概念(ある幾何学パターンという概念やある関数という概念)が乗っていることが、情報量が多いという事です。
では大量のいろんな概念つまりは情報が乗っていれば良いと言いますが、どんな情報でも量があれば良いのでしょうか。そうではありません。
どんな情報でも良いのであれば
ランダムなパターンの上(つまりはモナリザではない、ただのノイズの上)にも、ありとあらゆる情報を上乗せすることが可能です。
どういうことかというと、きれいな法則性のある幾何学パターンでなくとも、ランダムなパターン上に見られる、任意のパターンを1つの概念として定義すれば、それがそのランダムなパターン上にその、ある任意の一つのパターンという概念が重なっていると見て取ることが可能です。ランダムなパターン上に見られる任意のパターンは大量に恣意的に定義することが可能であり、ランダムなパターン上に大量の情報が存在すると言えてしまいます。
だから、あるパターンの上にどんな情報でも定義して見て取れば良いというわけではありません。
ではどんな情報を定義すればよいでしょうか。
ここからが私のアイデアの新奇性のある所だと思います。それを説明していきます。
情報は他の情報と統合されていて、その統合の度合いが高い情報であることが重要である。
情報の統合度合い「統合情報量」という考え方はマルチェッロマッスィミーニ氏、ジュリオトノーニ氏著の『意識はいつ生まれるのか』で提唱されています。しかし、具体的な数式はこの本には書かれていなかったと思います。(他の文献には書かれているのかもしれませんが。)
また、統合情報量の考え方や定義も私の考え方や定義と異なるものと思われます。
ではどのような情報の状態が、統合情報量が高いと言えるのでしょうか。それを私は考案しました。ここからが私が一番伝えたいことです。
画像パターンを例にして説明します。
まずある画像パターンの情報量が多いか少ないかは何物かが画像パターンを観測し、判断しなければ測ることはできません。
何物からも判断されなくても、画像パターンそれ自身が持つ情報量は決まっていると思われるかもしれません。
しかしあらゆるランダムなノイズ画像の中から、モナリザの画像を特別に区別し、後者の画像を情報量が多いと決定するのは、それを観測し解釈した解釈システムです。解釈システムとは、具体例では、人間の脳や、AIの一種である畳み込みニューラルネットワーク(CNN)などです。(認知システムと言ってもいいかもしれません。)
モナリザの画像それ自身で特別な情報を持っているというわけではないのです。
目と脳を持つ原始的な生物、例えば昆虫は、ノイズ画像と、モナリザ画像を特別に区別していないと思われます。どちらも情報量は似たようなものだと認知していると思われます。
ここで直感的な仮説が思い浮かびます。
昆虫の脳と、人間の脳では、後者の方が情報量が多い(エントロピーが低い)と言え、何らかの画像(例えばモナリザの画像)を情報量多く認知できる脳自身の情報量は、そのように認知できない脳自身の情報量よりも多い。のではないかというものです。
人間の脳が画像パターンに情報を乗せて解釈する例(その画像も記載する)
・「モナリザの画像である」
・「人物の画像である」
・「目があり、口があり、鼻があり、つまり顔が映っている画像である」
・「丸い図形の画像である」
・「正方形の画像である」
・「四角形の画像である」
・「正方形を横に伸ばした画像である」
・「物体が1つ映っている画像である」
・「正方形の画像の右半分を黒くした画像である」
自然言語形式で画像を認識してもいるし、動物やCNN(畳み込みNN)などは自然言語形式ではなく、ドットの集合をフィルターの各抽象度の階層的に認識したりもしています。
人物画像であれば、線、目、口、鼻、顔、の各特徴を担うニューロンがその各特徴を認識したら、発火するというような感じです。
今回は画像の説明をするために便宜的に自然言語で説明しています。
脳やCNNは線、目、口、鼻、顔という概念や、先ほど述べた自然言語による概念を持って、観測した画像パターンを解釈、認知します。
物事を認知するのに、どんな情報、概念でもいいから見て取れればいいのではありません。
脳という解釈システムの中に入っている情報(概念)は各情報(概念)同士が互いに統合されてなければなりません。その統合の具合(統合情報量)が高いほど、知能が高い脳だと言いたのです。
各情報そのものに注目するというより、各情報同士の関係性の具合に注目するのです。
統合情報量を上げていき、人間の脳の統合情報量より高くなれば、その知能(AI)は人間の知能より高くなるでしょう。
では情報が統合されている、統合度合いが高いとは、どんな状態を言うのでしょうか。長々と語ってきましたが、ついに新奇アイデアの本質を述べます。
情報の統合度合いの高い低いの定義、つまり統合情報量の定義(モデル)を述べます。
これは、クロードシャノンが情報理論にて情報量を定義したことに相当するでしょう。
統合情報量とは、解釈システム上に存在する情報同士の関係ネットワークの密度である。
CNN(畳み込みNN)の方式で解釈する解釈システムで考えます。
線のある画像には、線という概念を持つ画像同士で関係づけられます。同じ線を持つ画像同士は線という概念から1の距離に置かれます。線という概念という点から1本のエッジで結合しているとも言えます。
線を持つ画像同士は、線という概念を中継して、距離が2離れていると言えます。もともと関係のなかった画像同士が2という近い距離で結ばれたという事です。
さらに、その画像には目が映っているかもしれません。この時、目を持つ画像同士が、目という概念の点に連結されるのです。
さらに、それらの中の画像には顔が映っているものもあるでしょう。顔のある画像同士は、顔という概念の点に連結されます。
このように、CNN方式の解釈システムでは、概念の抽象度の階層が高まることによって、どんどんと、画像同士が結合し、ネットワークの密度が高まったものなのです。だから、CNNは優れた認識能力を持つニューラルネットワーク(NN)なのです。(統合情報量が高い)
(図解)
エントロピーが低いこととは整頓されていることだとすれば、情報の集団が、概念という次元の軸上に整列するようなイメージでもあります。
1次元の軸上に情報が並んでいるのが2次元平面上に整列すれば、整頓レベルが上がったと言えるでしょう、それが3次元、4次元、どんどん高次元空間に情報が整列していくほど、整頓レベルが高くなっていくでしょう。
ではどちらのイメージが正しいのかと問われるとまだ突き詰めて考えられていません。
最近次のような論文が発表されました。
教師あり学習の精度を超えた!?相互情報量の最大化による教師なし学習手法IICの登場! | AI-SCHOLAR
これは私がこのブログ記事を執筆し公開しようと決心した原因となったものです。10年ほど温めていたアイデアが先を越されて発表されたのではないかと思ったからです。(よく読みこんではいないですが、少し私のアイデアと違うかなとも思いましたが。)
私のアイデアはまだまだ未熟であることは自分でも承知していますが、一人で完成させることを悠長に待っていては、私の10年の研究活動が無意味になってしまいそうです。
だから未完成の私のアイデアを公開し、この記事を読んでくださった方々の協力を得て一気に理論を完成させたいと思ったのです。
話がそれましたので話を戻します。
これは画像とその画像を関数で変換したものの互いの情報同士の相互情報量という尺度を最大化することで、優れた認識能力を持つニューラルネットワークを作ったというものです。(多分ですが。)
相互情報量というのは、2つの情報があったら、片方の情報を知ることでどれだけもう一方の情報を知ることが出来るかの度合いです。
これは、先ほどのCNN方式で説明した情報の統合の考え方ととても似たものであるといえます。
私の言い方で言うと、このニューラルネットワークは、統合情報量を高めたことによって、優れた認識能力を持ったという事です。
これを書いてて上記の記事を読んでいましたが、もしかしたら私の早とちりだったかもしれません。しかしここまで来たら止まることはしません。皆様と一緒に理論を完成させましょう!
私の考案した理論が高度な生命体や、高度な数学、物理理論が直感的に情報レベルが高いと感じられることを統一的に、定量的に説明できることを続いて説明していきます。
それでは、物理学理論が発展するにつれ、新しい方の物理学理論が、なぜ統合情報量が多いと言えるかを説明します。
ニュートン力学は、ガリレオの物体の落下運動の法則と、ケプラーの天体の公転運動の法則を統一的に説明できる理論です。ガリレオ、ケプラーの理論より、ニュートン力学の方が、統合情報量が多いという事を説明します。
ガリレオの落下運動の法則の理論が説明できるのは、物体の落下運動現象だけです。天体の公転運動などは説明できません。
これはこの宇宙の(地球上の)物体の落下運動現象の全てをこのガリレオの理論という情報で、密接に関係付けているのです。
ガリレオの理論を点に、多くの落下運動現象という情報が線で連結しているのです。今までは、互いに関連がなかった情報同士が関係を持ったという事です。情報同士の関係のネットワークが密になったという事です。
この理論がなかった頃のそれぞれの落下運動現象は、単なる現象でした。それがガリレオの理論の法則を持つという情報が新たに付加されました。
その新たな情報というのは何でもいいわけではなく、関係のネットワークの密度が多くなるような一般性の高い、抽象度の高い情報で結ばれる必要があります。
ニュートン力学という理論は、ガリレオの理論の他にケプラーの理論で説明できる現象も結び付けました。それだけではない多様な現象もニュートン力学という点は結び付けています。
一般性の高い、抽象度の高い理論は、多様な現象を互いに近く結びつけられるのです。情報のノード(点)同士をエッジ(線)で経由するときにステップ数が少なく到着できると言えます。
このグラフ(ネットワークの)密度の濃さのような値が、統合情報量と言えます。
数式で表すとするならどう表せばいいのでしょうか。
ジュリオトノーニ氏の統合情報理論を説明した本『意識はいつ生まれるのか』には統合情報量の具体的数式は書かれていなかったと思います。
Wikipediaの「意識の統合情報理論」の記事から飛べる理化学研究所が発表した統合情報量の数式があります。しかし数学が苦手な私にはよく理解できませんでした。
「情報のネットワークの密度」を表す具体的な数式は私はまだ考案できていません。
グラフ理論などにもしかしたらそういう数式があるかもしれません。
クロードシャノンの情報理論の「エントロピー」の数式も既に熱力学のエントロピーの数式としてあったという事もありますから。
各物理現象という情報は、物理学理論という情報から導出される。理論、数式の具体的バリエーションとして表現される。数式という情報に具体的値という情報を合成して変換ステップを踏んで各現象に到達するという感じです。
物理学理論のレベルが高いほど、いろんな現象が密接に関係づけられます。
先ほどの私が先を越されたかもしれないと言った論文の、画像とその画像を変換したもの同士の相互情報量を最大化する関係性を構築するということと、似ていると思います。
(2つの事の図解)
それでは次に、人間の脳はどのようにして、他の動物の脳よりも統合情報量を高く出来るのかを説明します。
人間の高度な思考力の源泉であり他の動物との違い、それは言語能力でしょう。
詳しくはこちらの記事をお読みください。
人類の文化的躍進のきっかけは、7万年前に起きた「脳の突然変異」だった:研究結果|WIRED.jp
自然言語文は自然言語文について言及できる。つまり自然言語には再帰性がある。つまり自然言語は高階関数として表せられます。
文は関数であり、さらにその関数(文)を引数にして文(関数)を作れる。
人間の脳は、シニフィエを高階関数という形式で捉えるという事をしています。
シニフィエのシニフィアン(記号)がシニフィエに成り得、さらにそのシニフィエに言及した文を作れるという何重ものネットワークが作れます。
CNN(畳み込みNN)による画像パターンの認識では、フィルターの抽象度の階層構造せいぜい4層から数百層であり、フィルターという記号という情報を抽象度が上のフィルターという情報で結び付けられるのはせいぜいその階層数程度という事になりますが、
情報を高階関数で捉えられると超莫大な階層数で(というより縦横無尽に)情報同士を結び付けられることになります。(人間の脳のそのネットワークのエッジの本数はどれくらいになるのでしょうか。100兆本くらいでしょうか(もっとも大事なのは、ネットワークの密度ですが))
つまり統合情報量が高いという事になります。
数学という学問は究極的には、外部世界の教師信号なしに人間の脳内だけで発達させていくことが出来るはずです。(「対称性」などを点に、情報を関係づける)
初めのブーストとしては、脳の外部世界、つまり物理宇宙を「教師信号」、強化学習で言えば「環境」として学習の参考にするのは良いと思います。
囲碁AIにおいては、AlphaGOは最初の頃のバージョンでは人間による棋譜を参考にしていたと思います、しかし、後継のAlphaZeroは人間の棋譜を参考にせず、全て自己内での試行で学習できます。
数学理論の発達とは数学理論の統合情報量の増加です。統合情報量が増えるように、論理的試行をして、数学理論は発達するのです。
人間の脳においては、論理の発見は脳外部の物理宇宙の挙動を参考にして発見したと思います。
そこからいろいろな数学的構造を構築していった。統合情報量を高めていったということでしょう。
AIが無から統合情報量を高めるように試行をして、高めていったら、人間の構築した数学、その他学問とは全く異なる学問を作り出すかもしれません。
統合情報量という値を上げることを目標とするAIは教師なし学習と言えます。
先ほど挙げた論文のAIも教師なし学習でしたね。
基本的に今までのAIというのは、人間が与えた目標に到達できるように学習します。
目標自体をAI自身が新たに作ったりはできません。
しかし人間はAIとは異なり、自身で新たに目標を作って、汎用なことが出来るようになります。
それができるのは、統合情報量を上げるという目標に沿っていろいろな試行をするからだと主張したいです。
脳の報酬系は食べ物を獲得するなどをしたらドーパミンを分泌します。
脳の統合情報量が上がっても報酬系はドーパミンを分泌するのだとおもいます。
情報同士が関係づけられるとドーパミンが出るのです。
原子→分子→単細胞→多細胞のように物質の構造の複雑性の発展、
原始的な生物の脳→人間の脳のように認知能力の発展、
学術理論の発展。
宇宙の地球という場所で、エントロピーが下がっていくという一貫した現象が統合情報量の増加で説明できます。
宇宙の発展の歴史は統合情報量の増加の歴史です。
宇宙は統合情報量を増加させることを一貫した目標として活動してきた。と言うと分かりやすいでしょうか。
人間の脳のような汎用的能力のある知能とは統合情報量を増加させようとする知能の事だと主張したいです。
従ってAIに統合情報量を上げるようにさせれば「強いAI」が作れるという事になります。
ここまで長々と書いてきました。
肝心のこのアイデアを使ったAIの実装については私はまだ手を付けることが出来ていません。
ある程度具体的な実装形はこの後述べたいと思います。
アイデアを発表するなら、プロトタイプ的な実装をして結果を出してからが筋だとは思います。
しかしながら、私個人で実装することは時間がどれだけかかるか分かりません。
国家間でAIの開発競争は熾烈なため、先に私のアイデアが発表されてしまうかもしれません。
同盟国ならば抜かされるのはまだ良いですが、そうでないならばと焦りの気持があります。
(一番大事なのは国家の勝利ではなくAIの恩恵を世界中の人に行き渡らせることだとは思いますが。)
また私個人的な事情として、十余年ほど社会から隔絶されて、アイデアを考えてきたため、孤独により精神的に限界になってきたという事もあります。またニート生活にもそろそろ経済的に限界が近づいてきているという事もあります。
個人の力で続けるのは限界なのでこのブログ記事を読んでくださった方に協力を仰ぎたいのです。
AIを実装するために何かしらご協力を頂きたいのです。
事情についてはここまでにして次に、ある程度具体的な実装形のアイデアを述べたいと思います。
と言っても先ほど、述べてしまったこととほぼ繰り返しになりますが。
認知システム(AI)が認知しうる情報パターン、例えば画像、音声、物理現象、数学的構造、人の行動、社会。を高階関数として取り扱います、引数の型は、オブジェクトだったり画像だったり関数だったりいろいろなものが有り得ます。
自然言語を高階関数で表すときは、主語が引数で述語が関数ですね。そして関数自体も引数になり得るというのが高階関数です。
物と事。
自然言語を関数として記述できる手法は、モンタギュー文法、HPSGなどがありますね。
高階関数と言えばリスプのs式 (* x y)、 ラムダ計算などの書き方がありますね。
別々の情報と変換
型に入れていくこと。集合に入れていくこと。
メンタル統合。
高階関数、メンタル統合はどのようにして可能になるのか。
記号化。
高階関数、メンタル統合、再帰言語は、この宇宙、脳内の情報をより精緻に表現できる→情報同士の関係性を精緻に関係づけられる。→統合情報量を高く出来る。
ある情報パターンに、何階層もの再帰的な情報の付加をして解釈できるシステムは、より統合情報量が高くなる。
再帰言語なら、群論のような物事の関係性という抽象的な概念も扱える。コトを概念にして情報同士を関係づける。
深層強化学習による試行、探索で似たものをアナロジー。アナロジーは情報同士の結び付けに他ならない。
ある概念の意味は、他の概念群の関係性できまる。Word2Vecのような感じ。
その概念群の概念の独創性。新しい観点からの接点。
概念は再帰言語で分解する、論理で分解する。概念の定義が精緻化する。新たな関係性が見いだされる。
具体的情報は、抽象的情報を複数合成して導出される。抽象的概念の合成として認知される。
具体的情報同士の変換は抽象的情報を中継して変換できる。そのステップ数の少なさ。情報ネットワークの密度。抽象度の高さは情報同士のより大きなハブとなる。合成のしやすさ。多くの情報との関係のしやすさ。包摂の広さ。
概念の点は自然言語。別の概念へのエッジは関数であり、自然言語で表される。
その関数も自然言語で言及できる。
ゲーデルの不完全性定理のような、自己言及。(自然数論を自然数で表す)
モノ、コトを扱える。 群論のようなコト、関係性を扱える。
無限の階層性のある構造により、情報ネットワークの密度は爆発的に高められる。
以上のような感じのAIを実装したいです。
この記事は未完成ですが、皆様のご意見、質問、感想を頂きながら完成させていきたいと思います。
ここまで読んで下さり、有り難うございました。
参考文献
『意識はいつ生まれるのか』マルチェッロ・マッスミーニ、ジュリオ・トノーニ著、花本知子訳
『ドクター苫米地の新・福音書』苫米地英人著 4章から最後まで
『情報理論』甘利俊一著
『情報と秩序』セザー・ヒダルゴ著、千葉敏生訳
『知るということ』渡辺慧著
『宇宙をプログラムする宇宙』セス・ロイド著、水谷淳訳
『熱とはなんだろう』竹内薫著