ぼくちんの極秘アイデア倉庫

ぼくちんの考えたアイデアなどを書きます

AI理論の提案 Ver.2020.03.14

強いAIを構築するうえで有効と思われる理論を考案したので説明していきたいと思います。

ただ、理論を完全に完成させたわけではありません。急いで発表する必要を感じたため、未完成ですが、発表させていただきたいです。完成するために、これを読んだ方の協力も頂ければと思います。

 

この記事には事実と仮説が混在しています。

 

理論の名前もまだ決まっていません。ジュリオトノーニ氏の統合情報理論に発想の影響を受けています。

エントロピーの減少という現象に着目した理論です。

苫米地英人氏の『苫米地英人、宇宙を語る』という本に書かれている、観測者の必要性、情報空間のエントロピーの減少、宇宙の抽象度の階層性、情報は関係性で成り立つ などの概念に大いに影響を受けました。

マクスウェルの悪魔、シラードのエンジンなど 熱力学のエントロピーが観測の概念、情報の概念と密接に関係があることに刺激を受けました。

 

AI理論アイデアの説明をしていきます。

 

簡単に言うと、宇宙の地球のある場所で一貫して起こっている、「エントロピーの減少」という現象に着目した理論です。

原子→分子→単細胞→多細胞生物→人間の脳と来て、さらに人間の脳内で発展する、数学理論、物理学理論などの情報の進化 を情報エントロピーの減少という一貫した観点で統一的に説明するものです。

情報エントロピーの減少は情報の統合であるとし、「統合情報量」の増加であると考えるものです。

 

 

詳しく説明していきます。

これから事実あるいは仮説、直感的想像を列挙します、そのあとで、それらを統一的に説明できるモデル(理論)を提唱したいと思います。またその理論が強いAIを作る上でどのように関係するのかも説明したいと思います。

 

・「エントロピー」とは物事の散らかり度合。エントロピーが小さいほど物事(物体や情報)がより整頓されているということ。

・宇宙ではエントロピーは増大していく反面、局所的にはエントロピーが減少している現象が起きている。

・生命はエントロピーが減少している現象だと言われている。(確かシュレディンガーが『生命とは何か』でそう言及したのですよね)

・宇宙が誕生してから、原子ができる→分子ができる→単細胞生物ができる→多細胞生物ができる→人間ができる というようにエントロピーは小さくなっていっている。

物質的なエントロピーの減少の現象はこのような感じです。それでは次に、情報的なエントロピーの減少について述べます。

クロード・シャノン情報理論エントロピーの説明とは違うことを述べるかもしれません。

・数学における数学理論、科学における科学理論は、発展するにつれ、情報的エントロピーが小さくなっていっている。

・数の概念は、自然数有理数→実数→複素数 と発展するにつれエントロピーが小さくなります

群論集合論圏論などそれ以前の数学を抽象化、上位互換(?)したりする理論は、過去の数学よりエントロピーが小さくなります。

・物理理論は ガリレオの提唱した物体の落下の法則の理論と、ケプラーの天体の公転の法則の理論よりこの二つを統一したニュートン古典力学の方がエントロピーが小さい。

・さらにニュートンの力学とマクスウェルの電磁気学よりこの二つを統一したアインシュタイン相対性理論の方がエントロピーが小さい。

・現代の最新(?)の理論である超ひも理論はかなりエントロピーが小さいということです。

・サルの知能より人間の知能の方がエントロピーが小さい。

CNN(畳み込みニューラルネットワーク)など画像認識能力の高いニューラルネットワークは、それより画像認識能力の低いニューラルネットワークよりエントロピーが小さい。

以上が列挙です。

 

このような感じで値が小さくなっていく理論モデルを構築したいというわけです。「このような順でエントロピーが小さくなっていく」と言いたいわけで、そのような理論モデルを構築したいわけです。

それでは以上列挙したことを統一的に説明するための理論の説明をしていきたいと思います

 

この理論の発想の種から順々に考えていきたいと思います。

 

まず先ほども述べましたようにエントロピーとは物事の乱雑さです。

エントロピーが高いとは乱雑さが高い。エントロピーが低いとは乱雑さが低い、つまり整頓されているということです。

モノクロ2値画像で考えてみましょう。

 

①(ランダムなパターンの画像、01の数が半々)

f:id:boku_chinn:20200313195930j:plain

②(全てが1の画像、いくつかが1の画像)

f:id:boku_chinn:20200313200028j:plain  f:id:boku_chinn:20200313200044j:plain

③(全てが0の画像、いくつかが0の画像)

f:id:boku_chinn:20200313200104j:plain  f:id:boku_chinn:20200313200117j:plain

この中(①~③)でエントロピーが一番高いのは①です。どのマスが白で、どのマスが黒になるかが50%でランダムで作成された画像です。②と③は50%のランダムではありません。かなり確率が偏っています。これはエントロピーが小さいです。白、あるいは黒のパターンが整頓されている度合いが高いのです。

このような明らかにどちらかに偏っていることが分かる画像は全ての画像パターンの中で非常に少ないレアなケースです。

 

④(数直線の両端を示す画像)

f:id:boku_chinn:20200313200258j:plain

 

エントロピーが高いという事とは、ミクロな内部状態が沢山あるという事と言われています。(※『情報と秩序』)

それではこういう画像パターンではどうでしょうか

 

⑤(幾何学模様画像)

f:id:boku_chinn:20200313200325j:plain f:id:boku_chinn:20200313200339j:plain f:id:boku_chinn:20200313200353j:plain

⑥(文字画像)

f:id:boku_chinn:20200313200406j:plain

 

白と黒、どちらかに明らかに偏っているというわけではありませんので、これまでの説明からするとエントロピーが高いという事になります。

しかし、こういう何らかの情報が読み取れる、情報が乗っているパターンはエントロピーが低い、レアな現象だと言いたいのです。そのようなことを定式化できる理論モデルを考えたいのです。

 

「情報」という概念はあいまいです。本当に理論化できるのでしょうか。クロードシャノンは情報理論にて情報を理論化しました。ジュリオトノーニ氏は統合情報理論を提唱しています。

私はこれら2つの情報の理論に影響を受けまして、新しい情報の理論を考案しました。

そしてこの理論が、知能やAIとどう関係するのかという事も後ほど説明します。

 

話を戻して説明を続けます。

 

エントロピーというのは系のパターンの巨視的な状態を述べるものです。

系のパターンを(今回で言えば画像パターンを)微視的に見ると、どのような画像パターンにもエントロピーに差異は存在しません。

今度は画像パターンの話ではなく、空間と運動する粒子の系で考えます。

(図)

f:id:boku_chinn:20200313200456j:plain

エントロピー増大の法則とは、系のエントロピーはだんだんと増大していき、減少することはないという法則です。つまりこれは巨視的には時間の矢が存在するという事です。巨視的には系内の現象は過去から未来へ向かう場合に見られる現象しか起きなくて、時間を逆再生しているように見えるような現象は起きないということです。

しかしニュートン力学の物理法則に従う粒子の運動には時間反転対称性があります。時間が進もうが戻ろうが区別が付かないという事です。つまり微視的に見るとエントロピーなるものは存在しないのです。

ではなぜ巨視的にはエントロピーが存在するのかという話になってきます。

それはエントロピーの低い巨視的(マクロ)なパターンには微視的(ミクロ)な視点には無い「情報」が付加されているからです。

モナリザの絵はエントロピーが低いです、なぜならインクの粒子の配列パターンが宇宙内の他のどこを探しても(絶対とは言わないがほぼ)見当たらない、珍しいパターンだからです。

 

⑦(モナリザの画像)(ランダム画像)

f:id:boku_chinn:20200313200516j:plain f:id:boku_chinn:20200313201823j:plain



しかしながら、ある物質のランダムな配列パターンも、宇宙内の他のどこを探しても絶対とは言わないがほぼ見当たらないモナリザの絵と同じく珍しいパターンのはずです。

ミクロで見ればどちらのパターンも同じ情報量を持っていますが、モナリザの方はマクロ視点で見るとさらに情報が付加されているのです。

宇宙に原子ができ、分子ができ、単細胞生物ができ、多細胞生物ができ、人間の脳ができました。

後に行くほど情報量が多くなっているのです。ミクロで言えばどれも単なる素粒子の配列ですが、マクロではどれも情報量が異なるのです。(ここで『情報と秩序』の情報が地球に集まっているという引用文)

(宇宙全体ではエントロピーが増大していますが、地球という局所ではエントロピーが減少しています。地球では情報がどんどん増えているという事です)

 

先ほど列挙した事実、仮説、は後に行くにつれ情報が多くなっています。

「物事を発展、進化させるには情報を増やせばいいのだ」という事になりますが、その「情報」の定義がまだあいまいでどのようにすれば情報が増えるのかまだ述べていません。

 

また定義をまだ述べていないため、情報量が多いとはどういう状態を言うのかがまだここまでの文章を読んでも分かりません。

この「情報量」の定式化をしたいのです。

私はそれを今まで考えてきて、情報量の定式化をしました。(×)

と言ってもまだきっちりと明瞭にできていないかもしれません。ただ世界のAIの熾烈な開発競争を鑑みて、まだ少しの曖昧性があろうとも早急にここで発表し、協力者を募り、私のアイデアの完成とそのAIの実装を早めるべきだと思ったのです。

情報量の定式化といえば、クロードシャノンの情報理論の「情報量」やジュリオトノーニ氏の「統合情報理論」の「統合情報量」が先に存在します。もちろんこの2つの情報量に大いに影響を受けて発想しました。統合情報理論の、情報の統合具合という考え方はほぼそのまま影響を受けています。

 

単なる原子の配列と、多細胞生物のほ乳類ではどのように後者の方が情報量が多いと言えるでしょうか。

後者には、体組織の幾何学的な法則性のある配列が見られたり、沢山の臓器の沢山の機能があります、機能とはFunctionであり関数と言えるでしょう。

このように単なる原子の配列としてでは記述できない、いろんな概念(ある幾何学パターンという概念やある関数という概念)が乗っていることが、情報量が多いという事です。

 

では大量のいろんな概念つまりは情報が乗っていれば良いと言いますが、どんな情報でも量があれば良いのでしょうか。そうではありません。

どんな情報でも良いのであれば

ランダムなパターンの上(つまりはモナリザではない、ただのノイズの上)にも、ありとあらゆる情報を上乗せすることが可能です。

どういうことかというと、きれいな法則性のある幾何学パターンでなくとも、ランダムなパターン上に見られる、任意のパターンを1つの概念として定義すれば、それがそのランダムなパターン上にその、ある任意の一つのパターンという概念が重なっていると見て取ることが可能です。ランダムなパターン上に見られる任意のパターンは大量に恣意的に定義することが可能であり、ランダムなパターン上に大量の情報が存在すると言えてしまいます。

だから、あるパターンの上にどんな情報でも定義して見て取れば良いというわけではありません。

ではどんな情報を定義すればよいでしょうか。

 

ここからが私のアイデアの新奇性のある所だと思います。それを説明していきます。

 

情報は他の情報と統合されていて、その統合の度合いが高い情報であることが重要である。

 

情報の統合度合い「統合情報量」という考え方はマルチェッロマッスィミーニ氏、ジュリオトノーニ氏著の『意識はいつ生まれるのか』で提唱されています。しかし、具体的な数式はこの本には書かれていなかったと思います。(他の文献には書かれているのかもしれませんが。)

また、統合情報量の考え方や定義も私の考え方や定義と異なるものと思われます。

 

ではどのような情報の状態が、統合情報量が高いと言えるのでしょうか。それを私は考案しました。ここからが私が一番伝えたいことです。

 

画像パターンを例にして説明します。

まずある画像パターンの情報量が多いか少ないかは何物かが画像パターンを観測し、判断しなければ測ることはできません。

何物からも判断されなくても、画像パターンそれ自身が持つ情報量は決まっていると思われるかもしれません。

しかしあらゆるランダムなノイズ画像の中から、モナリザの画像を特別に区別し、後者の画像を情報量が多いと決定するのは、それを観測し解釈した解釈システムです。解釈システムとは、具体例では、人間の脳や、AIの一種である畳み込みニューラルネットワークCNN)などです。(認知システムと言ってもいいかもしれません。)

モナリザの画像それ自身で特別な情報を持っているというわけではないのです。

目と脳を持つ原始的な生物、例えば昆虫は、ノイズ画像と、モナリザ画像を特別に区別していないと思われます。どちらも情報量は似たようなものだと認知していると思われます。

 

ここで直感的な仮説が思い浮かびます。

昆虫の脳と、人間の脳では、後者の方が情報量が多い(エントロピーが低い)と言え、何らかの画像(例えばモナリザの画像)を情報量多く認知できる脳自身の情報量は、そのように認知できない脳自身の情報量よりも多い。のではないかというものです。

 

人間の脳が画像パターンに情報を乗せて解釈する例(その画像も記載する)

・「モナリザの画像である」

f:id:boku_chinn:20200313200516j:plain

・「人物の画像である」

f:id:boku_chinn:20200313200516j:plain

・「目があり、口があり、鼻があり、つまり顔が映っている画像である」

f:id:boku_chinn:20200313200516j:plain

・「丸い図形の画像である」

f:id:boku_chinn:20200313200637j:plain

・「正方形の画像である」

f:id:boku_chinn:20200313200649j:plain

・「四角形の画像である」

f:id:boku_chinn:20200313200649j:plain

・「正方形を横に伸ばした画像である」

f:id:boku_chinn:20200313200718j:plain

・「物体が1つ映っている画像である」

f:id:boku_chinn:20200313200730j:plain

・「正方形の画像の右半分を黒くした画像である」

f:id:boku_chinn:20200313200745j:plain

 

自然言語形式で画像を認識してもいるし、動物やCNN(畳み込みNN)などは自然言語形式ではなく、ドットの集合をフィルターの各抽象度の階層的に認識したりもしています。

人物画像であれば、線、目、口、鼻、顔、の各特徴を担うニューロンがその各特徴を認識したら、発火するというような感じです。

今回は画像の説明をするために便宜的に自然言語で説明しています。

 

脳やCNNは線、目、口、鼻、顔という概念や、先ほど述べた自然言語による概念を持って、観測した画像パターンを解釈、認知します。

 

物事を認知するのに、どんな情報、概念でもいいから見て取れればいいのではありません。

脳という解釈システムの中に入っている情報(概念)は各情報(概念)同士が互いに統合されてなければなりません。その統合の具合(統合情報量)が高いほど、知能が高い脳だと言いたのです。

各情報そのものに注目するというより、各情報同士の関係性の具合に注目するのです。

統合情報量を上げていき、人間の脳の統合情報量より高くなれば、その知能(AI)は人間の知能より高くなるでしょう。

 

では情報が統合されている、統合度合いが高いとは、どんな状態を言うのでしょうか。長々と語ってきましたが、ついに新奇アイデアの本質を述べます。

情報の統合度合いの高い低いの定義、つまり統合情報量の定義(モデル)を述べます。

これは、クロードシャノンが情報理論にて情報量を定義したことに相当するでしょう。

 

統合情報量とは、解釈システム上に存在する情報同士の関係ネットワークの密度である。

 

CNN(畳み込みNN)の方式で解釈する解釈システムで考えます。

線のある画像には、線という概念を持つ画像同士で関係づけられます。同じ線を持つ画像同士は線という概念から1の距離に置かれます。線という概念という点から1本のエッジで結合しているとも言えます。

線を持つ画像同士は、線という概念を中継して、距離が2離れていると言えます。もともと関係のなかった画像同士が2という近い距離で結ばれたという事です。

さらに、その画像には目が映っているかもしれません。この時、目を持つ画像同士が、目という概念の点に連結されるのです。

さらに、それらの中の画像には顔が映っているものもあるでしょう。顔のある画像同士は、顔という概念の点に連結されます。

このように、CNN方式の解釈システムでは、概念の抽象度の階層が高まることによって、どんどんと、画像同士が結合し、ネットワークの密度が高まったものなのです。だから、CNNは優れた認識能力を持つニューラルネットワークNN)なのです。(統合情報量が高い)

 

(図解)

f:id:boku_chinn:20200313200822j:plain

 

エントロピーが低いこととは整頓されていることだとすれば、情報の集団が、概念という次元の軸上に整列するようなイメージでもあります。

1次元の軸上に情報が並んでいるのが2次元平面上に整列すれば、整頓レベルが上がったと言えるでしょう、それが3次元、4次元、どんどん高次元空間に情報が整列していくほど、整頓レベルが高くなっていくでしょう。

ではどちらのイメージが正しいのかと問われるとまだ突き詰めて考えられていません。

 

最近次のような論文が発表されました。

教師あり学習の精度を超えた!?相互情報量の最大化による教師なし学習手法IICの登場! | AI-SCHOLAR

これは私がこのブログ記事を執筆し公開しようと決心した原因となったものです。10年ほど温めていたアイデアが先を越されて発表されたのではないかと思ったからです。(よく読みこんではいないですが、少し私のアイデアと違うかなとも思いましたが。)

私のアイデアはまだまだ未熟であることは自分でも承知していますが、一人で完成させることを悠長に待っていては、私の10年の研究活動が無意味になってしまいそうです。

だから未完成の私のアイデアを公開し、この記事を読んでくださった方々の協力を得て一気に理論を完成させたいと思ったのです。

話がそれましたので話を戻します。

 

これは画像とその画像を関数で変換したものの互いの情報同士の相互情報量という尺度を最大化することで、優れた認識能力を持つニューラルネットワークを作ったというものです。(多分ですが。)

相互情報量というのは、2つの情報があったら、片方の情報を知ることでどれだけもう一方の情報を知ることが出来るかの度合いです。

これは、先ほどのCNN方式で説明した情報の統合の考え方ととても似たものであるといえます。

私の言い方で言うと、このニューラルネットワークは、統合情報量を高めたことによって、優れた認識能力を持ったという事です。

これを書いてて上記の記事を読んでいましたが、もしかしたら私の早とちりだったかもしれません。しかしここまで来たら止まることはしません。皆様と一緒に理論を完成させましょう!

 

私の考案した理論が高度な生命体や、高度な数学、物理理論が直感的に情報レベルが高いと感じられることを統一的に、定量的に説明できることを続いて説明していきます。

 

それでは、物理学理論が発展するにつれ、新しい方の物理学理論が、なぜ統合情報量が多いと言えるかを説明します。

 

ニュートン力学は、ガリレオの物体の落下運動の法則と、ケプラーの天体の公転運動の法則を統一的に説明できる理論です。ガリレオケプラーの理論より、ニュートン力学の方が、統合情報量が多いという事を説明します。

 

ガリレオの落下運動の法則の理論が説明できるのは、物体の落下運動現象だけです。天体の公転運動などは説明できません。

これはこの宇宙の(地球上の)物体の落下運動現象の全てをこのガリレオの理論という情報で、密接に関係付けているのです。

ガリレオの理論を点に、多くの落下運動現象という情報が線で連結しているのです。今までは、互いに関連がなかった情報同士が関係を持ったという事です。情報同士の関係のネットワークが密になったという事です。

この理論がなかった頃のそれぞれの落下運動現象は、単なる現象でした。それがガリレオの理論の法則を持つという情報が新たに付加されました。

その新たな情報というのは何でもいいわけではなく、関係のネットワークの密度が多くなるような一般性の高い、抽象度の高い情報で結ばれる必要があります。

ニュートン力学という理論は、ガリレオの理論の他にケプラーの理論で説明できる現象も結び付けました。それだけではない多様な現象もニュートン力学という点は結び付けています。

一般性の高い、抽象度の高い理論は、多様な現象を互いに近く結びつけられるのです。情報のノード(点)同士をエッジ(線)で経由するときにステップ数が少なく到着できると言えます。

このグラフ(ネットワークの)密度の濃さのような値が、統合情報量と言えます。

数式で表すとするならどう表せばいいのでしょうか。

ジュリオトノーニ氏の統合情報理論を説明した本『意識はいつ生まれるのか』には統合情報量の具体的数式は書かれていなかったと思います。

Wikipediaの「意識の統合情報理論」の記事から飛べる理化学研究所が発表した統合情報量の数式があります。しかし数学が苦手な私にはよく理解できませんでした。

「情報のネットワークの密度」を表す具体的な数式は私はまだ考案できていません。

グラフ理論などにもしかしたらそういう数式があるかもしれません。

クロードシャノンの情報理論の「エントロピー」の数式も既に熱力学のエントロピーの数式としてあったという事もありますから。

各物理現象という情報は、物理学理論という情報から導出される。理論、数式の具体的バリエーションとして表現される。数式という情報に具体的値という情報を合成して変換ステップを踏んで各現象に到達するという感じです。

物理学理論のレベルが高いほど、いろんな現象が密接に関係づけられます。

先ほどの私が先を越されたかもしれないと言った論文の、画像とその画像を変換したもの同士の相互情報量を最大化する関係性を構築するということと、似ていると思います。

 

2つの事の図解)

f:id:boku_chinn:20200312211418j:plain

 

それでは次に、人間の脳はどのようにして、他の動物の脳よりも統合情報量を高く出来るのかを説明します。

人間の高度な思考力の源泉であり他の動物との違い、それは言語能力でしょう。

人間の使う自然言語再帰性があり再帰言語と呼ばれています。

詳しくはこちらの記事をお読みください。

人類の文化的躍進のきっかけは、7万年前に起きた「脳の突然変異」だった:研究結果|WIRED.jp

自然言語文は自然言語文について言及できる。つまり自然言語には再帰性がある。つまり自然言語高階関数として表せられます。

文は関数であり、さらにその関数(文)を引数にして文(関数)を作れる。

人間の脳は、シニフィエ高階関数という形式で捉えるという事をしています。

シニフィエシニフィアン(記号)がシニフィエに成り得、さらにそのシニフィエに言及した文を作れるという何重ものネットワークが作れます。

CNN(畳み込みNN)による画像パターンの認識では、フィルターの抽象度の階層構造せいぜい4層から数百層であり、フィルターという記号という情報を抽象度が上のフィルターという情報で結び付けられるのはせいぜいその階層数程度という事になりますが、

情報を高階関数で捉えられると超莫大な階層数で(というより縦横無尽に)情報同士を結び付けられることになります。(人間の脳のそのネットワークのエッジの本数はどれくらいになるのでしょうか。100兆本くらいでしょうか(もっとも大事なのは、ネットワークの密度ですが))

つまり統合情報量が高いという事になります。

 

数学という学問は究極的には、外部世界の教師信号なしに人間の脳内だけで発達させていくことが出来るはずです。(「対称性」などを点に、情報を関係づける)

初めのブーストとしては、脳の外部世界、つまり物理宇宙を「教師信号」、強化学習で言えば「環境」として学習の参考にするのは良いと思います。

囲碁AIにおいては、AlphaGOは最初の頃のバージョンでは人間による棋譜を参考にしていたと思います、しかし、後継のAlphaZeroは人間の棋譜を参考にせず、全て自己内での試行で学習できます。

数学理論の発達とは数学理論の統合情報量の増加です。統合情報量が増えるように、論理的試行をして、数学理論は発達するのです。

人間の脳においては、論理の発見は脳外部の物理宇宙の挙動を参考にして発見したと思います。

そこからいろいろな数学的構造を構築していった。統合情報量を高めていったということでしょう。

 

AIが無から統合情報量を高めるように試行をして、高めていったら、人間の構築した数学、その他学問とは全く異なる学問を作り出すかもしれません。

 

統合情報量という値を上げることを目標とするAI教師なし学習と言えます。

先ほど挙げた論文のAI教師なし学習でしたね。

基本的に今までのAIというのは、人間が与えた目標に到達できるように学習します。

目標自体をAI自身が新たに作ったりはできません。

しかし人間はAIとは異なり、自身で新たに目標を作って、汎用なことが出来るようになります。

それができるのは、統合情報量を上げるという目標に沿っていろいろな試行をするからだと主張したいです。

脳の報酬系は食べ物を獲得するなどをしたらドーパミンを分泌します。

脳の統合情報量が上がっても報酬系ドーパミンを分泌するのだとおもいます。

情報同士が関係づけられるとドーパミンが出るのです。

原子→分子→単細胞→多細胞のように物質の構造の複雑性の発展、

原始的な生物の脳→人間の脳のように認知能力の発展、

学術理論の発展。

宇宙の地球という場所で、エントロピーが下がっていくという一貫した現象が統合情報量の増加で説明できます。

宇宙の発展の歴史は統合情報量の増加の歴史です。

宇宙は統合情報量を増加させることを一貫した目標として活動してきた。と言うと分かりやすいでしょうか。

 

人間の脳のような汎用的能力のある知能とは統合情報量を増加させようとする知能の事だと主張したいです。

 

従ってAIに統合情報量を上げるようにさせれば「強いAI」が作れるという事になります。

 

ここまで長々と書いてきました。

肝心のこのアイデアを使ったAIの実装については私はまだ手を付けることが出来ていません。

ある程度具体的な実装形はこの後述べたいと思います。

イデアを発表するなら、プロトタイプ的な実装をして結果を出してからが筋だとは思います。

しかしながら、私個人で実装することは時間がどれだけかかるか分かりません。

国家間でAIの開発競争は熾烈なため、先に私のアイデアが発表されてしまうかもしれません。

同盟国ならば抜かされるのはまだ良いですが、そうでないならばと焦りの気持があります。

(一番大事なのは国家の勝利ではなくAIの恩恵を世界中の人に行き渡らせることだとは思いますが。)

また私個人的な事情として、十余年ほど社会から隔絶されて、アイデアを考えてきたため、孤独により精神的に限界になってきたという事もあります。またニート生活にもそろそろ経済的に限界が近づいてきているという事もあります。

個人の力で続けるのは限界なのでこのブログ記事を読んでくださった方に協力を仰ぎたいのです。

AIを実装するために何かしらご協力を頂きたいのです。

 

事情についてはここまでにして次に、ある程度具体的な実装形のアイデアを述べたいと思います。

と言っても先ほど、述べてしまったこととほぼ繰り返しになりますが。

 

認知システム(AI)が認知しうる情報パターン、例えば画像、音声、物理現象、数学的構造、人の行動、社会。を高階関数として取り扱います、引数の型は、オブジェクトだったり画像だったり関数だったりいろいろなものが有り得ます。

自然言語高階関数で表すときは、主語が引数で述語が関数ですね。そして関数自体も引数になり得るというのが高階関数です。

物と事。

自然言語を関数として記述できる手法は、モンタギュー文法、HPSGなどがありますね。

高階関数と言えばリスプのs (* x y)、 ラムダ計算などの書き方がありますね。

別々の情報と変換

型に入れていくこと。集合に入れていくこと。

メンタル統合。

高階関数、メンタル統合はどのようにして可能になるのか。

記号化。

高階関数、メンタル統合、再帰言語は、この宇宙、脳内の情報をより精緻に表現できる→情報同士の関係性を精緻に関係づけられる。→統合情報量を高く出来る。

ある情報パターンに、何階層もの再帰的な情報の付加をして解釈できるシステムは、より統合情報量が高くなる。

再帰言語なら、群論のような物事の関係性という抽象的な概念も扱える。コトを概念にして情報同士を関係づける。

深層強化学習による試行、探索で似たものをアナロジー。アナロジーは情報同士の結び付けに他ならない。

ある概念の意味は、他の概念群の関係性できまる。Word2Vecのような感じ。

 その概念群の概念の独創性。新しい観点からの接点。

 概念は再帰言語で分解する、論理で分解する。概念の定義が精緻化する。新たな関係性が見いだされる。

具体的情報は、抽象的情報を複数合成して導出される。抽象的概念の合成として認知される。

具体的情報同士の変換は抽象的情報を中継して変換できる。そのステップ数の少なさ。情報ネットワークの密度。抽象度の高さは情報同士のより大きなハブとなる。合成のしやすさ。多くの情報との関係のしやすさ。包摂の広さ。

概念の点は自然言語。別の概念へのエッジは関数であり、自然言語で表される。

その関数も自然言語で言及できる。

ゲーデル不完全性定理のような、自己言及。(自然数論を自然数で表す)

モノ、コトを扱える。 群論のようなコト、関係性を扱える。

無限の階層性のある構造により、情報ネットワークの密度は爆発的に高められる。

 

以上のような感じのAIを実装したいです。

 

この記事は未完成ですが、皆様のご意見、質問、感想を頂きながら完成させていきたいと思います。

 

ここまで読んで下さり、有り難うございました。

 

 

 

参考文献

苫米地英人、宇宙を語る』苫米地英人

『意識はいつ生まれるのか』マルチェッロ・マッスミーニ、ジュリオ・トノーニ著、花本知子訳

『ドクター苫米地の新・福音書苫米地英人著 4章から最後まで

認知科学への招待』苫米地英人

情報理論』甘利俊一著

『情報と秩序』セザー・ヒダルゴ著、千葉敏生訳

『知るということ』渡辺慧

『宇宙をプログラムする宇宙』セス・ロイド著、水谷淳訳

『熱とはなんだろう』竹内薫