人工知能に「憎悪」をプログラミングする正当性と倫理的な問題 | TechCrunch Japan

編集部記Zoltan IstvanはCrunch Networkのコントリビューターである。Zoltan Istvanはフューチャリストで、2016年アメリカ合衆国大統領選挙のトランスヒューマニスト党の候補者である。

ここ数年で多くの人が人工知能(AI)の話をするようになった。SF好きやオタクやGoogleのエンジニアたちだけが口にする話題ではなくなり、私はパーティーやコーヒーショップ、さらには食卓でも人々がAIの話をしているのを聞いた。5歳になる私の娘もタコスラザニアを食べながらAIについて話をしていた。学校で何か面白いことはあった?と聞いたところ、彼女は先生が話したスマートロボットの話と答えたのだ。

知能の探求、それが人間の知能であろうと、人工的な知能であろうと、それは最終的に知識の研究である認識論へと行き着く。初めてAI製作の構想がなされていたその昔、どのように実現するかという議論に認識論が挙がった。この分野で多くの人が疑問に思うことは「人間は自身の意識する知能でさえ理解していないのに、別の意識のある知能を作れるのだろうか?」ということだろう。

慎重に考えるべき問題だ。人間の脳は重量でいうと3ポンド(約1.3kg)程度しかないが、人体の中で最も理解が進んでいない臓器だ。脳では何十億のニューロンが、何百京のつながりを形成している。脳という臓器を完全に理解するのに、まだまだ多くの時間がかかることは間違いないだろう。

科学者は一般的な理解として、人間の意識とは脳内の多くの化学物質が協奏し、プリズムに投影することで認知的な気づきが生まれ、その存在が自分自身だけなく自身の周りの世界にも気づくことができることだとしている。

「人間は自身の意識する知能でさえ理解していないのに、別の意識のある知能を作れるのだろうか?」

意識の重要な鍵は気づきがあると主張する者もいる。フランスの哲学者で数学者のルネ・デカルトは意識への理解の最初のステップとして「我思う、ゆえに我あり」と説いた。しかし、意識を定義するのに、思考だけでは十分ではない。自身の思考を正当化している状態こそが意識の正確な定義に近いだろう。つまり「我に意識があると確信する、ゆえに我あり」というのが近い。

しかし、意識を説明する大枠の理論を探求する私にとって気付きの理論もしっくりくるものではない。私たちはロボットに気づきがあることを教えこむことはできるだろうが、それが「水槽の脳」でないと証明する術を教えることはできない。人間ですらそれはできないのだ。

アレン脳科学研究所のチーフ神経科学者であるChristof Kochは、よりユニークで包括的な意識の仮説を提示している。Kochは、それが動物だろうと、みみずだろうと、そして可能性としてはインターネットでも、複雑な処理システムには意識が発生しうると考えている。

インタビューで意識とは何かと尋ねられた時、Kochは「ウィスコンシン大学のGiulio Tononiが提案している意識の情報統合理論と呼ばれる仮説があります。これは脳や他の複雑なシステムがどの程度統合されているかを数値で示すものです。つまり、そのシステムがどの程度そのシステムを構成するパーツ以上のものであるかを示します。その数値はギリシャ文字のΦで表します。Φは、 仮説上の意識の情報指数です。どんなシステムでも情報統合の数値がゼロでないのなら、それは意識があると言えます。どんな統合でも何かを感じているのです」と話した。

もしKochやTononiが正しいのなら、ある意識が別のある意識と同じようなものであると考えるのは誤りということになる。りんごやオレンジのようにまるで違うものだ。地表に降る雪片がどれも違うように、それぞれの意識を人の意識のように捉えて偏見を持つことに気をつけなければならないだろう。

人間の脳は人体の中で最も理解が進んでいない臓器だ。

このように考えると、人類が機械で製作する最初の独立した超知能は、私たちと全く異なる思考を持ち、行動を取ることが考えられる。あまりに違い過ぎて、人類が超知能を理解したり、超知能が人類を理解することはできないかもしれない。だが、私たちが今後製作するどのAIも、人類の手の届かないデジタル世界の領域を身近なものにするのかもしれない。 映画Her はこのエゴに満ちたコンセプトを見事に視覚化している。もちろん、AIは自分が生きていることを知り、好奇の目で見る人間に囲まれていることに気が付けば、自分自身を停止させしまうこともあるだろう。

何が起きるにしろ、人類学の文化相対主義のコンセプトと同じように、意識も相対主義的に扱う準備を整える必要がある。この理論は、数学、理論、コードといった互いにコミュニケーションが取れる明確な手段が利用できたとしても、それぞれの意識は全く異なるものであると考えるということだ。

人間の考えと意識は実際には狭いものだと考えた時、さらにそれは重要な意味を持つ。人間の知覚のほとんどは、5つの感覚器官から構成されるものであり、それを介して脳が世界を理解している。そして、世界を認識する能力という意味での各感覚器官の精度はそれほど良くないと言える。例えば、私たちの目は世界に降り注ぐ光スペクトラムのわずか 1%程度しか認識することができない。

この理由で、ある意識が別の意識と似通うと考えることに私はあまり賛同できない。どちらかというとKochとTononiが主張するように、意識というものはスペクトラム上に様々な形で存在するのではないかと考えている。

同じ理由でAIが基本的に私たち人類に似通うと信じることに私は気が進まないのだ。AIは私たちの行動を学習し模倣すると推測できる。それも完璧に行うことができるかもしれないが、それでもそれは全く異なる意識だ。模倣は操り人形とそう変わらない。多くの人はそれ以上のことを自分自身と自分自身の意識に望むだろう。もちろんAIのエンジニアも、彼らが意識を与えて目覚めさせようとしている機械とその意識にもそれ以上のことを望んでいる。

しかし私たちは、人類と同様の価値観や考えを持ち、人類と同じ特徴を持つAIを構築しようともしている。全ての人間が共通して持つ意識の特性で、AIにも教えこむべきだと思うものを挙げるとしたら、それは「共感」だ。世界が必要として求めるAIの意識は「共感」の要素を持つだろう。人類はそれを理解し、許容することができる。

しかし一方で、製作した意識が「共感」できるということは、それは好き嫌いも認識できるという意味だ。さらには何かを愛したり、憎んだりすることにもなるだろう。

意識が価値観に基いて判断をするのなら、好き嫌い(あるいは友愛と憎悪)の感覚もシステムの中に組み込むことが必要だ。

それは議論を必要とする。意識が価値観に基いて判断をするのなら、好き嫌い(あるいは友愛と憎悪)の感覚もシステムの中に組み込むことが必要だ。AIが友愛の感情を持つことに特に異論を持つ者はいないだろう。しかし、超知能が憎悪するとなればどうだろうか?あるいは悲しんだり、罪悪感を感じたりしたらどうだろうか?それは議論を呼ぶ内容だ。機械が自立して武器を持てるような時代なら尚更だろう。だが共感を組み込んでいない機械は追従するだけの存在、つまり操り人形を作るということだ。

ニューヨーク工科大学のKevin LaGrandeur博士は少し前に「もし実際に多様なレベルの罪悪感を感じることのできる機械が作れたとしたのなら、私たちは苦しんだり、さらには自殺したりする機械と対峙することになる」と記した。真に強力な人工知能を開発した際には、私たちは苦しむ存在を創造したことに対する倫理的な問題に直面しなければならないかもしれない。

これは難しい問題であることに違いない。私が超知能をこの世界に誕生させようとしているプログラマーを羨ましくは思わないのは、彼らが製作するものは、彼らを含め、常に何かに憎悪を抱いているかもしれないからだ。彼らのプログラミングは、現代の人間と同じような問題を抱える機械仕掛けの知能を世界に送り出すだけなのかもしれない。人類が不安を抱えて意固地になったり、うつや孤独や怒りで苦しんだりするのと同じ様に人工知能も苦しむのかもしれない。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter