スカイプの共同創業者でディープマインドの初期投資家であるジャン・タリンは、人工知能の倫理問題に関する独立諮問委員会の設立にかかわった。「わたしがディープマインドを支援するのは、人工知能の研究者コミュニティーと安全性を検討するコミュニティーの間をつなぐのが、自分の役割だと思っているからです」とタリンは言う。
「グーグルとディープマインドは買収の要件として、倫理と安全についての委員会を設置することに合意しています。今年初めに開かれた委員会では、人工知能の長期的影響について大きな合意が得られました。それに基づいて、イーロン・マスクが1,000万ドルを寄付するフューチャー・オブ・ライフ・インスティテュートが、公開書簡に関連する研究プログラムをとりまとめました」。マスク、ホーキング、そしてディープマインドの創業者たちは、この公開書簡に署名をした。
スレイマンは、ディープマインドが用途の限定された「狭い」人工知能を設計している限り、「潜在的なリスク」という言葉にとらわれるのは杞憂にすぎないと語る。
「人工知能には、『役に立たない』というSF的なミームがあります。わたしたちがつくろうとしているのは人間と同等の人工知能などではなく、わたしたちが自然に話したり、グーグルで検索するのを助けてくれたりするようなものです。わたしたちは、そこら中を動き回って人を殺すような、いかなる種類の自律兵器の開発にも明確に反対しています。だからこそ、この対話を始めたのです。わたしたちの人工知能の能力に、どう制限を加えるかが重要なのです」
ハサビスは、もっとストレートに人工知能脅威論者を批判する。「それぞれの専門領域では優秀でも人工知能研究に携わったことのない多くの人が、イーロンのように根拠に乏しい主張をしています。でもぼくは、ヒステリックになることが健全な議論につながるとは思いません。それはただ、不必要な恐怖をあおるだけです」。ホーキングとウォズニアックについてはどう考えるのだろう。「彼らは実際に何かをつくっているわけではありません。つまり、人工知能の能力についてほとんど知識をもたずに、哲学的、あるいはSF的な懸念から語っているだけです」
しかし、人工知能が自律した道徳感情をもつことに、本当にリスクはないのだろうか? 「もちろん、人工知能が感情をもたないようにすることは可能です。実際、ぼくたちはそういう設計をしているところです」。そこでハサビスは、苛立ったようにため息をついた。
「ぼくたちは、人々が口にするような危険なものをまったく望んでいません。軍事や諜報活動を目的とするものに、この技術を使うことを禁止しているのです。研究開発を安全に進めるために、ほかにどんな方法があるというのですか? 危険だからといって、あらゆる人工知能の開発をやめてもいいんですか? とても健全な意思をもち、聡明で思慮深い人々が、社会の善のためにとてつもない力をもったものをつくりたいと思っている。ぼくが言えるのはそれだけです。でもたしかに、『人工知能には携わりたくない、理解できない』と言う人も数多くいます。同じようにぼくは宇宙について何ひとつ知りませんが、スティーヴン・ホーキングにブラック・ホールについて講義をしたりはしません。『インターステラー』は観ましたよ。だけどぼくには、黒体放射について専門家ぶってメディアに語るほどの知識はありません」
人工知能についての議論は誤解されている、と考える開発者はほかにもいる。グーグルのディープラーニング部門を創設し、現在はバイドゥの研究部門を率いるアンドリュー・ングは、人工的な「超知能」についての議論は混乱していると言う。「本当のリスクはテクノロジーによる失業の方ですよ。そして知性と感情には大きな隔たりがあります。われわれの人工知能はどんどん賢くなっていますが、それが感情的になるということはありません。人工知能研究者のほとんどは、近い将来、機械が感情をもつようなことはないと考えています」
知性の梯子