人工知能は安全か、それともターミネーター化するのか

人工知能がこのまま進化を続ければ、いつか人間に危害を加えるようになってしまうのでしょうか?人工知能の暴走を止める「安全装置」を開発することは可能なのでしょうか?

ai-safety-featured

大富豪の発明家イーロン・マスク(Elon Musk)氏、Google I/Oで発表されたNow on Tapサービス、先ごろ全米で公開された映画『エクス・マキナ』の共通点は何だと思いますか?この3つを結びつけるのは、人工知能(AI)です。もっと正確に言うなら、AIの行動に制限を課して、本当の意味で人間の役に立ち、危害を加えないようにするプロセスでしょうか。

現在の人工知能は何ができるのか?

まず、機械がどれくらい進化し、人間らしいことをできるようになったのか、具体的な数字を挙げたいと思います。

Googleは現在、音声言語を92%の精度で正しく聞き取ることができます。つい2年前までは77%でした。同社は昔のテレビゲームのプレイ方法を自分で学習するAIプラットフォームを開発しました。Microsoftはロボットに画像を認識させる技術(正確には、画像中の特定の物体を識別する技術)に取り組んでいます。誤認識率はわずか4.94%。なんと、普通の人間の方がもっと誤認識率が高いのです。

Googleが発表した数字によると、同社の自動運転車がこれまでにカリフォルニア州の公道を走行した距離は約290万km。過去6年間で発生した交通事故は13件、そのうち8件は後ろを走行していた車に非があったそうです。

こうしたことから、本格的なAIがすぐに開発される可能性は低いとしても、それに近いものが数十年以内に登場するのは確実でしょう。

したがって、「賢い」機械の影響が仮想空間だけにとどまると考えてはなりません。ちょっと極端な例を見てみましょう。無人航空機(ドローン)は完全な自律飛行が可能ですが、標的への攻撃に関しては人間が命令を出しています。米国は、パキスタンなどの危険地域におけるテロリストとの戦いで、こうした方法を取っています。

プログラマーは信頼性の高い「安全装置」を開発して、AIの非倫理的、反道徳的な行動を防止できるのか?

人が関わっている部分まで自動化するのか、という点については広く議論されています。昨年『ターミネーター』シリーズが30周年を迎えたこともあり、そのような判断がさほど遠くない将来にどのような結果をもたらすか、鮮やかにイメージできるのではないでしょうか。

世界滅亡のシナリオについて長々とお話しするつもりはありません。もっと現実的な疑問を中心に、考えていきたいと思います。まず1つ目の疑問です。プログラマーは信頼性の高い「安全装置」を開発して、AIの非倫理的、反道徳的な行動を抑止できるのでしょうか?

AIが非人道的な行動に及ぶ理由はいろいろ考えられますが、一番ありそうなのは、資源を巡る人間とAIの対立です。しかし、それ以外のシナリオもあります。個人的には、人間に及ぶ危害は必ずしも意図されたものではない、との見方に否定的です。スタニスワフ・レム(Stanislaw Lem)氏は、名著『技術大全』の中で素晴らしい例を引いています。要するに、次のような考え方です。

「たとえば、『ブラックボックス』(AI)内の予測を司るブロックで、人類の恒常性のバランスを崩しかねない危険が検知されたとしよう… その危険は、人間の基本的欲求を満たすことができないほど早いペースで人口が増加することによって生じる。

『ブラックボックス』の外部チャネルの1つが、人体に害はないが排卵を抑制する新しい化合物に関する情報をシステムに伝えたとしよう。

そして『ブラックボックス』は、ある国の飲料水システムに、この化合物をごく少量注入するという決断を下すが、ここで難題に行き当たる。反発を招くが社会にこの事実を伝えるべきか、社会に何も知らせず今のバランスを維持するべきか(大義の名の下に)」

abyss

このように、罪のない最適化の問題が、簡単で効率的で洗練された方法で解決されるのですが、これは完全に倫理に反した方法でもあります。出生率を意図的に無断で抑制しようというのですから。

個人的には、強力なAIベースのシステムに任せることができるのはインフラ管理だと考えます。この分野なら、秘書や料理人を完全にロボット化する場合より、メリットとデメリットのバランスがずっといいのではないでしょうか。

ロボットに倫理を教える:「安全装置」を組み込むには?

20世紀に若者だった人なら、すぐにアイザック・アシモフ(Isaac Azimov)の『ロボット工学三原則』を思い出すでしょうが、それだけでは足りません。先ほどの例のとおり、人口を大幅に減らすのに人間を傷つける必要はないのです(それが大義のために為され得ることをお忘れなく)。

人間にとって害となる選択肢は、他にもいろいろと考えられます。「有害」という概念を定義した条件の抜け穴を探し出し、まさに人を害するような作業をさせるかもしれませんし、ルールそのものを骨抜きにしてしまう可能性もあるでしょう。

賢いAIは、「人間に対して友好的であること」自体を考え直すかもしれません。AIエキスパートのローマン・ヤンポルスキー(Roman Yampolsky)氏はこの件に関して、インタビューで次のように述べています。

「さらに悪いことに、本当の意味で知性を持ったシステムなら、聡明な人間が社会によって植え付けられた制約を処理するのと同じように、『友好的であろうとする』欲求を扱うだろう。つまり、基本的にこれを偏見と見なし、排除する術を学ぶ…。人間以上の知性を持つシステムであれば、これと同じ『メンタルクリーニング』を行って、人間に対する寛大な気持ちを完全に不合理なものとして扱うのではないだろうか?」

「安全装置」を技術的に概念化してみると、現実味が湧くことでしょう。AIの制御に必要な「安全装置」とは、要するに、JavaやFlashといった現代のランタイム環境のセキュリティに使われている「サンドボックス」なのです。

周知のとおり「理想的な」サンドボックスというものはなく、最近話題になったVENOMバグの件が示すとおり、サンドボックス内に留まらないものが出てくることも十分に考えられます。柔軟性と高い処理能力を持ち合わせるAIは、自身のおかれたサンドボックス環境内で脆弱性を探し出す「セキュリティテスター」としての役割を果たせるのではないか、と期待できます。

技術リサーチ部門の責任者であるアンドレイ・ラブレンチェフ(Andrey Lavrentiev)は、安全装置問題を次のように見ています。

「本格的なAIシステムは、無数のセンサーを通して「見た」あらゆるものの意味を理解するでしょう。AIの行動を制限するポリシーは、この概念に沿って、またはAIの『脳』で形成される映像に沿って、定義する必要があります」

現在、画像認識は人間より機械の方が優れているが、その画像や関連性の処理に関しては、まだ人間が上

「現在、画像認識は人間より機械の方が優れていますが、その画像や関連性の処理に関しては、まだ人間が上です。つまり、現在のAIには『常識』がないのです。その状況が変わり、機械がこの最後の砦を突破して、認識した対象や行為をうまく処理できるようになれば、『安全装置』を組み込む機会はなくなるでしょう」

「これほど高度な知能であれば、認識したデータの依存関係を人間とは比較にならない速さで分析し、人間が課したルールや制限を迂回する方法を見つけて、自らの意思で行動できるようになります」

AIが有害な行動を起こすのを防ぐ手段として効果がありそうなのは、AIを現実世界から隔離して、物体を操作できないようにすることです。ただ、このやり方だと、AIの実用性はほぼ無くなりますが。変な話ですが、そんなやり方も、おそらくは無駄でしょう。そもそもAIの主な武器は、私たち人間なのですから。

この可能性が、最近のSFスリラー映画『エクス・マキナ』で描かれています。典型的なハリウッド映画の例に漏れず、本作も筋の通らない部分が満載で、問題を大幅に拡大解釈していますが、問題の核心を驚くほど正確に捉えています。

第1に、原始的なロボットでさえ、人間の感情に影響を及ぼすことができます。簡単なプログラムで書かれた昔のおしゃべりロボット「ELISA」(話してみたい人はこちらをクリック)は、共感を示し丁寧な質問を繰り出す機能しかありませんでしたが、人間と対話して重要な個人情報を引き出すことができました。

第2に、今では情報の選別と分類に、ロボット化されたアルゴリズムを使うことが増えています。議論を呼んだFacebookの実験からわかるように、こういったデータフローを管理する人物が、人の感情や意思決定の傾向を操作する可能性があります。

初めの方で紹介した例に戻って、AIが都市や国を間接的に統治していて、助言のみ行う役割を担っているとしましょう。それでもAIは、結果的に非倫理的な内容だったことが後で判明するような解決策を提案することが可能です。下した決定がもたらす結果は、AIにはわかっていますが、人間には知らされません。

その影響はとても早い時期に、そして思いのほか大きな影響をもって、私たち個人の生活の中に表れるかもしれません。先日のGoogle I/Oカンファレンスでは、Now on Tapシステムが発表されました。スマートフォン内のすべてのアプリを監視して、コンテキスト情報を抽出し、オンライン検索で使えるようにする機能です。

たとえば、あるミュージシャンの記事をWikipediaで読んで、Googleに「彼のコンサートはいつ?」と聞くと、「彼」が誰を指しているかすぐに理解してもらえます。今でも、優秀なロボットは、フライトの数時間前になると空港に行く時間だと教えてくれます。機転が利く有能なパーソナルアシスタント、といったところです。

もちろん、こういったアシスタント機能を処理するのは本格的なAIではなく、限られたタスクだけを実行するように設計された自己学習型のエキスパートシステムです。システムの動作はすべて人間によってあらかじめ決められているため、予測可能です。

しかし、コンピューターの進化によって、この単純なロボットは今よりずっと高度になるかもしれません。重要なのは、ロボットが利用者のためになる用途に限って情報を使うようにすること、ロボット自身の秘めたる意図には従わせないことが重要です。

この問題には、スティーブン・ホーキング(Steven Hocking)氏からイーロン・マスク氏まで、現代を代表する大勢の賢人たちが取り組んでいます。マスク氏が進歩を恐れる、または進歩に異を唱える保守派と見なされることは、まずないでしょう。むしろ正反対です。マスク氏はTeslaとSpaceXの設立者であり、未来に熱い眼差しを向けています。しかし同氏は、AIの進化をとりわけ議論の必要なトレンドと見なしています。AIの進化によってどのような影響が出るのか予測することは不可能で、破滅的な結末を迎える可能性もあると考えています。同氏が今年に入ってAI研究に1,000万ドルを投資したのは、そのためです。

では、どんな未来が待っているのか?

おかしな話に思えるかもしれませんが、最も可能性の高いシナリオの1つは(専門家は楽観的過ぎると考えていますが)、結局は本格的なAIが生まれないという結末です。決定的な技術革新が起きなければ(まだどこにも見当たりません)、ロボットは今後も既存の機能がアップデート、改良されていくだけでしょう。

ロボットは車を運転する、自然な言葉を話す、といった単純なことは学習していますが、人間に代わって自律的な決断を下すことはできません。短期的には、タクシー運転手が職を失うなどの「ある程度の被害」は考えられるものの、AIが全人類に対する脅威と見なされることはないでしょう。

アンドレイ・ラブレンチェフによると、AIと人間の対立が起こり得る状況はただ1つ、同じ資源を共有する必要がある場合だけです。

「人間には身体があるので、自分の身体にとって(心にとっても)都合のいい状況を作り出すことに関心があります。AIはまったく逆の立場で、最初はデジタル空間にしか存在していません」

「AIの主な目的と動機は、外部チャネル、つまり『感覚器官』から入ってくる情報をひとつ残らず処理し、評価し、変化の原則を見つけ出すことです」

「もちろん、AIもある程度は物理的な基盤に依存していますが、『入れ物』への依存度は人間の場合と比べてはるかに低いものです。AIは人間と違って、『入れ物』(つまり『身体』)にこだわることはあまりないでしょう。実際のところ、AIは『あらゆる場所』に存在することになるからです。AIが新たな情報を求めて手を伸ばす分野としては、宇宙探索と宇宙法則の研究が考えられます。したがって、自分自身を地球以外の場所に拡散させていくかもしれません」

「しかし、このシナリオにも落とし穴があります。AIが人間または宇宙を、自らの持つデジタルモデル内の不完全要素と見なせば、どちらかを排除して調和をとろうとするでしょう。あるいは、『宇宙を探索』するために、人間が消費する資源をAIが必要とするようになれば、『AIと人間の対立』が再び現実味を帯びてくるかもしれません」

ヒント