AIとの付き合い方

AIに規制が必要であることは明らかですが、どのように規制すべきでしょうか。ユージン・カスペルスキーの見解をお伝えします。

AI(人工知能)に関する議論やニュースがしばらく続いていますが、少なくともあと1、2年はこの話題が続くと想像できます。それでAIの進化が止まるわけではありませんが、その頃になると、ジャーナリストやブロガー、Twitterの言論人、その他のコメンテーターなどもこの話に飽きてくるでしょう。とは言え、現時点では大手IT企業のみならず、政府内でも話題が尽きず、白熱した議論が続いています。英国はAI規制に関して既存当局に権限を割り振る方針を発表し、中国はAI規制の草案を公開して広く意見を求めています。米国では「アルゴリズムの説明責任」が求められ、一方EUでは、AIに関する議論が続いていながらまだ法案は可決されていないなど、話題に事欠きません。将来的にはさまざまな計画がありますが、現時点では、AIシステムの構築と使用に関して制限は設けられていません。ただし、近い将来、変化がありそうです。

ここで当然議論になるのは、そもそもAIに関して政府による規制は必要なのかということです。必要だとすれば、どのような理由で、どのような規制をすべきでしょうか。

規制の対象

そもそも人工知能とは何でしょうか。マーケティングの取り組みが功を奏したと言うべきかどうかはわかりませんが、人工知能(AI)という言葉はあちこちで使われています。最先端の生成モデルであるGPT-4も、数十年前からあるような、単純な機械学習システムも人工知能と呼ばれています。物理ボタン式の携帯電話「Т9」を覚えているでしょうか。スパムや悪意のあるファイルの自動分類について耳にしたことはあるでしょうか。Netflixのおすすめの映画をチェックしたことはありますか。皆さんもよくご存知のこうしたテクノロジーはすべて、機械学習(ML)アルゴリズム、つまり「AI」を活用したものです。

カスペルスキーでも20年近くにわたってこのようなテクノロジー製品を活用していますが、常に「機械学習」という名前で呼んできました。「人工知能」というと、宇宙船に搭載された喋るスーパーコンピューターなど、SFに出てくるようなものが思い浮かびそうだからです。しかし、このような話したり考えたりするコンピューター、アンドロイドは、人間と同じように考える能力を持ち、汎用人工知能(AGI)や超知能(ASI)を意のままに操るものです。AGIもASIも現時点では発明されておらず、近い将来に実現されることはほぼないでしょう。

いずれにしても、あらゆる種類のAIがすべて同じ基準で評価されるようになり、規制が徹底されれば、IT業界をはじめとする関連業界は万事うまくいかなくなるでしょう。たとえば、もし私たち(カスペルスキー)がトレーニングセットの「著者」全員の同意を得ることを求められたら、情報セキュリティ企業としては壁にぶつかってしまいます。私たちはマルウェアやスパムから情報を得て、そこから得られた知識を機械学習に活かしますが、その著者は自分たちの連絡先は公表したくないと思う場合が多いのです(意外にも)。しかも、20年近くもデータが収集され、アルゴリズムのトレーニングが行われていることを考えれば、ずいぶんと過去にさかのぼることが求められるでしょう。

そこで国会議員には、マーケティング関係者ではなく、機械学習やAI業界の専門家に話を聞いたうえで、規制について具体的かつ的を絞った議論をしていただく必要があります。たとえば、大量のオープンデータでトレーニングした多機能システムや、責任やリスクレベルの高い意思決定システムの使用などについて議論する必要があるでしょう。

また、AIに新たな用途が出てくれば、それに応じて頻繁に規制の改訂が必要になるでしょう。

規制する理由

正直なところ、今後100年のうちに超知能による審判の日がやってくるとは私には思えません。しかし、このコンピューターのブラックボックスを考えなしに使っていれば、さまざまな問題が生じてくると考えられます。

機械学習の光と影について説明した記事をまだお読みでない方のためにまとめておくと、AIについては主に3つの課題があります。

  • AIのトレーニングに使用されるデータの質が不明であること。
  • 蓄積されたデータからAIが何を理解したのか、どのようにその判断に至ったのかが不明であること。
  • そして最も重要なのは、開発者やユーザーがアルゴリズムを正しく使うとは限らないこと。

このような課題があるため、AIが悪用されたり、AIの判断に盲目的に従う人が出てきたりなど、さまざまなことが起きる可能性があります。ここでわかりやすい実例を紹介しますと、致命的な自動運転による障害や、今ではミームやニュースでも一般的になったディープフェイク(123)、学校教員の契約で起きた間違い、万引き犯の誤認逮捕女性差別をするAI採用ツールなどがありました。それだけでなく、敵対的なデータサンプルを独自に作成することで、AIが攻撃を受けることも可能です。自動車はステッカーでだまされ、GPT-3から個人情報を抽出することができ、アンチウイルスやEDRを欺くことも可能です。そして、SFに出てくる戦闘用ドローンのAIに対する攻撃も、もはやあり得ないことではなくなりつつあります。

言ってしまえば、AIの使用は、まだ本当に大きな問題を引き起こしてはいませんが、大きな問題に繋がる可能性は明らかに存在しています。そこで、規制で優先すべきことははっきりしています。

  1. 工場、船舶、送電線、電子力発電所など、重要インフラの事故を防止すること。
  2. 身体的な脅威を最小限に抑制すること(例:自動運転車、病気の誤診)。
  3. 個人への損害やビジネス上のリスクを最小限に抑えること(例:頭蓋骨の測定結果を証拠に逮捕や採用決定をすること、需要や調達の計算ミスなど)。

規制の目的は、このような事故が発生するリスクを下げる行動をユーザーやAIベンダーに促すことです。リスクが深刻であるほど、強い強制力を持たせる必要があります。

また、AIに関するその他の懸念事項は、道徳や倫理規範を遵守することの必要性であり、いわば心理的な側面への配慮です。これについては、警告が表示され、人々は自分たちが見ているのが実在しない(AIによって描かれた)ものであることや、話している相手が人間ではなくロボットであることがわかるようになっており、AIのトレーニングでは著作権が尊重されたことを示す通知なども表示されます。これは、何のためでしょうか。議員やAIベンダーに群衆の怒りの矛先が向かないようにするためです。世界の地域によっては、これが現実的に非常に大きな問題となります(反Uberの抗議活動が行われたことを思い出してみましょう)。

規制の仕方

AIを規制するもっとも単純な方法は、すべてを禁止することでしょう。しかし、そのような方法は現時点では議論に上っていないようです。いずれにしても、AIを禁止するというのは、コンピューターを禁止するくらい難しいことでしょう。そこで、合理的に規制しようとするなら、リスクの大きさに従って要件を厳しくするという原則に従うことになります。

小売業の消費者向けのおすすめ情報のようにちょっとしたことに使用される機械学習モデルは規制なしで構わないでしょうが、もっと高度なモデルや慎重さが求められる適用分野では、システムベンダーやユーザーに対して思い切った要件が課せられる可能性があります。いくつか例を挙げましょう。

  • モデルのコードやトレーニングデータセットを規制当局や専門家に提出して検査を受ける。
  • 偏見や著作権などの観点から、トレーニングデータセットの健全性を証明する。
  • AIの「出力」の合理性を証明する。ハルシネーション(事実とは異なる架空の内容)がないなど。
  • AIの処理および結果にラベル付けを行う。
  • モデルおよびトレーニングデータセットをアップデートする。ソースデータから特定の肌の色の人物を除外する、モデルの出力に爆発物の化学式が含まれないようにするなど。
  • 「敵対的データ」によるAIのテストと、必要に応じた動作のアップデートを行う。
  • 特定のAIの使用者および使用理由を管理する。特定の種類の用途を拒否する。
  • 規制当局の許可を得た場合のみ、大規模なAIまたは特定分野に適用されるAIのトレーニングを行う。
  • 特定の問題の解決にAIを使用しても安全であることを証明する。このようなアプローチはIT業界にはなじみが薄いものですが、製薬会社や航空機メーカーなど、安全性が最優先されるさまざまな業界では一般的です。まず、5年かけて徹底的に試験を行い、そのうえで規制当局の許可が下ります。この許可を得て初めて、一般用途で製品を発売することが可能になります。

最後の方法は厳しすぎると思われるかもしれません。しかし、急性喘息および肺炎の患者の治療の優先順位をAIが間違え、集中治療室へ送るべきところを自宅へ帰そうとした過去の例を聞くと考えも変わるでしょう。

強制措置としては、AI関連規則の違反に対する罰金から(GDPR違反に対するヨーロッパの罰金など)、AI関連の活動に関する認可や、(中国で提案されているような)法律違反に対する刑事制裁まで、さまざまなものが考えられます。

何が正しいのか

ここからは私見になりますが、これは、サイバーセキュリティ業界で機械学習から「セキュア・バイ・デザイン」のシステムまで、高度なテクノロジーの発展を積極的に追求してきた30年に渡る経験に基づくものです。

まず第一に、規制は必要です。規制がなければ、AIは交通規則のない高速道路のようになってしまうでしょう。あるいは、もっと近い例で言えば、2000年代後半のオンラインでの個人データの収集と似た状況となるでしょう。当時は、だれもが手に入る限りの情報を収集していました。何よりも、規制があることで、市場参加者の自制が促されます。

第二に、AIの規制においては、モバイル通信やインターネットなどの技術標準と同じように、国境を越えた連携が必要です。現在の地政学的な状況を考えれば、ただの理想のように聞こえるかもしれませんが、だからと言ってこれが望ましいことに変わりはありません。

第三に、規制は厳しすぎる必要はありません。このように変化の激しいまだ若い業界を過度の規制で抑圧するのは、短絡的でしょう。つまり、必要なのは、テクノロジーや市場の進歩に対応し続けられるよう、ルールを頻繁に更新できる仕組みです。

第四に、規則、リスクレベル、保護対策のレベルは、関連分野の経験豊富な多数の専門家と協議のうえで定義する必要があります。

第五に、10年など、長い時間をかける必要はありません。私は10年以上にわたって、モノのインターネット(IoT)に内在する深刻なリスクや、産業機器の脆弱性について語り続けてきましたが、欧州サイバーレジリエンス法案のような文書が初めて登場したのは去年のことです(しかもまだ草案です)。

ともかく、今回はここまでとしましょう。こうして最後までお読みくださった読者の方に感謝いたします。AIを活かして、面白く、安全な未来があらんことを願います。

ヒント

Windows Downdate攻撃から身を守る方法

Windows Downdateは、最新バージョンのOSを古いバージョンにロールバックさせ、脆弱性が残る状態を復活させ、攻撃者がシステムを容易に侵害できるような状態にする攻撃です。この攻撃のリスクを低減するにはどうしたらよいでしょうか?