人工知能が人生に影響を及ぼすとき

2019年2月27日

人工知能(AI)に関する主な問題についてはこれまでも取り上げてきましたが、人々は相変わらず、非常に重要な問題をロボットのアシスタントに委ねています。自己学習システムはすでに裁判官の判決や医師の診断に一役買っており、まだ起きていない犯罪を予測することさえあります。その一方で、こうしたシステムを利用する側の多くは、AIがどのように結論を導き出しているのかを往々にして知りません。

 裁判官、警官、医師の仕事を助ける人工知能。その意思決定はどのように行われるのでしょうか?

全員起立!法廷を起動しています

米国の裁判所では、有罪か無罪か、執行猶予が付くのか、懲役は何年か、保釈はするかといった事項の決定にAIを使用しています(英語記事)。AIシステムは、被疑者に関連するデータを学習した後、常習的に犯罪を繰り返す傾向があるかどうかを検討し、執行猶予をくつがえして実刑判決にしたり、保釈請求を却下したりします。

たとえば、米国人のエリック・ルーミス(Eric Loomis)は、運転中に同乗者が建物に向かって発砲したことにより、懲役6年を言い渡されました(英語記事)。この判決の基となったのは、個人が社会に対してもたらす危険を評価するCOMPASアルゴリズムでした。被告人の経歴や法に関する記録をCOMPASに入力したところ、「地域社会にとって高いリスクとなる人物」と判断されたのです。被告側は、このアルゴリズムの仕組みが開示されていないため判決の公平性を評価するのは不可能であるという理由で異議を唱えましたが、法廷はこの主張を退けました。

何でも見通す電子の眼:AIによる犯罪予測

中国の一部地域ではさらに進んでいて、犯罪を起こす可能性のある人物の特定にAIを使用しています(英語記事)。顔認証カメラが一般人を監視し、不審なものが視界に入ると法執行機関に報告します。たとえば、肥料を大量に購入した人物はテロ攻撃の準備をしている疑いがある、というように。不審な行動をしたということで、誰でも逮捕または再教育施設への収容の可能性があります。

犯罪予測テクノロジーを開発しているのは、中国だけではありません。米国や英国の一部地域の警察では、テクノロジーを使って(英語記事)、次の事件はどこで起こりそうかを予測しています。その地域で過去に起こった犯罪、社会経済上の状態など、さまざまな要因が考慮されますが、天気予報も考慮する要因の1つです。目立つ例を挙げると、シカゴ地区でこのツールを使用したところ、銃犯罪の件数が約3分の1になりました(英語記事)。

担当医はコンピューター

新しいテクノロジーは、医療の分野でも広く使われています。AI医師は患者の話を聞き診断し、健康診断の結果を分析して、手術中は外科医の助手を務めます(リンク先はいずれも英語記事)。

医療分野で最も有名な自己学習システムは、IBM Watson Healthです。疾病の診断や治療方法の判断をできるように、医師がこのAIをトレーニングしています。Watson Healthには好意的な意見が多数寄せられており、たとえば2013年には、このスーパーコンピューターによる肺がん診断の確度(英語記事)は90%に達すると言われました。

しかし2018年夏、がん治療に関するこのシステムのアドバイスの中に安全性に欠けるものがある(英語記事)ことが明らかになりました。特に危ういケースでは、大量出血を起こしているがん患者に対し、さらに失血を招くリスクのある薬の投与を推奨しました。これが実際の症例ではなく架空のシナリオだったのは幸いでした。

確かに、人間の医師も誤りを犯します。しかし、そこにAIが絡んでくると、責任の境界線があいまいになります。生身の人間の医師は、膨大な量の科学論文、書籍、症例を開発者によって詰め込まれたデジタル医師と矛盾する診断を下すというリスクを冒すでしょうか?そうしなかった場合、この医師は何らかの負の影響を負うことになるのでしょうか?

AIは透明でなければならない

人間の運命を決定するにあたってAIを使用することには、問題がいくつかあります。主な問題の1つは、アルゴリズムが不透明であることが多く、エラーの再発を防ぐための原因究明が容易でないということです。自己学習システムの開発元の立場で考えると、無理もない話です。競合するかもしれない相手とノウハウを共有したいと思うでしょうか?しかし、人々の命がかかっているときに、企業秘密を優先すべきでしょうか?

世界中の政治家が、透明性のないAI(英語記事)の規制に取り組もうとしています。欧州連合では、「データ主体」は自分の利益に影響を与えるAIの判断が何に基づいて行われているのかを知る権利を持っています。 日本(英語記事)も同様の方向に進んでいますが、関連法はまだ制定されていません。

透明化を支持する開発元もありますが、少数派です。その1つ、テクノロジー企業であるCivicScapeは、2017年に予測型治安維持システムのソースコードを公開しました(英語記事)。しかし、これはあくまでも例外で、制度化されているわけではありません。

AIの精霊は瓶から解き放たれました。私たち人類がこの精霊を瓶に戻せる見込みは、ほとんどありません。つまり、AIに基づく意思決定が公正かつ的確であると証明されるまで、AIを使用するときには、十分に整備された法律と、自己学習システムの開発者と利用者双方の能力に頼らざるを得ないのです。