Kaspersky NEXTで学んだ5つのこと

2019年11月7日

ジャーナリストとエキスパートが一堂に会し、サイバーセキュリティやテクノロジーについて議論するイベント「Kaspersky NEXT」。10月14日にポルトガルのリスボンで開催された今回のKaspersky NEXTでは、サイバーセキュリティや人工知能の分野における欧州の著名なエキスパートを招き、研究発表やディスカッションを行いました。機械学習、AI、そしてIoTのセキュリティ…この記事では、今年のKaspersky NEXTから学んだ5つのことを取り上げます。

AIを活用して、より公平な世界に

機械が今日、どのくらいの判断を下したか考えたことはありますか?そのうち、ジェンダー、人種、またはその人のや素性を基準に下された判断はいくつあるのでしょうか?人間ではなく人工知能によってなされた判断がどれほどあるか、皆さんは気付いてもいないのではないでしょうか。AI for Goodの創設者であるクリティ・シャルマ(Kriti Sharma)氏は、私たちが何者であるか、そして何を欲するのかについての判断を下すにあたっては、いつでもアルゴリズムが使われているのだと説明しました。

シャルマ氏はまた、人工知能の改良に本当に求められるのは、あらゆる種類の経歴、ジェンダー、民族性を持つ人々の参画であるとの見解を示しました。人間の偏見が機械の判断に影響を与える理由を説明したシャルマ氏のTED Talkはこちらでご覧になれます(動画は英語です)。

AIにジェンダーを割り当てることの影響

音声アシスタントのAlexa、Siri、Cortanaについて考えてみましょう。共通点は何でしょうか?どれも女性の声が使われており、従順な召使いとして作られています。なぜでしょう?テクノロジーはステレオタイプを助長しているのでしょうか?ジェンダーとAIに関する2つのパネルディスカッションで、こうした疑問について掘り下げられました。音声アシスタントは女性の声で設定されている、なぜなら、さまざまな研究で結論付けられているように、人は女性の声の方に安心感を覚えるから。これもまた、社会の反映ではないでしょうか?

では、AIにおけるジェンダー不平等に対抗するために、どんなことができるでしょうか?ジェンダー的に中立な声を使うことかもしれませんし、ロボットやAI用のジェンダーを作ることかもしれません。この(および前述の)問題に対処することだけでなく、AIを利用する人々の多様性を反映する、より多様性を持った開発チームにAIの開発を任せることも重要です。

https://twitter.com/kaspersky/status/1183739717965230087

人間は、人間よりもロボットの方を信頼している

ソーシャルロボットは、人間やほかのロボットと対話する人工知能システムで、SiriやCortanaとは違って物理的に存在します。ゲント大学のロボット工学教授であるトニー・ベルパエム(Tony Balpaeme)氏の講演では、ロボットが普及するにつれ、ロボットと人間の対話を取り巻く問題がどう浮上してくるのかが提示されました。

ベルパエム教授は、教授と研究チームが実施した科学的な実験をいくつか紹介しました。たとえば、パスワードのリセットに使われる可能性のある個人情報(生年月日、子どもの頃に住んでいた家の住所や地名、好きな色など)を聞きだす能力を、人間とロボットの両方でテストする実験。面白いことに、人々は人間よりもロボットの方を信用するようで、ロボットには個人情報を教えてしまう傾向が見られました。

物理的な侵入についての実験では、ある建物または場所を警備する任務を帯びた人たちが、かわいらしいロボットの立ち入りを簡単に許す様子が見られました。このロボットが安全であると考える理由はないのに、人はロボットを無害だと見なす。大いに悪用可能な傾向です。ソーシャルロボット工学および関連の実験については、Securelistの記事(英語サイト)にて詳しく取り上げています。

https://twitter.com/kaspersky/status/1183683889514078209

AIが創り出す真に迫ったディープフェイク

Kasperskyのグローバル調査研究チーム(GReAT)の一員であるデイビッド・ヤコビー(David Jacoby)は、チャットボット、AI、自動化された脅威など、ソーシャルエンジニアリングについて講演を行いました。今後、顔や音声を認識するアプリが、ソーシャルエンジニアリングや昔ながらの犯罪手口で悪用される可能性がある、という内容です。

ヤコビーの話は、検知がかなり難しくなりつつあるディープフェイクにも及びました。ディープフェイクが将来の選挙や報道にどのように影響するかは、大きな懸念事項です。

しかし、一番の懸念は、信頼の問題です。ディープフェイクのテクノロジーが完成されたなら、誰を信用できるでしょうか?これを解決するのはより良き認識、具体的には、偽物の動画を見破るのに役立つ教育と新しいテクノロジーであるとヤコビーは指摘しています。

ロボット工学におけるセキュリティの現状

同じくKasperskyのGReATの一員であるディミトリ・ガロフ(Dmitry Galov)は、ROS(Robot Operating System)について講演しました。ROSは、ロボット用ソフトウェアを記述するための柔軟なフレームワークです。その他多くのシステム同様、ROSもセキュリティを念頭に置いて開発されていないため、必然的に重大なセキュリティの問題をいくつも抱えています。ソーシャルロボットや自動運転車のようなROSをベースにした製品が消費者の元へ飛び込む前に、開発側はこういった問題に対処しなければなりません。実際に、新バージョンの ROSはまだまだ開発途上です。詳細は、ガロフによるレポート(英語記事)をご覧ください。

おまけのヒント:USBコンドームを使おう

Kaspersky GReATのマルコ・プロイス(Marco Preuss)とダン・デメター(Dan Demeter)は、出張中にハッキングから身を守る方法について話しました。宿泊したホテルの部屋に、隠しカメラや盗聴器やマジックミラー(英語記事)が仕込まれている可能性について考えてみたことはありますか?

多少心配症な方々に向けて、過去の記事ではプロイスらが旅行中のセキュリティについてアドバイスしています。このほか講演では、USBコンドームの重要性(あなたが本物の心配症ならばきっと重要性を感じるでしょう)についても触れていました。そう、「USBコンドーム」というものが実際にあるのです。普通のコンドームと原理は同じです。正体のよく分からないUSBポートを使ってスマートフォンを充電する場合には、データ伝送を防止するこのガジェットを使ってデバイスを保護すると良いでしょう。ありがたいことに、こちらのコンドームは普通のコンドームとは違って再利用できます。

このイベントの詳細については、公式ページまたはKasperskyの公式Twitter(英語)をご覧ください。