サイバーセキュリティにおけるAIの倫理的な使用に関する原則―当社の提案

当社は、サイバーセキュリティ業界におけるAIの倫理的使用に関する6つの原則を提案します。これは、京都で開かれた国連主催のインターネット・ガバナンス・フォーラム(IGF)2023で発表されました。

人工知能(AI)が急速に発展し、世界に数多くのメリットをもたらしていますが、AI の使用にはリスクも伴います。AIは、さまざまな分野で私たちをサポートしてくれますが、その恩恵を最も受けている業界の一つはサイバーセキュリティ業界です。当社では、約20年ほど機械学習(ML)を使用しており、AIの力なしで世の中の膨大な数のサイバー脅威に対抗することは単純に不可能であると考えています。近年、不適切なデータを故意に利用してAIをトレーニングするといった悪意のある攻撃やAIの非倫理的な使用に至るまで、AIに関わる様々な問題も発生しています。

国際的な議論の場や組織では、すでにAIに関する基本的な倫理的原則が策定されています(例:UNESCOの勧告)。しかし、サイバーセキュリティ業界に対する具体的なガイドラインとして、広く受け入れられているものはまだありません。

当社は、サイバーセキュリティでAIを利用し、悪影響を及ぼさないために、AIの倫理的原則を採用することを提案します。これは、先の国連主催のインターネット・ガバナンス・フォーラム(Internet Governance Forum:IGF)で開かれた当社のワークショップで発表されました。この原則は、サイバーセキュリティコミュニティ全体でさらに議論し、精査する必要がありますが、当社では現在これを採用し、遵守しています。AIに関する倫理的原則とはどのようなものか、ブログでご説明しましょう。

透明性

企業がAIテクノロジーを使用しているか否か、またこれらのシステムがどのような意思決定を行い、どのような目的で使用しているのか、ユーザーは知る権利があります。そのため、当社は、これらのシステムが有効な結果を生み出すことを保証するために必要な保護対策を講じて、最大限まで解釈可能なAIシステムの開発に取り組んでいます。当社が世界各国に解説したトランスペアレンシーセンターでは、お客様やその他のステークホルダーが、ソースコードやワークフローなどを確認していただけます。

安全性

AIシステムが直面する脅威の中には、不適切な決断を導き出すために入力データセットを意図的に操作することがあります。そのため、当社では、AI開発者がレジリエンスとセキュリティを優先する必要があると考えています。

当社では、高品質なAIシステムを提供するためのさまざまな実践的手段を採用しています。例えば、AI固有のセキュリティ監査や「レッドチーム化」を実施したり、トレーニングプロセスにおけるサードパーティのデータセットへの依存の最小化、さらには多層型保護のため複数のテクノロジーを実装しています。また、可能であれば、クライアントのマシンにインストールされたモデルではなく、必要な安全対策を備えたクラウドベースのAIを採用します。

人間による制御

当社のMLシステムは、自律的なモードで動作するように設計されていますが、その動作は、当社の専門家が継続的に監視しています。自動システムによる判断は、新たに出現するサイバー脅威や非常に高度な脅威に対抗するために、システム自体が専門家によって修正されます。当社では、MLアルゴリズムと人間が持つ専門知識を組み合わせています。今後も当社のシステムでは人間が制御を維持することをお約束します。

プライバシー

AIのトレーニングにビッグデータは欠かせませんが、その一部は個人情報として認識される場合があります。このため、このようなデータ使用の際の倫理的なアプローチでは、個人のプライバシーを尊重する必要があります。情報セキュリティの観点、処理するデータの種類と量の制限、仮名化と匿名化、データ構成の削減、データ整合性の維持、技術的および組織的なデータ保護対策の適用など幅広く取り組んでいます。

サイバーセキュリティのための開発

AIシステムは、サイバーセキュリティにおいて、防御目的にのみ使用されなければなりません。これは、テクノロジーがより安全な世界を築くという、当社のミッションの不可欠な部分です。

開かれた対話

当社は、セキュリティに関連するAIの導入や使用に関わる障害は、全てのステークホルダー間での協力を通じて乗り越えることができると考えています。この理由から、AIの倫理的使用におけるベストプラクティスを共有するために、すべてのステークホルダーとの対話を推進することに尽力しています。

サイバーセキュリティにおけるAIの倫理的使用に関するカスペルスキーの原則についてはこちらでご覧いただけます。

ヒント