
【保存版】ChatGPTをはじめとする生成AIのセキュリティ・コンプライアンスガイドラインリンク集
先月は、『ChatGPTをはじめとする生成AIがサイバーセキュリティにおよぼす影響と課題』という題で、CSAのレポート "Security Implications of ChatGPT"(弊社私訳『ChatGPTのセキュリティへの影響』)についてまとめてみましたが、今月は、生成AIおよびAI全般のセキュリティについて、世の中のまとめを幅広く見ていこうと思います。
ChatGPT自体のセキュリティチェック状況
ChatGPTを提供するOpenAI社では、自社のセキュリティ情報を「OpenAI Security Portal」で提供しています。
- OpenAI
OpenAI Security Portal
https://trust.openai.com/
これを見ると、CCPA(※)・GDPR(※)・SOC 2(※)に準拠していることと、ペネトレーションテストの結果・SOC 2レポート・CAIQ Lite(※)への回答などセキュリティチェックシートへの回答があることが分かります。
CAIQ Lite: Cloud Security Alliance(CSA)が提供しているクラウドサービスセキュリティの自己評価ツールです。CAIQの簡易版で、質問項目をCAIQフルセットの約4分の1にしています。
なお、内容を確認するにあたってはNDAの締結が必要です。
クラスメソッド社のブログにも記載がありますので、参考にしてみてください。
- クラスメソッド社
OpenAIのセキュリティ情報を提供するサイト「OpenAI Security Portal」を調べてみた
https://dev.classmethod.jp/articles/openai-security-portal/
もちろん、以上の情報でセキュリティのすべてを判断することはできませんが、筆者としては、OpenAI社が、自社のセキュリティ情報をオープンな標準に準拠した形で公開していることには、一定の信頼がおけると感じました。
生成AIの利用ガイドライン策定が相次ぐ
生成AIの急速な普及を受けて、利用ガイドライン策定が相次いでいます。
ChatGPTを使った経験をもとに、主に利用時の情報漏えいを防ぐ観点から出されたものとしては、以下が挙げられます。
- クラスメソッド株式会社
クラスメソッド社内のAIサービス利用のガイドラインを策定しました
https://dev.classmethod.jp/articles/guideline-for-use-of-ai-services/ - 株式会社 Zaim
生成系 AI の業務利用ガイドラインを紹介します
https://blog.zaim.co.jp/n/n641fc2e19933
さて、先月のブログに書いた通り、「AIの責任ある使用」も必要です。そして、「AIの責任ある使用」には情報セキュリティ上の責任だけでなく、コンプライアンス上の責任も含まれます。NECは、経済産業省のAI原則実践のためのガバナンス・ガイドラインに基づいて、AI全般についてガバナンスという大きなくくりではありますが、体制と全社規程を制定しています。全文が公開されているわけではありませんが、「AIの責任ある使用」をするうえで、参考になる事例のひとつといえます。
- 日本電気株式会社
NEC、経済産業省のAI原則実践のためのガバナンス・ガイドラインに基づくAIガバナンスの運用を開始
https://jpn.nec.com/press/202304/20230403_02.html
生成AIの利用ガイドライン策定で参考となる記事
クラスメソッドやZaim以外にも、企業が生成AIの利用ガイドラインを策定するうえで、参考となる記事がまとめられていますので、紹介します。
- 情シスフォース(DeepApex株式会社)
情報漏えいが心配!|ChatGPTの利用ルール
https://jousys-force.deepapex.com/blogs/chatgpt-rule-guidline - GO株式会社 IT戦略部
ChatGPTやBYODで考える、セキュリティガイドラインの作り方!!
https://note.com/go_it/n/nb5d3324b7d43
個人情報保護委員会の注意喚起
個人情報保護委員会が令和5年(2023年)6月2日に、生成AIの利用について、個人情報取扱いの観点から、企業や一般利用者が注意したいポイントをまとめています。OpenAI社への注意喚起としてニュースになったことから話題が先行している面もありますが、ガイドラインとしても機能する内容になっています。企業が生成AIの利用ガイドラインを策定するうえで、この注意喚起も無視することはできないでしょう。
- 生成AIサービスの利用に関する注意喚起等について
https://www.ppc.go.jp/news/careful_information/230602_AI_utilize_alert/
その他の記事
生成AIの利用ガイドラインを策定するにあたって、どのようにルールを作ればいいかと考える前に、どのようなリスクがあるかを把握したいなどのニーズもあるかと思います。CSAのホワイトペーパー以外で、参考となる記事を紹介します。
- SOMPO CYBER SECURITY
ChatGPTとサイバーセキュリティの関係
https://www.sompocybersecurity.com/column/column/chatgpt-and-cybersecurity - ITmedia
ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは
https://www.itmedia.co.jp/news/articles/2303/28/news100_2.html
AIを応用した開発について
今後、生成AIはもとより、AI全般において、応用した開発が盛んになってくることも想定されます。AIを応用した開発で気をつけるべきことは多数ありますが、総務省と三井物産セキュアディレクション(MBSD)が協力して情報発信しているポータルが、情報収集や考察のためのよい起点になりますので、紹介します。
- 総務省×MBSD
AIセキュリティ 情報発信ポータル
https://www.mbsd.jp/aisec_portal/
また、世界に目を向けると、
- Microsoft の責任ある AI の基本原則
https://www.microsoft.com/ja-jp/ai/responsible-ai - Google Cloud 責任ある AI への取り組み
https://cloud.google.com/responsible-ai
最近注目されている脆弱性について
生成AIを応用したアプリで気をつけるべき脆弱性にプロンプトインジェクションというのがあります。AIに対して特殊な質問を入力し、開発者が想定していない結果を引き出すことで、AIが保持する機密情報をはじめとした公開すべきでないデータを引き出すなどの応用が可能です。
- 日経クロステック ITセキュリティ
『勝村幸博の「今日も誰かが狙われる」
ChatGPTの安易なビジネス利用は禁物、「プロンプトインジェクション攻撃」の脅威』
https://xtech.nikkei.com/atcl/nxt/column/18/00676/042500132/
対策としては、ハッシュ復唱などが提唱されています。
- ChatGPTを使ったサービスにおいて気軽にできるプロンプトインジェクション対策
https://qiita.com/sakasegawa/items/09d9f6a485108f5a618a
前述の『AIセキュリティ 情報発信ポータル』に掲載されている「AIセキュリティマトリックス」には直接記載されていない手法ですが、進歩が続く新しい技術に対しては、新しい脆弱性(新しい攻撃手法)が発見されることもあるので、新しい技術におけるセキュリティのトレンドを知るという考え方は非常に大切です。
まとめ
生成AIの急速な進歩もあり、AI全般の動向が活発になっています。AIやそのAPIを応用したSaaSが次々と誕生する中、AIについてはセキュリティ面でも進歩が急速に続いています。
セキュリティを確保しながらAIを活用するべく、AIを利用したSaaSの社内利用をチェックするにあたっては、AIの特徴を踏まえたガイドラインが作成されていることが必要です。
今回紹介した記事を起点に、各社がAIやそのAPIを応用したSaaSを必要に応じて活用できるよう、迅速・適切に利用ガイドラインを策定していくことが望まれます。本稿がその一助となれば幸いです。
ご興味のある方は、ぜひお問い合わせください。
.webp)









