MENU

【利用者編】AIシステム導入時のセキュリティは何を考慮すべき?生成AIのセキュリティリスクと対策について解説します

前回のブログでAIを使ったシステムを構築する際のセキュリティリスクに関して解説しました。今回は利用者側の場合はどのような点に気を付ければよいか解説します。

前回のブログをまだ読んでいない方は是非お読みいただければと思います。

目次

生成AI利用時のリスクについて教えてください

KDLマーケ担当 原田

前回はAIシステム構築時の留意事項について解説ありがとうございました。今回は利用者側の観点で教えていただけますか。私の場合は、こちらに該当すると思います。

生成AIを利用する際に、どういう点について注意すべきか改めて教えてください。よろしくお願いします。

KDLコンサルタント 近藤

わかりました。では今回は一般の従業員の方が日々の業務において生成AIを使われる際に、どのような点に注意すればよいか、どういうリスクがあるのか、その対策について具体的に解説していきます。

情報の正確性

情報の正確性に関するリスク

まず最初に生成AIのデータは正確であると思い込んでいらっしゃる方も多いのですが、そうではありません。一つ目にお伝えしたいのが情報の正確性に関するリスクです。

情報の古さ、情報の偏り、モデルの解釈の誤りといったことが原因で不正確な情報が混在する可能性があります。あるいは入力する側の指示文のミスや表現の曖昧さによって、AIの解釈が本来の意図と異なることが要因です。また望ましくないケースとして、AIの不具合、提供者側による意図的な性能劣化などによって引き起こされる場合もあります。

情報の正確性に関する対策方法

生成した文章をそのまま情報発信するのは避け、必ず利用者自身で確認し、文章の内容に自身の責任が持てる前提で、共有・使用してください。大切な判断をする際には、生成した文章を元に他の情報源でも確認することをおすすめします。

情報流出

情報流出のリスク

続いて情報流出に関するリスクです。これに関しては具体例を2つ紹介します。

ユーザーが生成AIに重要情報を入力すると、それが意図しない場所に保存されたり、第三者にアクセスされたりするリスクがあります。ツールによっては、入力したデータは教師データにしないとか、その場限りで保存しないとの前提が提示されている場合もありますが、プログラムのバグ運用のミスなどによって漏洩する可能性が0というわけではありません。

情報流出のリスクへの対策

生成AIに対して個人情報や機密情報など、第三者に知られたくない情報は入力しないように心掛けましょう。このあたり社内ルールやマニュアルなどで徹底するようにしてください。

KDLマーケ担当 原田

業務の効率化のために個人情報や機密情報を含む情報を生成AIに入力したい場合はどうしたらよいでしょうか?​個人情報を含むレポート内容のチェックを効率的に行いたい、などのニーズがあるかと思います。

KDLコンサルタント 近藤

生成AIのエンジンをインターネットに繋がらないローカル環境に構築し、それを利用するというやり方があります。自社内でエンジン部分を構築するイメージです。

そうすればインターネット(外部)には一切流出しない、ということになります。ただし、インターネットに繋がらないということは、情報が自動的に更新されませんので、利用者側にてプログラムやデータの更新をやらなくてはなりません。​

環境の構築や保守には費用や工数がかかるので、その兼ね合いでご判断いただくことになるかと思います。

KDLコンサルタント 近藤

また手間はかかりますが、個人情報や機密情報の箇所をマスキング、たとえば”■”などの無効な文字に置き換えてから生成AIに入力する方法もあります。

このあたりを自動的に対応できるようなサービスもあるかと思います。手作業の場合は漏れが発生する可能性もありますので、そうした製品を利用する方がよいかもしれません。

KDLマーケ担当 原田

もう一つ懸念点として、AI環境をローカル環境に構築したとしても、AI環境がマルウェアに感染した際は、対話履歴やログに個人情報などの機密情報があれば、これらの情報が漏洩する可能性がありますよね。このあたりの対策方法がもしあれば教えてください。

KDLコンサルタント 近藤

使用後は、対話履歴やログをクリアすることを推奨します。クリア漏れを想定して自動的にクリアする仕組みや定期的にクリアする仕組みを導入することが望ましいです。これにより、誤って重要な情報を入力した場合でも、後からその情報が第三者に漏れるリスクを最小化できます。

ChatGPT等の生成AIを利用する際は、公式のプラットフォームや信頼できる第三者のプラットフォームを使用しましょう。信頼できないサイトやアプリからの利用は、セキュリティリスクが高まる可能性があります。​

著作権違反

著作権違反のリスク

​生成AIはインターネット上のコンテンツも読み込んでいますが、文章をそのまま切り貼りしているのではなく、大量のテキスト情報を通じて、言語の構造やパターンを学習し、その上で文章を生成しています。​

しかし、すべての生成AIがそのような対応を行っているか確認する術はありませんし、可能性としては極めて少ないですが、たまたま著作権のある作品と類似した文章が生成される可能性もあります。​

著作権違反のリスクへの対策

AIは著作権違反をするものとしてチェックを行うようにしてください。更に以下の対策を実施することを推奨します。​

  • 著作権違反があった際を想定して、「通報を受け取れる連絡窓口の設置」、「著作者への対応」、「速やかに該当箇所の特定」や「公開中止、箇所の改定」が行える体制を用意してください。​
  • AIの生成物を使用した作品やコンテンツのクレジット表記に、「生成AIを使用していること」、「どのツールを使って作成したのか」等、明記しておくことで、透明性を持たせる。万が一著作権違反が発生した際も意図的でないことが相手方に伝わるので、対応もスムーズに進めることができます。

結局のところ、AIであろうが人間であろうが、創作するものには、たまたま過去の著作物に類似する可能性はあり、その際は、人間の場合と同じ対応を行えばよいということです。​

まとめ

今回は、AIシステムを利用する際にどのような点に注意すればいいのか、そのポイントについて解説しました。AIシステム導入におけるセキュリティ対策として、前回の【構築編】とあわせて参考にしていただければ幸いです。

Proactive Defense では、セキュリティ対策に関するコンサルティングサービスをご提供しております。簡易的なアドバイスから、定期コンサルティングまでご要望に応じてご支援可能です。お問い合わせは下記のフォームよりお気軽にご連絡ください。

監修:近藤 伸明
シニアセキュリティコンサルタント、企業様向けのセキュリティアドバイザリー支援実施。企業様向け、および、セキュリティ関連組織向けのドキュメント作成実績多数あり。直近ではJNSA「今すぐ実践できる工場セキュリティハンドブック」作成に携わる。

著者:原田 智美
Engagement Leadチーム所属。デザインに興味があるマーケ担当。

  • URLをコピーしました!
目次