セキュリティ対策vol.20|AI時代にあわせたセキュリティルール策定
AIの利用は当たり前、今後はルール整備が必要な時代に
質問に対して、自然な言語で回答をするAI(CHATGPT等)の公開は私たちの人工知能に関する認識を大きく変える出来事でした。
2022年の11月に公開されたCHATGPTは世界に衝撃を与えましたが、それから半年たった今、私たちは「AIにどう向き合うか」を考えるという局面に来ています。
生成AIの学習データの収集については不透明な点が多く、企業は慎重な対応が求められます。特に、AIが入力情報を二次利用する可能性があることや、他人の著作物を参考にして生成した文章を利用することが知的財産権侵害につながる可能性があるため、注意が必要です。
それでは私たちが入力したデータや個人情報の利用規約は実際にどのようになっているのでしょうか。
OpenAIの利用規約や個人情報の取り扱いを定めたプライバシーポリシーでは、無料版のCHATGPTではユーザーから提供されたデータを同社のモデルを改善するために使用することがあるとしている。
これは入力した情報をAIが記憶して、別の利用者に回答する際に使用をされる可能性を示しています
一方、有料サービスに関しては利用者が入力した情報を自社の生成AIの学習には使わないと説明しており、入力された情報データは守られる事になりますが、3月24日には加入者の支払い関連情報などが、流出した可能性があるという声明を発表しております。
入力した情報は守られても、アカウントの管理には当然セキュリティ面でのルール整備が必要です。
国内でのルール整備の動き
「ユーチューバー」のマネジメントを手がけるUUUM(ウーム)が定めた従業員向けのガイドラインでは、簡単な言葉を入力するだけでイラストを描くことができる画像生成AIについては「現時点では使用不可」としています。
当面はAIに詳しい情報システム部門やマーケティング部門などに所属する約30人の社員に限定し、オープンAIの最新の基盤技術である「GPT-4」などを業務に活用するように考えています。
また、国内向けでSNS他サービスを手掛けるMIXI(ミクシィ)はチャットGPTについては社内の機密情報の入力を認めていませんでしたが、有料サービスであるアジュール上で提供される生成AIでは、本来は「社外秘」扱いの情報であっても一部については入力を認めました。一方、プライバシー規制に抵触するリスクを減らすため、顧客の個人情報などの入力は禁止とし、業務目的で生成AIを利用する場合には法務部門と知的財産部門に必ず事前相談するよう義務づけることとしています。
アストンではセキュリティリスクのチェックリストを無料で配布しています。
5分でわかるセルフチェックリストとなっているため、お気軽にお試しください。
ルール整備時に考えるべきポイント
これらの情報を元にするとルールを整備する場合には下記のような点に気を付ける必要がありそうです。
機密情報の取り扱い
AIには機密情報を含むデータを入力しないように指導します。
機密情報の漏洩やセキュリティリスクを最小限に抑えるため、具体的な例示やガイドラインを作成し、従業員に周知徹底させます。
著作権と知的財産権
ネット上の情報を学習データとして使用するため、第三者の知的財産権を侵害する恐れがあります。
AIが生成した文章やコンテンツを利用する場合は、著作権や知的財産権に留意し、適切な利用方法を定めます。
利用目的の明確化
利用目的を明確にし、業務効率化や生産性の向上に貢献するための具体的な用途を示します。
どのような業務領域やタスクに利用するかを明確化し、従業員に適切な利用方法を伝えます。
利用規約の確認
提供する企業の利用規約やプライバシーポリシーを十分に確認し、利用条件やデータの取り扱いについて理解する必要があります。
AIプラットフォームが提供する機能や制約に関しても把握し、それに基づいた利用ルールを定めます。
その他にも法務部門との相談や、従業員全員のリテラシーの向上等、様々な課題があります。利用には十分な理解が必要となります。
開発元OpenAIも警告する「超知能AI」の登場
2023年5月22日、対話型AI「ChatGPT」や大規模言語モデル「GPT-4」などを開発したAI研究団体のOpenAIが、専門家のスキルレベルを超え、高度な生産活動を行うAI「超知能(Superintelligence)」の登場を予期し、AIの安全な開発を進めるためには国際的な規制機関の立ち上げが必要になると提唱しています。
OpenAIのが問題視してるのは、あくまで将来生まれるであろう「超知能」であって、GPT-4やChatGPTといった、既存のAIやそれを使ったシステムは対象外としています。既存のAIシステムについては、
「世界に多大な価値を生み出すと考えられ、リスクはあるものの、その度合は他のインターネット技術と同等と思われる」と言うにとどめています。
それでもAIを使うためのルールや、技術自体をどうセーブしていくかが今後の課題となってくることは確実でしょう。
<ご相談はアストンへ>
アストンでは職場環境にあわせたセキュリティルール作りも行います。
ネットワークの構築からルールの策定など、お気軽にお問い合わせください。
まずはご相談ください。
株式会社アストン TONグループ
03−4360−8676
https://aston.jp/contact/