ChatGPTにより日本企業のサイバーリスクは高まるのか?

ChatGPTにより日本企業のサイバーリスクは高まるのか?


Author:  有馬 典孝(Michitaka Arima) 

対話型AI「ChatGPT」が日本でも話題ですが、高度な標的型サイバー攻撃を専門とする脅威主体にとっては、まだ成熟した技術ではありません。しかし、こういったツールによってフィッシングメールはより洗練されたものとなり、より多くの犯罪者集団がサイバー空間に興味を示すようになるでしょう。ChatGPTなどのツールが、企業のサイバーリスクにどう影響を及ぼし、どのような対策が必要か解説します。

【本記事のサマリ】

  • ChatGPTを中心とした大規模言語モデル(LLM)が情報セキュリティに及ぼす影響が活発に議論されているが、現時点では、その恩恵を得られるのは技術レベルの低い脅威主体に限られている。
  • 一方で、日本においては、自然な日本語フィッシングメールを従来より容易に生成できるようになるという観点から、フィッシングメール攻撃の頻度や精度が増大すると予想される。
  •  長期的にはLLMを用いたマルウェア亜種の大量生成など脅威主体の能力獲得に大きく寄与する懸念があり、企業は脅威主体の進化を見越したセキュリティ投資を継続すべき。

人工知能の研究および人工知能オープンソース化を推進するOpenAIは、2023年1月末にGPT(Generative Pre-training Transformer)言語モデルの一種である自然言語ツールChatGPTのアップデート版をリリース。ChatGPTは、様々なトピックについて人間のような会話ができるよう設計されており、利用者は簡単な質問をしたり、記事、メール、エッセイ、詩、コード作成などのタスクを依頼したりできます。2023年3月には、さらに進化したGPT-4を一般公開し、日本でも大きく話題となり、実際に試した方も多いのではないでしょうか。ChatGPTは、米国をはじめ世界中で開発されている自然言語およびその他の一般公開されている人工知能(AI)ツールの1つですが、これらのツールは、例えばコードを自動的に作成することで、より容易にサイバー攻撃することを手助けできると考えられています。

2022年11月にChatGPTが公開されて以来、ダークウェブのハッキングフォーラム等では、セキュリティの研究者がサイバーセキュリティ白書などで発表した技法の応用を含め、このツールを脆弱性悪用やマルウェア作成にどう活用できるかについて活発な議論が交わされています。このような議論が進むことで、技術的な知識やコーディングスキルに乏しい脅威者が、オンライン上の解説記事や事例を参照しつつ、サイバー犯罪を実行する可能性が懸念されています。

■ ダークウェブのハッキングフォーラム等における「ChatGPT」についての言及数(2022年12月19日~2023年3月06日)

AIを活用した金融・保険業界における不正検知・モニタリング

事例:日本語のフィッシングメール生成

ChatGPTは、様々なプログラミング言語のコードを生成できるよう訓練されたOpenAIモデルにアクセスすることで、自然言語による問いかけからプログラミングコードの生成が可能です。これはソフトウェア開発者の支援を目的としたもので、OpenAIはChatGPTが悪意あるコードを生成するのを防ぐための対策導入を進めているものの、サイバー犯罪者が正当な利用目的であると装ってChatGPTを悪用することは不可能ではありません。

例えば、下図のように、標的としたい業種と、当該業種に従事する従業員が興味を示すかもしれないトピックを指定するだけで、文法的にもあまり違和感のない日本語のメール文面を生成することができます。

 AIを活用した金融・保険業界における不正検知・モニタリング

教育機関がChatGPTを悪用した盗用やカンニングなどへの対応に苦慮しているように、実際のサイバー攻撃においてChatGPTがどのように悪用されているかを証明することは難しいでしょう。我々も、ChatGPTを悪用したサイバー攻撃が実際に行われた証拠は確認できていません。一方で、サイバー犯罪者によるChatGPTを悪用した情報窃取型マルウェア亜種の作成デモをダークウェブ上で確認しており、このようなマルウェアが実際のサイバー攻撃で用いられる可能性は十分に考えられます。

短期・長期の展望:脅威は高まる?

短期的には、ChatGPTなどのツールが、企業に対するサイバー脅威の急速な増大に寄与する可能性は低いでしょう。ChatGPTはサイバー犯罪者が説得力のあるフィッシングメールの作成を手助けすると考えられますが、高度なマルウェアを開発するには、技術的な基礎理解や知識が依然として必要です。例えばソフトウェア開発者向けの質問・回答サイトである「スタック・オーバーフロー(Stack Overflow)」は、一見説得力があるようでも間違った回答が示される懸念があるとして、ChatGPTを利用した回答の投稿を禁じています。

また、仮に高度なマルウェアを作成したとしても、ネットワークやサイバーセキュリティに関する一定の知識と経験(例えば、肝心のマルウェアを標的企業にどのように届け、どのように検知を避けつつ標的ネットワーク内で水平展開すればよいかなど)がなければ効果的なサイバー攻撃の実行は難しいでしょう。

一方で、日本は従来、いわゆる「言語の壁」により、海外のサイバー犯罪者から守られてきたという一面があります。多大なリソースを有しAPTを得意とする高度なサイバー脅威主体を例外として、非母語話者が日本語を駆使して説得力のあるフィッシングメールを作成することは難しく、多くの企業は「不自然な日本語」によってフィッシングメールを容易に見分けることができていました。ChatGPTのような大規模言語モデル(LLM:Large Language Model)により、日本は海外のサイバー犯罪者からより容易にアクセスできる市場となる可能性があります。

長期的には、LLMに関連するコストが低下し、精度が向上し、その利用が広まるにつれ、脅威主体は独自の訓練データを用いて、カスタム化された多数のマルウェア亜種を短期間で生成・展開する能力を獲得するかもしれません。また、企業ネットワークへ広範囲にアクセスできる国家脅威主体や、高度なサイバー犯罪集団であれば、企業メールシステムへのアクセスを悪用して、独特の用語など企業文化を学習したLLMによる極めて自然なビジネス詐欺メールを生成することもできるでしょう。

まとめると、予測可能な将来において、ChatGPTは低~中程度の能力を有するサイバー脅威主体の増加を誘発すると予想されます。例えば、これまで窃盗や誘拐を中心としてきた犯罪集団がサイバー空間に参入する、アクティビスト集団がサイバー空間に活動の場を広げる、といった流れが考えられるでしょう。ダークウェブ上のフォーラムにおいても、ChatGPTに関心を寄せているのは低強度の脅威主体が中心で、国家脅威主体やランサムウェア・アズ・ア・サービス(RaaS)を展開するような高度なサイバー犯罪集団にとって、まだLLMは技術的に未成熟であるといえます。

企業に求められる対策

本稿で解説してきたように、ChatGPTをはじめとするLLMがサイバー空間に与える影響は、現時点では比較的限定されており、企業は不必要にそのリスクに惑わされるべきではありません。
一方で、日本企業においてはフィッシングメールを中心に、攻撃の頻度や精度が向上することが見込まれます。企業の情報セキュリティ部門は、従業員に対する訓練や、不審添付ファイルおよびハイパーリンクの検知といったメールフィルタリング製品の導入など、フィッシングメール対策が十分かどうか、今一度確認することが重要です。

また、長期的には国家脅威主体や高度サイバー犯罪集団を中心に、LLMを活用することで今まで以上の攻撃能力を獲得する脅威主体が出現するでしょう。こうした脅威主体の進化に備えるべく、企業は長期的な視点でセキュリティ投資を継続すべきです。

コントロール・リスクスでは、専門のサイバー脅威アナリストが、脅威主体にとっての企業の魅力度(すなわち、どれほどサイバー攻撃を受ける可能性があるか)の評価や、事業展開国/業態に応じて注視すべき脅威主体の特定といった分析を行っています。長期的に自社にとって脅威となりうる高度な脅威主体についての分析などについてご関心やご相談事項がありましたら、ぜひ下記フォームからお問合せください。

関連情報

お問い合わせ先

DOTCOM - Japanese - Enquiry via Our Thinking articles
姓**
 
 
 
名**
 
 
 
会社名**
 
 
 
Eメール*
 
 
 
部署名**
 
 
 
役職*
 
 
 
*
 
 
 
電話番号
 
 
 
問い合わせ