エンタープライズ情報管理(EIM) Archives - OpenText Blogs https://blogs.opentext.com/ja/category/enterprise-information-management-eim-ja/ The Information Company Mon, 07 Jul 2025 08:42:26 +0000 ja hourly 1 https://wordpress.org/?v=6.8.1 https://blogs.opentext.com/wp-content/uploads/2024/07/cropped-OT-Icon-Box-150x150.png エンタープライズ情報管理(EIM) Archives - OpenText Blogs https://blogs.opentext.com/ja/category/enterprise-information-management-eim-ja/ 32 32 生成AIで強化するマルウェアと脆弱性の検出能力 https://blogs.opentext.com/ja/ai-enhances-malware-and-vulnerability-detection-jp/ Thu, 03 Jul 2025 05:25:11 +0000 https://blogs.opentext.com/?p=999309222

はじめに

生成AI、特に大規模言語モデル(LLM)は、サイバーセキュリティを含むさまざまな分野において重要な活用方法が模索されています。現在、多くの企業がマルウェアやソフトウェア脆弱性の検出にLLMやその他の生成AI技術を導入し、成果を上げつつあります。

生成AIは、マルウェアや脆弱性検出において複数のアプローチで活用可能です。たとえば、既存の機械学習(ML)ベースの検出モデルに対し、LLMを用いて強力な特徴量(特徴)を生成する手法があります。また、LLMをコード解析に活用して、ソースコード内の悪意ある挙動や脆弱性を特定するアプローチも注目されています。さらに、検出モデルの堅牢性を高めるために、合成データを生成して学習に活用する用途も広がっています。

この記事では、これらの活用シナリオについて詳しく解説していきます。

従来の検出手法の課題

現在主流のマルウェアやソフトウェアの脆弱性の検出には、静的コード解析と動的コード解析という2つの手法が利用されています。

  • 静的解析:コードを実行せずに構文構造やデータフロー、制御フローを分析し、悪意あるパターンや命令を検出します。
  • 動的解析:制御された環境でコードを実行し、その挙動からマルウェアの兆候を分析します。

これらの手法は一定の成果を上げてきましたが、再現性の低さや、高度なスキルを持つ攻撃者による回避が容易であるという課題が残ります。

LLMを活用した表現ベクトルの生成(LLMによる特徴量生成)

こうした従来手法の限界を補うものとして、機械学習ベースの検出手法が注目されてきました。初期の機械学習手法は手作業で特徴を設計していましたが、作業負荷が高く精度も限定的でした。

そこで登場したのがLLMです。LLMは以下のような特長により、新たな可能性を開いています。

  • コンテキスト理解:ソースコード内の各構成要素の意味や関係性を把握し、人間では見落としがちな重要な情報を抽出可能。
  • 多様なデータタイプに対応:ソースコード、アセンブリコード、API呼び出しのシーケンス、システムコールログなど、様々な形式のデータを扱えるため、セキュリティ分野での汎用的なフィーチャー(特徴)エンジニアリングに最適です。

【LLM活用例】

以下は、比較的小規模なLLMを応用した実例です:

  • BERTroid:Androidアプリが要求するパーミッションのシーケンスから特徴を抽出し、マルウェアの有無を識別。[1]
  • BERT-Cuckoo15:Cuckooサンドボックスで得られた15種類の動的特徴の関係性をBERTで分析。[2]
  • VulDeBERT:C/C++コードを解析し、抽象コード片を通じて脆弱なパターンを学習。[3]
  • XGV-BERT:BERTとグラフニューラルネットワーク(GCN)を組み合わせて、コードの意味と構造の両面から脆弱性を検出。[4]

これらの手法は、計算コスト削減やIP保護のための社内ホスティングおよびパフォーマンス向上のためのカスタムデータでの微調整といった利点も兼ね備えています。

コード解析におけるLLMの進化

LLMは、多数のプログラミング言語のコードサンプルで学習されます。コードスニペットの解析を行い、隠れた悪意、攻撃ベクトルの検出に高い能力を発揮します。

ただし、LLMには入力トークン数に制限があるため、大規模コードベースを処理する際にはスニペット分割が必要となり、全体像の把握に制限が出ることもあります。特にバイナリコードの解析に当てはまります。

まず、バイナリコードをアセンブリコードに変換、次にそれらを逆コンパイルしてソースコードに近い形に変換しますが、精度は限定的です。手作業のリバースエンジニアリングはマルウェア検出の有効なアプローチの一つですが、深い専門知識を必要とし、時間がかかります。

しかし、最新のLLMは数百万トークン規模の入力を処理可能となり、アセンブリ言語を含む大規模なコードベースのトレーニングに対応しています。これにより、バイナリ解析によるマルウェア検出の自動化・スケーラビリティが飛躍的に向上しています。

合成データセットによる攻撃耐性の強化

生成AIのもう一つの重要な応用分野は、敵対的攻撃に対する検出モデルの強化です。

GAN(敵対的生成ネットワーク)やLLMを用いて、既存のマルウェアをわずかに改変した検出回避サンプル(敵対的サンプル)を生成することができます。これにより、セキュリティ研究者は既存モデルの弱点を明らかにし、より堅牢な検出アルゴリズムの開発に役立てることが可能になります。[5]

今後の展望と課題

生成AIは、サイバーセキュリティの分野において極めて強力なツールとなりました。現在では、数億から数千億パラメータを持つLLMが登場しており、目的に応じて次のようなユースケースに適用可能です:

  • マルウェア検出に向けた特徴量生成
  • バイナリコードのリバースエンジニアリング
  • 敵対的攻撃を想定した検出モデルの耐性強化

しかし同時に、攻撃者も同じ技術を使って新たなマルウェアや未知の脆弱性を生み出しているという現実があります。したがって、セキュリティ専門家が先手を打って生成AIを業務に取り入れ、巧妙化する攻撃に対抗していくことが、これまで以上に重要になっています。

参考

[1]Detecting Android Malware: From Neural Embeddings to Hands-On Validation with BERTroid

[2]BERT-Cuckoo15: A Comprehensive Framework for Malware Detection using 15 Dynamic Feature Types

[3]VulDeBERT: A Vulnerability Detection System Using BERT

[4]From Assistant to Analyst: The Power of Gemini 1.5 Pro for Malware Analysis

[5]Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches

The post 生成AIで強化するマルウェアと脆弱性の検出能力 appeared first on OpenText Blogs.

]]>

はじめに

生成AI、特に大規模言語モデル(LLM)は、サイバーセキュリティを含むさまざまな分野において重要な活用方法が模索されています。現在、多くの企業がマルウェアやソフトウェア脆弱性の検出にLLMやその他の生成AI技術を導入し、成果を上げつつあります。

生成AIは、マルウェアや脆弱性検出において複数のアプローチで活用可能です。たとえば、既存の機械学習(ML)ベースの検出モデルに対し、LLMを用いて強力な特徴量(特徴)を生成する手法があります。また、LLMをコード解析に活用して、ソースコード内の悪意ある挙動や脆弱性を特定するアプローチも注目されています。さらに、検出モデルの堅牢性を高めるために、合成データを生成して学習に活用する用途も広がっています。

この記事では、これらの活用シナリオについて詳しく解説していきます。

従来の検出手法の課題

現在主流のマルウェアやソフトウェアの脆弱性の検出には、静的コード解析と動的コード解析という2つの手法が利用されています。

  • 静的解析:コードを実行せずに構文構造やデータフロー、制御フローを分析し、悪意あるパターンや命令を検出します。
  • 動的解析:制御された環境でコードを実行し、その挙動からマルウェアの兆候を分析します。

これらの手法は一定の成果を上げてきましたが、再現性の低さや、高度なスキルを持つ攻撃者による回避が容易であるという課題が残ります。

LLMを活用した表現ベクトルの生成(LLMによる特徴量生成)

こうした従来手法の限界を補うものとして、機械学習ベースの検出手法が注目されてきました。初期の機械学習手法は手作業で特徴を設計していましたが、作業負荷が高く精度も限定的でした。

そこで登場したのがLLMです。LLMは以下のような特長により、新たな可能性を開いています。

  • コンテキスト理解:ソースコード内の各構成要素の意味や関係性を把握し、人間では見落としがちな重要な情報を抽出可能。
  • 多様なデータタイプに対応:ソースコード、アセンブリコード、API呼び出しのシーケンス、システムコールログなど、様々な形式のデータを扱えるため、セキュリティ分野での汎用的なフィーチャー(特徴)エンジニアリングに最適です。

【LLM活用例】

以下は、比較的小規模なLLMを応用した実例です:

  • BERTroid:Androidアプリが要求するパーミッションのシーケンスから特徴を抽出し、マルウェアの有無を識別。[1]
  • BERT-Cuckoo15:Cuckooサンドボックスで得られた15種類の動的特徴の関係性をBERTで分析。[2]
  • VulDeBERT:C/C++コードを解析し、抽象コード片を通じて脆弱なパターンを学習。[3]
  • XGV-BERT:BERTとグラフニューラルネットワーク(GCN)を組み合わせて、コードの意味と構造の両面から脆弱性を検出。[4]

これらの手法は、計算コスト削減やIP保護のための社内ホスティングおよびパフォーマンス向上のためのカスタムデータでの微調整といった利点も兼ね備えています。

コード解析におけるLLMの進化

LLMは、多数のプログラミング言語のコードサンプルで学習されます。コードスニペットの解析を行い、隠れた悪意、攻撃ベクトルの検出に高い能力を発揮します。

ただし、LLMには入力トークン数に制限があるため、大規模コードベースを処理する際にはスニペット分割が必要となり、全体像の把握に制限が出ることもあります。特にバイナリコードの解析に当てはまります。

まず、バイナリコードをアセンブリコードに変換、次にそれらを逆コンパイルしてソースコードに近い形に変換しますが、精度は限定的です。手作業のリバースエンジニアリングはマルウェア検出の有効なアプローチの一つですが、深い専門知識を必要とし、時間がかかります。

しかし、最新のLLMは数百万トークン規模の入力を処理可能となり、アセンブリ言語を含む大規模なコードベースのトレーニングに対応しています。これにより、バイナリ解析によるマルウェア検出の自動化・スケーラビリティが飛躍的に向上しています。

合成データセットによる攻撃耐性の強化

生成AIのもう一つの重要な応用分野は、敵対的攻撃に対する検出モデルの強化です。

GAN(敵対的生成ネットワーク)やLLMを用いて、既存のマルウェアをわずかに改変した検出回避サンプル(敵対的サンプル)を生成することができます。これにより、セキュリティ研究者は既存モデルの弱点を明らかにし、より堅牢な検出アルゴリズムの開発に役立てることが可能になります。[5]

今後の展望と課題

生成AIは、サイバーセキュリティの分野において極めて強力なツールとなりました。現在では、数億から数千億パラメータを持つLLMが登場しており、目的に応じて次のようなユースケースに適用可能です:

  • マルウェア検出に向けた特徴量生成
  • バイナリコードのリバースエンジニアリング
  • 敵対的攻撃を想定した検出モデルの耐性強化

しかし同時に、攻撃者も同じ技術を使って新たなマルウェアや未知の脆弱性を生み出しているという現実があります。したがって、セキュリティ専門家が先手を打って生成AIを業務に取り入れ、巧妙化する攻撃に対抗していくことが、これまで以上に重要になっています。

参考

[1]Detecting Android Malware: From Neural Embeddings to Hands-On Validation with BERTroid

[2]BERT-Cuckoo15: A Comprehensive Framework for Malware Detection using 15 Dynamic Feature Types

[3]VulDeBERT: A Vulnerability Detection System Using BERT

[4]From Assistant to Analyst: The Power of Gemini 1.5 Pro for Malware Analysis

[5]Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches

The post 生成AIで強化するマルウェアと脆弱性の検出能力 appeared first on OpenText Blogs.

]]>
◆◆DevOpsあれもこれも<第四回>◆◆ https://blogs.opentext.com/ja/devops-this-and-that-4-jp/ Fri, 27 Jun 2025 06:38:42 +0000 https://blogs.opentext.com/?p=999309113

開発者体験<Developer Experience>

「開発者体験」という言葉を耳にする機会があり、英語でDeveloper Experience表記するのを略して「DX」と呼ぶと知りました。今まで聞いていた「DX」はDigital Transformationの略でしたので、全く別の考え方のようです。

システム開発の効率化を促進するツールとサービスを提供している弊社OpenTextとしましては見逃せない内容のようでしたのでどのようなものか確認してみました。

“システム開発を行っている会社において、開発者の幸福度、満足度に注目し改善することでハイパフォーマンスな組織にする”

ということのようですが、どういうものかまだ良くわかりません。

システム開発現場の状況

私がシステム開発系の会社でSEをしていたころも現場の状況は厳しいものでしたが、現在も大変な状況であることに変わりはないようです。

開発に関連した作業を効率化するツールの導入がなされていないところも多く、日々の作業の忙しさから最新テクノロジの勉強が困難であり、更に日本ではIT技術者の不足がこれから更に加速すると言われています。

以下の図にあります通り30%のプロジェクトにおいてプロジェクト管理ツールを導入していないとなっていますし、2030年には80万人のIT人材不足になると言われています。

開発者にとっては非常に厳しい現状と、将来性への不安が重くのしかかっている形であり、その問題に取り組み解決を図るのが「開発者経験(Developer Experience)」と言えるようです。

システム開発を行っている会社では、社員であるIT技術者が有能でパフォーマンスを発揮してくれる環境が安定して長く続いてくれることを期待するでしょう。そのために人材の採用や育成に力を入れているはずであり、その人材が実力を発揮できる環境を整える必要があることも十分理解されているはずかと思います。

可能であれば社内のIT技術者全員がいわゆる“ハイパフォーマー”になってくれれば会社全体のパフォーマンスも向上すると期待されます。

しかし、「ハイパフォーマー」「ミドルパフォーマー」などの分類は相対的なものであり、「働きアリの法則」でも知られている通り、組織の中でハイパフォーマー:ミドルパフォーマー:ローパフォーマーの割合は

2 : 6 : 2

と一定に保たれると言われています。

会社全体のパフォーマンスを向上させるには全てのIT技術者層の底上げを行い、個々の力を発揮してモチベーション高く作業が出来る環境の構築が必要だと言えるかと思います。

開発者体験の向上に必要なこと

人材育成のためのトレーニングや最新技術の習得、システム品質の向上に必要となるものが「工数」です。

システム開発において工数が足りなければ必要なテストや確認作業が出来ず、品質の低いものを納品してしまうと後で問題が発見され、発見されるまでにかかった期間に比例して修正にかかる工数が増大するという悪循環に陥ります。

将来のための投資として最新技術の勉強のための工数を確保するには、現状を分析して「ムリ」「ムラ」「ムダ」を見つけて作業の自動化を行い、AI機能の導入によって改善を図っていくことが重要と考えます。

とはいえ、運用方法や組織というものは全体的にを変更することが非常に困難なものですので、取り組みが可能な小さな課題を見つけて改善を行い、それを広げている活動を継続することが大切です。

いきなり「AIを会社全体で活用する仕組みを作る」ということは出来ないと思いますので、まずは日常の業務においてAIで効率化できることを探して、AIの活用方法や効果を学ぶところから始めるのが良いのではないでしょうか。

そこから徐々にAIのしくみを理解していき、自分の組織・会社にカスタマイズしたAIサービスに取り組んでいけるように進めているという流れです。

(特にハイパフォーマーな)技術者は最新技術に対する学習意欲やチャレンジ精神が高いはずなので、日々の業務を行いながらも、効率化によって捻出した工数を有効に使って新たな分野を切り開き、更にはそれを周囲の人たちに広げて行ってくれるでしょう。

AI によるシステムDevOpsの効率化

DevOpsはそれだけでも開発プロジェクトの効率化を目指すことが出来ますが、最近ではDevOpsの各活動にもAIの活用が広がっています。

例えばOpenText™ Core Software Delivery Platformでは、以下の図にあるような機能でこれまで以上の作業効率化を図ることが可能になるものです。(※この図には将来的な実装予定も含んでいます)

  • 蓄積されたプロジェクトデータから現在のプロジェクトを分析し、アラートなどを表示
  • 要件、バックログからテストケースを自動生成(現在は英語のみ対応)
  • 自動テストのスクリプトで、テスト対象のオブジェクトを画像からAIによって識別

OpenText™ Core Software Delivery Platformソリューション

Software Delivery PlatformはOpenTextが提供しているSaaSソリューションであり、システム開発の各工程をトータルで支える機能を持っています。UFT OneやLoadRunner、ALMなどの製品で培ってきたテスト自動化やプロジェクト品質管理の機能をクラウド上に集約し、小規模から大規模な開発プロジェクトまで広範囲に使用することが可能となっています。

Software Delivery Platformは多くのCI/CDサーバ等の環境とインテグレーションすることが出来るため、既存の環境を生かしたまま開発の効率化を機能テスト/パフォーマンステスト、監視やリリースの自動化に取り組むことが可能となります。

Developer Experienceの効果

書籍「LeanとDevOpsの科学(インプレス社)」では、約23,000件のアンケートデータから実際のアジャイル開発やDevOpsに現場においてツールやプロセスの導入が企業のパフォーマンス向上に大きく貢献しているということを筋道たてて紹介されています。

この書籍ではアンケートと調査の結果から、アーキテクチャのキーポイントとして以下の点などが挙げられています。

  • システムのタイプとデリバリーのパフォーマンス

調査結果から、システムのタイプがSOEであってもSORであってもデリバリーのパフォーマンスを向上させることは可能だが、次のキーポイントである容易性が需要であるとされています。

  • 注力すべきはデプロイとテストの容易性

特に疎結合のアーキテクチャにおいては、「テスト容易性」と「デリバリー容易性」によってパフォーマンスを向上させることが出来るとされています。

  • 必要なツールをチーム自らが選択できる

ツールをチームが選択できる場合、ソフトウェアデリバリのパフォーマンスが向上し、それが組織全体のパフォーマンスにも好影響を与えるとされています。

最後の「ツールがチーム自ら選択する」という点は、開発者が好むOSSを推奨しているように思われるかもしれませんが、実際の開発現場ではツールに予算を使わない傾向が強くOSSを使用するしかないという状況が多いのではないでしょうか。

便利なツールをチームが選択できる機会を奪っているのであれば、それはパフォーマンスの向上を妨げる要因となりますので、企業としてはツールの選択肢を広く持つべきだと思います。 殆どの企業において、ツールの導入は効率化に大きく貢献しており、開発者のモチベーション向上に役立っていると記載されていますので、興味がありましたら書籍を参照下さい。

今回のまとめ

IT技術者の不足が問題になっている今、作業の自動化や効率化によって技術者のモチベーションを高く保ち、より一層活躍出来る環境を整えることが重要だと考えます。

そのためにDeveloper Experience(開発者体験)という考え方を参考にし、開発者の活躍できる場を整えることが企業の競争力強化に繋がっていきます。

The post ◆◆DevOpsあれもこれも<第四回>◆◆ appeared first on OpenText Blogs.

]]>

開発者体験<Developer Experience>

「開発者体験」という言葉を耳にする機会があり、英語でDeveloper Experience表記するのを略して「DX」と呼ぶと知りました。今まで聞いていた「DX」はDigital Transformationの略でしたので、全く別の考え方のようです。

システム開発の効率化を促進するツールとサービスを提供している弊社OpenTextとしましては見逃せない内容のようでしたのでどのようなものか確認してみました。

“システム開発を行っている会社において、開発者の幸福度、満足度に注目し改善することでハイパフォーマンスな組織にする”

ということのようですが、どういうものかまだ良くわかりません。

システム開発現場の状況

私がシステム開発系の会社でSEをしていたころも現場の状況は厳しいものでしたが、現在も大変な状況であることに変わりはないようです。

開発に関連した作業を効率化するツールの導入がなされていないところも多く、日々の作業の忙しさから最新テクノロジの勉強が困難であり、更に日本ではIT技術者の不足がこれから更に加速すると言われています。

以下の図にあります通り30%のプロジェクトにおいてプロジェクト管理ツールを導入していないとなっていますし、2030年には80万人のIT人材不足になると言われています。

開発者にとっては非常に厳しい現状と、将来性への不安が重くのしかかっている形であり、その問題に取り組み解決を図るのが「開発者経験(Developer Experience)」と言えるようです。

システム開発を行っている会社では、社員であるIT技術者が有能でパフォーマンスを発揮してくれる環境が安定して長く続いてくれることを期待するでしょう。そのために人材の採用や育成に力を入れているはずであり、その人材が実力を発揮できる環境を整える必要があることも十分理解されているはずかと思います。

可能であれば社内のIT技術者全員がいわゆる“ハイパフォーマー”になってくれれば会社全体のパフォーマンスも向上すると期待されます。

しかし、「ハイパフォーマー」「ミドルパフォーマー」などの分類は相対的なものであり、「働きアリの法則」でも知られている通り、組織の中でハイパフォーマー:ミドルパフォーマー:ローパフォーマーの割合は

2 : 6 : 2

と一定に保たれると言われています。

会社全体のパフォーマンスを向上させるには全てのIT技術者層の底上げを行い、個々の力を発揮してモチベーション高く作業が出来る環境の構築が必要だと言えるかと思います。

開発者体験の向上に必要なこと

人材育成のためのトレーニングや最新技術の習得、システム品質の向上に必要となるものが「工数」です。

システム開発において工数が足りなければ必要なテストや確認作業が出来ず、品質の低いものを納品してしまうと後で問題が発見され、発見されるまでにかかった期間に比例して修正にかかる工数が増大するという悪循環に陥ります。

将来のための投資として最新技術の勉強のための工数を確保するには、現状を分析して「ムリ」「ムラ」「ムダ」を見つけて作業の自動化を行い、AI機能の導入によって改善を図っていくことが重要と考えます。

とはいえ、運用方法や組織というものは全体的にを変更することが非常に困難なものですので、取り組みが可能な小さな課題を見つけて改善を行い、それを広げている活動を継続することが大切です。

いきなり「AIを会社全体で活用する仕組みを作る」ということは出来ないと思いますので、まずは日常の業務においてAIで効率化できることを探して、AIの活用方法や効果を学ぶところから始めるのが良いのではないでしょうか。

そこから徐々にAIのしくみを理解していき、自分の組織・会社にカスタマイズしたAIサービスに取り組んでいけるように進めているという流れです。

(特にハイパフォーマーな)技術者は最新技術に対する学習意欲やチャレンジ精神が高いはずなので、日々の業務を行いながらも、効率化によって捻出した工数を有効に使って新たな分野を切り開き、更にはそれを周囲の人たちに広げて行ってくれるでしょう。

AI によるシステムDevOpsの効率化

DevOpsはそれだけでも開発プロジェクトの効率化を目指すことが出来ますが、最近ではDevOpsの各活動にもAIの活用が広がっています。

例えばOpenText™ Core Software Delivery Platformでは、以下の図にあるような機能でこれまで以上の作業効率化を図ることが可能になるものです。(※この図には将来的な実装予定も含んでいます)

  • 蓄積されたプロジェクトデータから現在のプロジェクトを分析し、アラートなどを表示
  • 要件、バックログからテストケースを自動生成(現在は英語のみ対応)
  • 自動テストのスクリプトで、テスト対象のオブジェクトを画像からAIによって識別

OpenText™ Core Software Delivery Platformソリューション

Software Delivery PlatformはOpenTextが提供しているSaaSソリューションであり、システム開発の各工程をトータルで支える機能を持っています。UFT OneやLoadRunner、ALMなどの製品で培ってきたテスト自動化やプロジェクト品質管理の機能をクラウド上に集約し、小規模から大規模な開発プロジェクトまで広範囲に使用することが可能となっています。

Software Delivery Platformは多くのCI/CDサーバ等の環境とインテグレーションすることが出来るため、既存の環境を生かしたまま開発の効率化を機能テスト/パフォーマンステスト、監視やリリースの自動化に取り組むことが可能となります。

Developer Experienceの効果

書籍「LeanとDevOpsの科学(インプレス社)」では、約23,000件のアンケートデータから実際のアジャイル開発やDevOpsに現場においてツールやプロセスの導入が企業のパフォーマンス向上に大きく貢献しているということを筋道たてて紹介されています。

この書籍ではアンケートと調査の結果から、アーキテクチャのキーポイントとして以下の点などが挙げられています。

  • システムのタイプとデリバリーのパフォーマンス

調査結果から、システムのタイプがSOEであってもSORであってもデリバリーのパフォーマンスを向上させることは可能だが、次のキーポイントである容易性が需要であるとされています。

  • 注力すべきはデプロイとテストの容易性

特に疎結合のアーキテクチャにおいては、「テスト容易性」と「デリバリー容易性」によってパフォーマンスを向上させることが出来るとされています。

  • 必要なツールをチーム自らが選択できる

ツールをチームが選択できる場合、ソフトウェアデリバリのパフォーマンスが向上し、それが組織全体のパフォーマンスにも好影響を与えるとされています。

最後の「ツールがチーム自ら選択する」という点は、開発者が好むOSSを推奨しているように思われるかもしれませんが、実際の開発現場ではツールに予算を使わない傾向が強くOSSを使用するしかないという状況が多いのではないでしょうか。

便利なツールをチームが選択できる機会を奪っているのであれば、それはパフォーマンスの向上を妨げる要因となりますので、企業としてはツールの選択肢を広く持つべきだと思います。 殆どの企業において、ツールの導入は効率化に大きく貢献しており、開発者のモチベーション向上に役立っていると記載されていますので、興味がありましたら書籍を参照下さい。

今回のまとめ

IT技術者の不足が問題になっている今、作業の自動化や効率化によって技術者のモチベーションを高く保ち、より一層活躍出来る環境を整えることが重要だと考えます。

そのためにDeveloper Experience(開発者体験)という考え方を参考にし、開発者の活躍できる場を整えることが企業の競争力強化に繋がっていきます。

The post ◆◆DevOpsあれもこれも<第四回>◆◆ appeared first on OpenText Blogs.

]]>
RAG × Agentic AIがもたらす革新:次世代サイバーセキュリティ分析 https://blogs.opentext.com/ja/innovation-brought-about-by-rag-agentic-ai-jp/ Fri, 20 Jun 2025 08:20:04 +0000 https://blogs.opentext.com/?p=999309041

RAGとAgentic AIは、サイバーセキュリティに自動化、コンテキスト認識インテリジェンス、プロアクティブな調査機能をもたらし、精度、効率、対応力を大幅に向上させます。

効果的な脅威の検知には、スピード、精度、正確なコンテキスト化が求められます。残念ながら、セキュリティイベントを MITRE ATT&CK のようなフレームワークにマッピングする従来の手作業による方法は、面倒で、エラーが発生しやすく、今日の迅速なサイバーセキュリティ運用には不十分です。幸いなことに、RAG(Retrieval-Augmented Generation)と Agentic AI は、セキュリティチームが脅威を特定し、理解し、対応する方法を飛躍的に向上させる、画期的なソリューションとして登場しました。

RAGとAgentic AIは、サイバーセキュリティに自動化、コンテキストを認識したインテリジェンス、プロアクティブな調査機能をもたらし、精度、効率、対応力を大幅に向上させます。これらの強力なテクニックをさらに掘り下げてみましょう。

拡張検索生成(RAG)の理解

大規模言語モデル(LLM)は、非常に高度である一方で、信頼できるソースから詳細で正確な、あるいは最新の情報を提供するタスクを課された場合、しばしば課題に遭遇する。この制限は、まさに検索拡張生成(RAG)がLLMの能力を大幅に向上させるために介入するところです。

RAGは、MITRE ATT&CKフレームワーク、ドキュメント、ウェブサイト、レポート、ログ、または構造化または非構造化データリポジトリなどの権威ある知識ベースから関連情報を動的に取得することによって動作します。これにより、応答がコンテキストに即して正確であり、最新の有効なデータに基づいていることが保証されます。

RAG 実行の概略

ステップ 1:ナレッジベースの準備

  • 信頼性の高いサイバーセキュリティ文書やリソースを収集する。
  • これらのリソースを、管理可能な小さなテキストセグメントまたはチャンクに分割する。
  • 文章変換機能を使用して、各テキストチャンクの埋め込み(デジタル形式)を生成する。
  • これらの埋め込み情報をベクトルデータベース内に効率的に格納する。

ステップ2:文脈情報検索

  • サイバーセキュリティ関連のクエリやプロンプトを受け付ける。
  • 入力されたプロンプトを埋め込みに変換する。
  • 類似度メトリクスを使用してベクトルデータベースに問い合わせ、最も関連性の高いコンテキストセグメントを特定して検索する。

ステップ3:文脈に沿った正確なレポートの作成

  • 取得した文脈を元のプロンプトやイベントの詳細と組み合わせる。
  • LLMを使用して、コンテキストに関連した包括的なレポートを合成し、生成します。
  • 最終的なアウトプットは、検出されたイベントや異常と、敵の戦術、技術、手順(TTP)を明確に関連付け、信頼できる証拠を裏付けます。

プロセスの可視化 セキュリティ・モニタリング・システムが、エンドポイントのログから異常な活動を発見した例を考えてみましょう。次の場合、RAG プロセスが直ちに起動します:

  • 関連する MITRE ATT&CK ドキュメントセグメントがベクターデータベースから取得されます。
  • これらのセグメントは、インシデント固有の詳細とシームレスに組み合わされます。
  • 明確で詳細な要約が生成され、敵対的な行動を正確に特定し、実行可能な緩和戦略を提案します。

RAGを使用することで、セキュリティ・アナリストは疑わしいイベントを既知の脅威活動と迅速かつ正確に関連付けることができ、セキュリティ・オペレーションのレスポンスタイムと質の両方を大幅に向上させることができます。しかし、RAGは、セキュリティ業務に適用している唯一の革新的技術ではありません。

Agentic AI: 自律的なサイバーセキュリティ調査

RAGがレスポンスの充実を得意とする一方で、Agentic AIは外部データソースと自律的に対話し、セキュリティアラートや疑わしい兆候をプロアクティブに調査することで、これらの機能を拡張します。

Agentic AIの特徴は?Agentic AIとは、LLMと自動化されたワークフローを搭載したインテリジェントな A Iエージェントを指します。指示を待つ従来の受動的なAIシステムとは異なり、Agentic AIは、外部データベース、API、脅威インテリジェンス・サービスに独自に積極的に関与し、関連するデータを収集し、プロアクティブにインサイトを生成します。

<実用的なシナリオ Agentic AI の活用>

組織のセキュリティ・システムが、不審なネットワーク・アクティビティや異常なファイル実行を検知したとします。従来は、アナリストが手作業で脅威インテリジェンス・データベースを照会していましたが、このアプローチは時間がかかるだけでなく、人為的な見落としが発生しがちです。

Agentic AIを使用すると、疑わしい兆候(IPアドレスやファイルハッシュなど)にフラグが立てられた時点で、AIエージェントが脅威インテリジェンスデータベース(BrightCloudなど)に対するクエリを自律的に開始します。エージェントは、マルウェアの分類、過去の脅威データ、コミュニティからのフィードバックなど、重要なインサイトを即座に取得します。

検索後、Agentic AIはデータの重要度と関連性を評価し、簡潔で実用的なレポートを自動的に生成します。これらのレポートは、特定された脅威、潜在的な影響、緩和のための実用的な推奨事項を明確に示し、対応スピードと運用精度を大幅に向上させます。

<なぜサイバーセキュリティにAgentic AIを導入するのか?>

  • 対応の迅速化: 自動化により脅威分析サイクルを劇的に短縮。
  • 精度の向上: 包括的な脅威インテリジェンスを体系的に取得することで、ヒューマンエラーを排除します。
  • アナリストのエンパワーメント: アナリストを反復作業から解放し、複雑で戦略的な分析により集中できるようにします。
  • 継続的な脅威情報の更新: 外部の脅威ソースからのリアルタイムの最新情報を社内のセキュリティプロセスに統合します。

<Agentic AIの未来の可能性>

Agentic AIの進化は、プロアクティブな脅威ハンティング、リアルタイムのマルチソースインテリジェンスの統合、脅威の自動修復など、さらなる機能強化を約束する。将来のサイバーセキュリティの展望は、複数のプラットフォームにまたがるシームレスなAIエージェント・コラボレーションを特徴とし、包括的で自動化されたエンドツーエンドのセキュリティ・ワークフローを生み出す可能性があります。

結論 RAGとAgentic AIを組み合わせた効果

Retrieval-Augmented Generation(RAG)とAgentic AIを組み合わせることで、サイバーセキュリティチームは、脅威を迅速に特定し、コンテキストを深く理解し、効果的に対応するための比類ない能力を実現します。RAGは、インシデント報告のための正確で権威のあるコンテキストを確保し、Agentic AIは、プロアクティブなインテリジェンス検索を通じて調査を自律的に充実させます。

これらの高度なAI手法を組み合わせることで、サイバーセキュリティの運用が一変し、組織のセキュリティ体制、運用効率、脅威への耐性が大幅に強化されます。RAGとAgentic AIをサイバーセキュリティ・ツールキットに組み込むことで、脅威に対応するだけでなく、プロアクティブに敵対者の先を行くことができます。

The post RAG × Agentic AIがもたらす革新:次世代サイバーセキュリティ分析 appeared first on OpenText Blogs.

]]>

RAGとAgentic AIは、サイバーセキュリティに自動化、コンテキスト認識インテリジェンス、プロアクティブな調査機能をもたらし、精度、効率、対応力を大幅に向上させます。

効果的な脅威の検知には、スピード、精度、正確なコンテキスト化が求められます。残念ながら、セキュリティイベントを MITRE ATT&CK のようなフレームワークにマッピングする従来の手作業による方法は、面倒で、エラーが発生しやすく、今日の迅速なサイバーセキュリティ運用には不十分です。幸いなことに、RAG(Retrieval-Augmented Generation)と Agentic AI は、セキュリティチームが脅威を特定し、理解し、対応する方法を飛躍的に向上させる、画期的なソリューションとして登場しました。

RAGとAgentic AIは、サイバーセキュリティに自動化、コンテキストを認識したインテリジェンス、プロアクティブな調査機能をもたらし、精度、効率、対応力を大幅に向上させます。これらの強力なテクニックをさらに掘り下げてみましょう。

拡張検索生成(RAG)の理解

大規模言語モデル(LLM)は、非常に高度である一方で、信頼できるソースから詳細で正確な、あるいは最新の情報を提供するタスクを課された場合、しばしば課題に遭遇する。この制限は、まさに検索拡張生成(RAG)がLLMの能力を大幅に向上させるために介入するところです。

RAGは、MITRE ATT&CKフレームワーク、ドキュメント、ウェブサイト、レポート、ログ、または構造化または非構造化データリポジトリなどの権威ある知識ベースから関連情報を動的に取得することによって動作します。これにより、応答がコンテキストに即して正確であり、最新の有効なデータに基づいていることが保証されます。

RAG 実行の概略

ステップ 1:ナレッジベースの準備

  • 信頼性の高いサイバーセキュリティ文書やリソースを収集する。
  • これらのリソースを、管理可能な小さなテキストセグメントまたはチャンクに分割する。
  • 文章変換機能を使用して、各テキストチャンクの埋め込み(デジタル形式)を生成する。
  • これらの埋め込み情報をベクトルデータベース内に効率的に格納する。

ステップ2:文脈情報検索

  • サイバーセキュリティ関連のクエリやプロンプトを受け付ける。
  • 入力されたプロンプトを埋め込みに変換する。
  • 類似度メトリクスを使用してベクトルデータベースに問い合わせ、最も関連性の高いコンテキストセグメントを特定して検索する。

ステップ3:文脈に沿った正確なレポートの作成

  • 取得した文脈を元のプロンプトやイベントの詳細と組み合わせる。
  • LLMを使用して、コンテキストに関連した包括的なレポートを合成し、生成します。
  • 最終的なアウトプットは、検出されたイベントや異常と、敵の戦術、技術、手順(TTP)を明確に関連付け、信頼できる証拠を裏付けます。

プロセスの可視化 セキュリティ・モニタリング・システムが、エンドポイントのログから異常な活動を発見した例を考えてみましょう。次の場合、RAG プロセスが直ちに起動します:

  • 関連する MITRE ATT&CK ドキュメントセグメントがベクターデータベースから取得されます。
  • これらのセグメントは、インシデント固有の詳細とシームレスに組み合わされます。
  • 明確で詳細な要約が生成され、敵対的な行動を正確に特定し、実行可能な緩和戦略を提案します。

RAGを使用することで、セキュリティ・アナリストは疑わしいイベントを既知の脅威活動と迅速かつ正確に関連付けることができ、セキュリティ・オペレーションのレスポンスタイムと質の両方を大幅に向上させることができます。しかし、RAGは、セキュリティ業務に適用している唯一の革新的技術ではありません。

Agentic AI: 自律的なサイバーセキュリティ調査

RAGがレスポンスの充実を得意とする一方で、Agentic AIは外部データソースと自律的に対話し、セキュリティアラートや疑わしい兆候をプロアクティブに調査することで、これらの機能を拡張します。

Agentic AIの特徴は?Agentic AIとは、LLMと自動化されたワークフローを搭載したインテリジェントな A Iエージェントを指します。指示を待つ従来の受動的なAIシステムとは異なり、Agentic AIは、外部データベース、API、脅威インテリジェンス・サービスに独自に積極的に関与し、関連するデータを収集し、プロアクティブにインサイトを生成します。

<実用的なシナリオ Agentic AI の活用>

組織のセキュリティ・システムが、不審なネットワーク・アクティビティや異常なファイル実行を検知したとします。従来は、アナリストが手作業で脅威インテリジェンス・データベースを照会していましたが、このアプローチは時間がかかるだけでなく、人為的な見落としが発生しがちです。

Agentic AIを使用すると、疑わしい兆候(IPアドレスやファイルハッシュなど)にフラグが立てられた時点で、AIエージェントが脅威インテリジェンスデータベース(BrightCloudなど)に対するクエリを自律的に開始します。エージェントは、マルウェアの分類、過去の脅威データ、コミュニティからのフィードバックなど、重要なインサイトを即座に取得します。

検索後、Agentic AIはデータの重要度と関連性を評価し、簡潔で実用的なレポートを自動的に生成します。これらのレポートは、特定された脅威、潜在的な影響、緩和のための実用的な推奨事項を明確に示し、対応スピードと運用精度を大幅に向上させます。

<なぜサイバーセキュリティにAgentic AIを導入するのか?>

  • 対応の迅速化: 自動化により脅威分析サイクルを劇的に短縮。
  • 精度の向上: 包括的な脅威インテリジェンスを体系的に取得することで、ヒューマンエラーを排除します。
  • アナリストのエンパワーメント: アナリストを反復作業から解放し、複雑で戦略的な分析により集中できるようにします。
  • 継続的な脅威情報の更新: 外部の脅威ソースからのリアルタイムの最新情報を社内のセキュリティプロセスに統合します。

<Agentic AIの未来の可能性>

Agentic AIの進化は、プロアクティブな脅威ハンティング、リアルタイムのマルチソースインテリジェンスの統合、脅威の自動修復など、さらなる機能強化を約束する。将来のサイバーセキュリティの展望は、複数のプラットフォームにまたがるシームレスなAIエージェント・コラボレーションを特徴とし、包括的で自動化されたエンドツーエンドのセキュリティ・ワークフローを生み出す可能性があります。

結論 RAGとAgentic AIを組み合わせた効果

Retrieval-Augmented Generation(RAG)とAgentic AIを組み合わせることで、サイバーセキュリティチームは、脅威を迅速に特定し、コンテキストを深く理解し、効果的に対応するための比類ない能力を実現します。RAGは、インシデント報告のための正確で権威のあるコンテキストを確保し、Agentic AIは、プロアクティブなインテリジェンス検索を通じて調査を自律的に充実させます。

これらの高度なAI手法を組み合わせることで、サイバーセキュリティの運用が一変し、組織のセキュリティ体制、運用効率、脅威への耐性が大幅に強化されます。RAGとAgentic AIをサイバーセキュリティ・ツールキットに組み込むことで、脅威に対応するだけでなく、プロアクティブに敵対者の先を行くことができます。

The post RAG × Agentic AIがもたらす革新:次世代サイバーセキュリティ分析 appeared first on OpenText Blogs.

]]>
◆◆DevOpsあれもこれも<第三回>◆◆ https://blogs.opentext.com/ja/devops-this-and-that-3-jp/ Tue, 17 Jun 2025 01:57:05 +0000 https://blogs.opentext.com/?p=999308954

Value Streamの見える化と最適化<Value Stream Mapping>

第一回、第二回でのValue Stream Managementのお話においては、システム開発における工数と品質の数値化に関して説明しました。

Value Stream Managementでは数値として「リードタイム」を重要視しており、その分析を行うことも出来る方法が今回の主題であるValue Stream Mappingです。

~ Value Stream Mappingとは ~

Value Stream Mappingは以下のように説明されています。

“Value Stream Management の中でも、業務プロセスを「物と情報の流れ」の図によって表すことで価値を効率よく生み出す部分と無駄の多い部分を明確にし、システム開発においてはリードタイムを短くすることに大きな効果を発揮する” 以下のような図を作成してボトルネックや問題点、リスクなどの分析使用出来ます。

システム開発においてリードタイムを短くすることが可能になるものだと分かりますが、そもそもリードタイムとは何でしょうか。

リードタイムを説明すると “工程や作業の最初から最後までにかかる時間”となりますので、例えば開発したシステムのアプリをテストするためのモバイルデバイスを調達にかかる時間で考えてみます。

リードタイム = ‘デバイスを入手した時間‘ - ‘デバイス調達を開始した時間’

処理全体では以下のような様々な工程が必要となるかと思います。

  • 必要な機種を選定する
  • 価格を調査する
  • 業者を選定する
  • 業者から見積りを入手する
  • 予算申請を行う
  • 予算許可を入手する
  • 購入処理を行う
  • デバイスを受け取る

この工程全体にかかる時間(期間)ですが、実際には“機種選定で議論する時間”、“業者に依頼してから見積りが来るまでの時間”、“購入してからデバイスが届くまでの時間”などのタイトルからは見えない作業や待ち時間が含まれているはずです。

このように工程を洗い出し、かかっている時間を細かい単位で分析したのち、作業の時間短縮や待ち時間の解消など改善ポイントを探すことでリードタイムの削減を進めます。

実際にはどのようにして分析を行うのか見てみましょう。

Value Stream Mappingの事前準備

Value Stream Mappingは各チーム、部署の代表者が同じ場所に集まって行います。

開発するシステムが複数のサブシステム/サービスに分かれている場合はそれぞれの代表、またセキュリティやネットワーク、データベースなどそれぞれのチームの代表およびマネージャも参加して進めます。

このため、事前の連絡やスケジュール調整が大変重要になりますので、組織を横断して声がけが可能な方の協力を得て進めて下さい。

集まってからValue Stream Mapを完成させるまで短くても半日以上の時間がかかりますので、参加者には目的と時間、当日の作業内容を伝え、事前に理解してもう必要があると思います。

Value Stream Mapping当日は参加者全員が収容可能な部屋と10枚ほどの大きな紙、3色以上のペン(マジック)を数セット用意しておきます。

準備が整ったら、ファシリテータ(あなた)がValue Stream Mappingの概要を説明し、壁に貼った紙に対してどのようにValue Stream Mapを記入していくのか方法を説明します。

記入は参加者自身にやっていただきます。

Value Stream Mappingの分析の流れ

Value Stream Mappingは以下のような流れで実施します。

  1. アーキテクチャ全体象の共有
  2. プロセスに関するディスカッション
  3. プロセスの詳細を記述
  4. 最終確認
  5. 「ムダ」および「リスク」の場所や理由を記入
  6. 改善方法のディスカッション

アーキテクチャ全体像の共有 : 代表者が対象システムの全体像を説明し、各チームの代表から不足点を補足説明してもらうことで、全体像を共有します。

プロセスに関するディスカッション : システムのプロセス(流れ)を紙に書き出す前にディスカッションし、抜け漏れが無いかおおまかに確認します。

プロセスの詳細を記述 : 壁に貼った紙の一番右にゴールを記述し、そこから左に向かって順番にプロセスを記述していきます。複数のプロセスを纏めて扱える場合は、枠で囲って分かりやすくしておきます。

また、プロセスの下にはその工程で必要な(かかった)時間を記入しておきます。

最終確認 : 記入したプロセスを全員で確認し、間違いや漏れをチェックします。

「ムダ」や「リスク」が発生している場所や理由を記入 : 各プロセスにおいて無駄な時間が発生していると考えている個所、問題が起こるリスクがある箇所に、その時間や理由と思われるもの(返信待ち、リソース的なボトルネック、環境やシステムのスケジュール調整不足、など)を記入していく。

改善方法のディスカッション :  「ムダ」と思われる箇所に対して、どのようにすれば「ムダ」を減らすことが出来るのかをディスカッションします。

Value Stream Mappingのサンプル

例えば、モバイルアプリを開発しており、そのテストに非常に多くの工数がかかっているとします。そのシステムの開発にかかわるマネージャ、各開発チーム、テストチームが集まってテストに関連したプロセスをValue Stream Mappingで書き出したとします。

このサンプルでは3つの問題点でテスト作業が遅延しており、セキュリティリスクも存在していたと判明しました。

  • テスト用デバイスを準備する際、他のチームが既に同じものを持っているか、自分たちがテストしたい時期にそのデバイスを借りられるかの確認に時間がかかっていた。
  • テスト作業を社外で行う場合があり、開発中のモバイルアプリを社外に持ち出す必要があったため情報漏洩のリスクがあった。
  • 実際にデバイスを使用してテストを行う際に、誰かが使用中の場合や故障で使用出来ないなどのケースがあり、テストが遅延する場合があった。

これらの問題点を確認し、以下のような解決策を検討することになると思います。

  • テスト用モバイルデバイスを社内で一元管理し、どのようなデバイスがあり、いつテストに使用出来るのかスケジュール管理も行える環境を用意する。
  • デバイスはVPNのネットワークアクセスで外部からもリモート操作可能にし、デバイスやアプリを外部に持ち出す必要が無いようにした。
  • デバイスを集中管理することで重複を減らし、削減出来た分を予備のデバイス準備に回すことで故障などによる突発的な原因によるテスト遅延を防ぐことにした。

Value Stream Mappingの代表的な表記

Value Stream Mappingの表記には様々なパターンがありますので、ネットで検索して自分の担当しているシステムに合ったものを見つけていただくのが良いかと思います。

今回のサンプルは、Microsoft Power Point用に配布されていた表記パターンを使用しており、以下のような意味で使用しています。

Value Stream Mappingの体験例

参考までに私が最初にValue Stream Mappingのファシリテータを行った際の情報を記載します。

会社 : IT系システム開発会社

対象プロジェクト : 社内のシステム開発プロジェクト

参加者 : 同プロジェクト内のチーム毎の代表の方々

実施時間 : 約半日

本来は複数の部署の代表に集まっていただくべきですが、初回ということもあり普段からお付き合いのあった部署の複数チームの方に集まっていただき、気兼ねなく現状や問題点に関してディスカッションいただく場としました。

“Agile開発とそれに伴うCI/CDに取り組みたいが普段の業務が忙しくて難しい”との悩みをお持ちでしたが、開発プロセスをValue Stream Mapに書き出しビルドプロセスを見直すことで、単体テストの実施を自動化できるかもしれないと改善ポイントを見出されていました。

それぞれのチームで分かれて作業していると開発プロセスを見直すということは合意を得るのが難しいですが、集まって問題点を全員で見つけて行くと自然な形で次に取り組むべき作業を認識することが出来、モチベーション高く自主的に作業を行っていけるようでした。

Value Stream Mappingの効果

実際にValue Stream Mappingを実施した結果、以下の効果を実感することが出来ました。

  • 各部署・チームの代表者が参加することで、情報共有と合意形成が可能
  • それぞれが課題や解決策を考えることで、自分自身の考えで改善を進めることが可能=>上層部からの指示やベンダー主導のPOCよりも、自主的な活動としての認識が強く生まれる
  • 上層部もオブザーバとして参加することで課題や改善必要性への理解が得られる=>活動の予算や工数の確保への承認が比較的容易

今回のまとめ

システム開発のプロセスを分析・改善する方法として、Value Stream Mappingが使用可能であることを説明しました。

Value Stream Mappingによって「ムダ」を見つけて改善し、リードタイムを短くすることで短期間でのシステム更新を可能にし、企業としてのDevOps導入と促進を

次回は、開発プロセスにおいて改善を進める意味・目的を改めて考える、Developer Experience(開発者体験)に関してお話いたします。

The post ◆◆DevOpsあれもこれも<第三回>◆◆ appeared first on OpenText Blogs.

]]>

Value Streamの見える化と最適化<Value Stream Mapping>

第一回、第二回でのValue Stream Managementのお話においては、システム開発における工数と品質の数値化に関して説明しました。

Value Stream Managementでは数値として「リードタイム」を重要視しており、その分析を行うことも出来る方法が今回の主題であるValue Stream Mappingです。

~ Value Stream Mappingとは ~

Value Stream Mappingは以下のように説明されています。

“Value Stream Management の中でも、業務プロセスを「物と情報の流れ」の図によって表すことで価値を効率よく生み出す部分と無駄の多い部分を明確にし、システム開発においてはリードタイムを短くすることに大きな効果を発揮する” 以下のような図を作成してボトルネックや問題点、リスクなどの分析使用出来ます。

システム開発においてリードタイムを短くすることが可能になるものだと分かりますが、そもそもリードタイムとは何でしょうか。

リードタイムを説明すると “工程や作業の最初から最後までにかかる時間”となりますので、例えば開発したシステムのアプリをテストするためのモバイルデバイスを調達にかかる時間で考えてみます。

リードタイム = ‘デバイスを入手した時間‘ - ‘デバイス調達を開始した時間’

処理全体では以下のような様々な工程が必要となるかと思います。

  • 必要な機種を選定する
  • 価格を調査する
  • 業者を選定する
  • 業者から見積りを入手する
  • 予算申請を行う
  • 予算許可を入手する
  • 購入処理を行う
  • デバイスを受け取る

この工程全体にかかる時間(期間)ですが、実際には“機種選定で議論する時間”、“業者に依頼してから見積りが来るまでの時間”、“購入してからデバイスが届くまでの時間”などのタイトルからは見えない作業や待ち時間が含まれているはずです。

このように工程を洗い出し、かかっている時間を細かい単位で分析したのち、作業の時間短縮や待ち時間の解消など改善ポイントを探すことでリードタイムの削減を進めます。

実際にはどのようにして分析を行うのか見てみましょう。

Value Stream Mappingの事前準備

Value Stream Mappingは各チーム、部署の代表者が同じ場所に集まって行います。

開発するシステムが複数のサブシステム/サービスに分かれている場合はそれぞれの代表、またセキュリティやネットワーク、データベースなどそれぞれのチームの代表およびマネージャも参加して進めます。

このため、事前の連絡やスケジュール調整が大変重要になりますので、組織を横断して声がけが可能な方の協力を得て進めて下さい。

集まってからValue Stream Mapを完成させるまで短くても半日以上の時間がかかりますので、参加者には目的と時間、当日の作業内容を伝え、事前に理解してもう必要があると思います。

Value Stream Mapping当日は参加者全員が収容可能な部屋と10枚ほどの大きな紙、3色以上のペン(マジック)を数セット用意しておきます。

準備が整ったら、ファシリテータ(あなた)がValue Stream Mappingの概要を説明し、壁に貼った紙に対してどのようにValue Stream Mapを記入していくのか方法を説明します。

記入は参加者自身にやっていただきます。

Value Stream Mappingの分析の流れ

Value Stream Mappingは以下のような流れで実施します。

  1. アーキテクチャ全体象の共有
  2. プロセスに関するディスカッション
  3. プロセスの詳細を記述
  4. 最終確認
  5. 「ムダ」および「リスク」の場所や理由を記入
  6. 改善方法のディスカッション

アーキテクチャ全体像の共有 : 代表者が対象システムの全体像を説明し、各チームの代表から不足点を補足説明してもらうことで、全体像を共有します。

プロセスに関するディスカッション : システムのプロセス(流れ)を紙に書き出す前にディスカッションし、抜け漏れが無いかおおまかに確認します。

プロセスの詳細を記述 : 壁に貼った紙の一番右にゴールを記述し、そこから左に向かって順番にプロセスを記述していきます。複数のプロセスを纏めて扱える場合は、枠で囲って分かりやすくしておきます。

また、プロセスの下にはその工程で必要な(かかった)時間を記入しておきます。

最終確認 : 記入したプロセスを全員で確認し、間違いや漏れをチェックします。

「ムダ」や「リスク」が発生している場所や理由を記入 : 各プロセスにおいて無駄な時間が発生していると考えている個所、問題が起こるリスクがある箇所に、その時間や理由と思われるもの(返信待ち、リソース的なボトルネック、環境やシステムのスケジュール調整不足、など)を記入していく。

改善方法のディスカッション :  「ムダ」と思われる箇所に対して、どのようにすれば「ムダ」を減らすことが出来るのかをディスカッションします。

Value Stream Mappingのサンプル

例えば、モバイルアプリを開発しており、そのテストに非常に多くの工数がかかっているとします。そのシステムの開発にかかわるマネージャ、各開発チーム、テストチームが集まってテストに関連したプロセスをValue Stream Mappingで書き出したとします。

このサンプルでは3つの問題点でテスト作業が遅延しており、セキュリティリスクも存在していたと判明しました。

  • テスト用デバイスを準備する際、他のチームが既に同じものを持っているか、自分たちがテストしたい時期にそのデバイスを借りられるかの確認に時間がかかっていた。
  • テスト作業を社外で行う場合があり、開発中のモバイルアプリを社外に持ち出す必要があったため情報漏洩のリスクがあった。
  • 実際にデバイスを使用してテストを行う際に、誰かが使用中の場合や故障で使用出来ないなどのケースがあり、テストが遅延する場合があった。

これらの問題点を確認し、以下のような解決策を検討することになると思います。

  • テスト用モバイルデバイスを社内で一元管理し、どのようなデバイスがあり、いつテストに使用出来るのかスケジュール管理も行える環境を用意する。
  • デバイスはVPNのネットワークアクセスで外部からもリモート操作可能にし、デバイスやアプリを外部に持ち出す必要が無いようにした。
  • デバイスを集中管理することで重複を減らし、削減出来た分を予備のデバイス準備に回すことで故障などによる突発的な原因によるテスト遅延を防ぐことにした。

Value Stream Mappingの代表的な表記

Value Stream Mappingの表記には様々なパターンがありますので、ネットで検索して自分の担当しているシステムに合ったものを見つけていただくのが良いかと思います。

今回のサンプルは、Microsoft Power Point用に配布されていた表記パターンを使用しており、以下のような意味で使用しています。

Value Stream Mappingの体験例

参考までに私が最初にValue Stream Mappingのファシリテータを行った際の情報を記載します。

会社 : IT系システム開発会社

対象プロジェクト : 社内のシステム開発プロジェクト

参加者 : 同プロジェクト内のチーム毎の代表の方々

実施時間 : 約半日

本来は複数の部署の代表に集まっていただくべきですが、初回ということもあり普段からお付き合いのあった部署の複数チームの方に集まっていただき、気兼ねなく現状や問題点に関してディスカッションいただく場としました。

“Agile開発とそれに伴うCI/CDに取り組みたいが普段の業務が忙しくて難しい”との悩みをお持ちでしたが、開発プロセスをValue Stream Mapに書き出しビルドプロセスを見直すことで、単体テストの実施を自動化できるかもしれないと改善ポイントを見出されていました。

それぞれのチームで分かれて作業していると開発プロセスを見直すということは合意を得るのが難しいですが、集まって問題点を全員で見つけて行くと自然な形で次に取り組むべき作業を認識することが出来、モチベーション高く自主的に作業を行っていけるようでした。

Value Stream Mappingの効果

実際にValue Stream Mappingを実施した結果、以下の効果を実感することが出来ました。

  • 各部署・チームの代表者が参加することで、情報共有と合意形成が可能
  • それぞれが課題や解決策を考えることで、自分自身の考えで改善を進めることが可能=>上層部からの指示やベンダー主導のPOCよりも、自主的な活動としての認識が強く生まれる
  • 上層部もオブザーバとして参加することで課題や改善必要性への理解が得られる=>活動の予算や工数の確保への承認が比較的容易

今回のまとめ

システム開発のプロセスを分析・改善する方法として、Value Stream Mappingが使用可能であることを説明しました。

Value Stream Mappingによって「ムダ」を見つけて改善し、リードタイムを短くすることで短期間でのシステム更新を可能にし、企業としてのDevOps導入と促進を

次回は、開発プロセスにおいて改善を進める意味・目的を改めて考える、Developer Experience(開発者体験)に関してお話いたします。

The post ◆◆DevOpsあれもこれも<第三回>◆◆ appeared first on OpenText Blogs.

]]>
プロアクティブにサイバー防御を強化:OpenText Threat Intelligence™ (BrightCloud) https://blogs.opentext.com/ja/opentext-threat-intelligence-brightcloud-empowering-proactive-cyber-defense-jp/ Fri, 13 Jun 2025 06:30:00 +0000 https://blogs.opentext.com/?p=999308915

急速に進化するAI主導のサイバーセキュリティ環境において、脅威は日々巧妙化しています。ネットワーク、エンドポイントセキュリティ、クラウドサービス、サイバーセキュリティのいずれのプロバイダーであっても、常に時代の先を行くためには、適切な脅威インテリジェンスパートナーを選択することが、サービスのセキュリティ強化と製品の差別化、そして顧客が求めるプレミアムソリューションの提供につながります。

逆に、間違った選択をするとブランドの価値が損なわれ、顧客が次のようなリスクにさらされる可能性があります。

  • 古いデータ:オープンソースデータや基準を満たしていないデータを使用すると、フィッシングなどの高度なAIを活用した脅威に対して脆弱になる可能性がありますIBM/Ponemon’s 2024 reportによると、フィッシングは2番目に多く、最もコストの高い攻撃ベクトルであり、侵害1件あたり平均488万ドルの被害が出ています。
  • 対応時間の遅さ:アップデートの遅れは、ランサムウェアのような急速に変化する脅威に顧客をさらすことになります。同じIBMのレポートによると、ランサムウェアによる侵害の特定には平均211日(約7か月)かかるとのことです。
  • 誤検知:不正確で誤解を招くデータは、既にリソース不足に陥っているセキュリティチームにとってさらなる負担となります。The Verizon 2024 DBIR(データ漏洩/侵害報告)によると、侵害を受けた組織の56%が深刻な人員不足に直面しており、これは前年比26.2%の増加です。

オペレーショナルインテリジェンスが重要な理由:集中的なアプローチ

脅威インテリジェンスは、大きく分けて 3 つのカテゴリに分類されます。

  • 戦略的インテリジェンスは、脅威の主体である「誰が」と「なぜ」を取り上げ、その動機に焦点を当てており、主に非技術的なホワイトペーパーやレポートとして提供されます。
  • 戦術的インテリジェンスは、脅威の「方法」と「場所」を説明し、通常、MITRE ATT&CK などのフレームワークを使用して戦術、手法、手順 (TTP) を特定します。
  • BrightCloudが特に優れているのは、運用インテリジェンスです。「何を」という問いに答えます。つまり、今何をブロックできるのか?リアルタイムで実用的な、機械可読なデータを提供することで、進化する脅威への自動対応を可能にします。

OpenText Threat Intelligence (BrightCloud)の優位性:脅威インテリジェンスの世界的リーダー

BrightCloudは、Cisco、Akamai、HPE、F5といった業界リーダーを含む140社以上のOEMパートナーと提携し、インターネットアクセス用のエンタープライズハードウェアアプライアンスの85%にソフトウェアを組み込んでいます。これらのアプライアンスには、ファイアウォール、ルーター、Webプロキシ、メール保護システムなどがあり、BrightCloudのソフトウェアは世界中の数百万の企業で使用されているのです。

BrightCloudが際立つ理由:

  • 比類のない可視性:BrightCloudの包括的なセンサーネットワークは、最新の脅威インテリジェンスを確保します。フィードバックループは数百万台のデバイスから継続的にデータを収集し、脅威検出を強化し、予測インテリジェンスをより洗練させます。
  • 超高速公開:BrightCloud のクラウドベースのインフラストラクチャにより、どこよりも迅速に更新をリリースできるため、顧客の防御が常に最新の状態に保たれます。
  • 高度なスコアリング アルゴリズム:BrightCloud は、脅威の履歴、位置情報、ネットワーク/ハイパーリンクの信頼レベル、所有者組織の評判など、複数のリスク次元に基づいて脅威を評価するスコアリング アルゴリズムを使用して、精度を向上させ、誤検知を減らします。
  • コンテキスト インテリジェンス:BrightCloud は、URL、IP、ファイル、モバイル アプリ間の関係をマッピングすることで、より深い洞察を提供し、脅威に対する理解を深めます。
  • 予測インテリジェンス:BrightCloud の第 6 世代機械学習は潜在的な攻撃ベクトルを予測し、組織が将来の脅威に対して積極的に防御できるようにします。
  • リアルタイムの脅威ブロック:BrightCloud は、数十億の IP アドレスとファイルの動作記録を追跡することで、フィッシング、マルウェア、ランサムウェアなどをリアルタイムでブロックし、パートナーが侵害による被害が発生する前に阻止できるようにします。

お客様の声:成功事例

  • 「BrightCloudのIPレピュテーションデータは包括的​​で統合が容易なため、NetScalerのお客様はセキュリティプロセスを制御して簡素化できます」— Cloud Software Group(旧Citrix)社、NetScaler製品マーケティングディレクター、Jason Poole氏
  • 「BrightCloud はゼロトラスト アーキテクチャへの移行を推進し、お客様が最新の脅威データを入手してよりスマートな意思決定を行えるようにします。」 — Absolute Software (旧 NetMotion)社、元 CEO、Christopher Kenessey氏
  • A10 Networks社の活用事例:A10 Networks社は、BrightCloud Threat IntelligenceをTLS 復号化ソリューションに統合し、悪意のあるトラフィックをブロック。コンプライアンスのために分類されたURLリストを提供し、セキュリティポリシーを最適化するための分析を提供しました。

従来の脅威インテリジェンスを超える:OpenText Threat Intelligence (BrightCloud)の包括的なダイナミックサービススイート

BrightCloud は、複数のドメインにわたる保護を提供する一連の動的サービスにより、従来の運用インテリジェンスを超えています。

  • BrightCloud Threat Intelligence Servicesは、高度な AI とコンテキスト分析を使用して、悪意のある動作の可能性を予測します。
  • Web 分類および Web レピュテーションサービスは、10 億を超えるドメイン/サブドメインと数十億のURLを追跡し、複数のコンテキスト要因と動作要因に基づいてレピュテーションスコアを割り当てます。
  • ファイル レピュテーションは、数十億件の記録を含む実行可能ファイルの動作履歴を活用し、パートナーがマルウェアやその他の脅威をブロックできるようにします。
  • リアルタイムアンチフィッシングは、フィッシング攻撃に対するリアルタイムの保護を実現します。Verizonの2024年DBIR(デジタル・ビジネス・インテリジェンス・レポート)によると、ユーザーは通常、フィッシングリンクを受信して​​から60秒以内にクリックしているため、スピードが重要です。
  • クラウドサービスインテリジェンス:クラウドアプリケーション内の危険な動作を識別し、信頼できるサービスのみにアクセスできるようにします。
  • ストリーミングマルウェアの検出:動的なファイル分析により、ポリモーフィック型マルウェアが拡散する前に検出します。OpenTextの2024年脅威レポートによると、マルウェアを含むメール添付ファイルの量は2023年に35%増加しました。

OpenText Threat Intelligence (BrightCloud)との連携:シームレスな統合と強化されたセキュリティ

BrightCloudのモデルは、パートナー製品やサービスへの迅速かつ柔軟な統合を可能にし、最小限のリソース投資で高度なセキュリティソリューションの提供を支援します。これにより、導入コストの削減、市場投入までの時間の短縮、そして顧客エクスペリエンスの向上につながります。

現代の脅威に対抗するには、数の力こそが鍵となります。BrightCloud Threat Intelligence パートナーネットワークにご参加いただくことで、検知網が拡大し、より早期かつ正確に攻撃者を阻止できるようになり、すべてのパートナーを保護できます。

結論:OpenText Threat Intelligence (BrightCloud) がリアルタイムのサイバー防御を強化

組織は、包括的な運用インテリジェンス プラットフォームとしてBrightCloud を選択することで、プレミアム サービスの提供、優れた脅威インテリジェンスの配信、進化する顧客の要求への対応、製品の差別化による競争優位性の獲得を通じて収益成長が促進されます。

BrightCloud の詳細については、Webサイトをご覧ください。パートナーになる方法についてもお気軽にお問い合わせください。

The post プロアクティブにサイバー防御を強化:OpenText Threat Intelligence™ (BrightCloud) appeared first on OpenText Blogs.

]]>

急速に進化するAI主導のサイバーセキュリティ環境において、脅威は日々巧妙化しています。ネットワーク、エンドポイントセキュリティ、クラウドサービス、サイバーセキュリティのいずれのプロバイダーであっても、常に時代の先を行くためには、適切な脅威インテリジェンスパートナーを選択することが、サービスのセキュリティ強化と製品の差別化、そして顧客が求めるプレミアムソリューションの提供につながります。

逆に、間違った選択をするとブランドの価値が損なわれ、顧客が次のようなリスクにさらされる可能性があります。

  • 古いデータ:オープンソースデータや基準を満たしていないデータを使用すると、フィッシングなどの高度なAIを活用した脅威に対して脆弱になる可能性がありますIBM/Ponemon’s 2024 reportによると、フィッシングは2番目に多く、最もコストの高い攻撃ベクトルであり、侵害1件あたり平均488万ドルの被害が出ています。
  • 対応時間の遅さ:アップデートの遅れは、ランサムウェアのような急速に変化する脅威に顧客をさらすことになります。同じIBMのレポートによると、ランサムウェアによる侵害の特定には平均211日(約7か月)かかるとのことです。
  • 誤検知:不正確で誤解を招くデータは、既にリソース不足に陥っているセキュリティチームにとってさらなる負担となります。The Verizon 2024 DBIR(データ漏洩/侵害報告)によると、侵害を受けた組織の56%が深刻な人員不足に直面しており、これは前年比26.2%の増加です。

オペレーショナルインテリジェンスが重要な理由:集中的なアプローチ

脅威インテリジェンスは、大きく分けて 3 つのカテゴリに分類されます。

  • 戦略的インテリジェンスは、脅威の主体である「誰が」と「なぜ」を取り上げ、その動機に焦点を当てており、主に非技術的なホワイトペーパーやレポートとして提供されます。
  • 戦術的インテリジェンスは、脅威の「方法」と「場所」を説明し、通常、MITRE ATT&CK などのフレームワークを使用して戦術、手法、手順 (TTP) を特定します。
  • BrightCloudが特に優れているのは、運用インテリジェンスです。「何を」という問いに答えます。つまり、今何をブロックできるのか?リアルタイムで実用的な、機械可読なデータを提供することで、進化する脅威への自動対応を可能にします。

OpenText Threat Intelligence (BrightCloud)の優位性:脅威インテリジェンスの世界的リーダー

BrightCloudは、Cisco、Akamai、HPE、F5といった業界リーダーを含む140社以上のOEMパートナーと提携し、インターネットアクセス用のエンタープライズハードウェアアプライアンスの85%にソフトウェアを組み込んでいます。これらのアプライアンスには、ファイアウォール、ルーター、Webプロキシ、メール保護システムなどがあり、BrightCloudのソフトウェアは世界中の数百万の企業で使用されているのです。

BrightCloudが際立つ理由:

  • 比類のない可視性:BrightCloudの包括的なセンサーネットワークは、最新の脅威インテリジェンスを確保します。フィードバックループは数百万台のデバイスから継続的にデータを収集し、脅威検出を強化し、予測インテリジェンスをより洗練させます。
  • 超高速公開:BrightCloud のクラウドベースのインフラストラクチャにより、どこよりも迅速に更新をリリースできるため、顧客の防御が常に最新の状態に保たれます。
  • 高度なスコアリング アルゴリズム:BrightCloud は、脅威の履歴、位置情報、ネットワーク/ハイパーリンクの信頼レベル、所有者組織の評判など、複数のリスク次元に基づいて脅威を評価するスコアリング アルゴリズムを使用して、精度を向上させ、誤検知を減らします。
  • コンテキスト インテリジェンス:BrightCloud は、URL、IP、ファイル、モバイル アプリ間の関係をマッピングすることで、より深い洞察を提供し、脅威に対する理解を深めます。
  • 予測インテリジェンス:BrightCloud の第 6 世代機械学習は潜在的な攻撃ベクトルを予測し、組織が将来の脅威に対して積極的に防御できるようにします。
  • リアルタイムの脅威ブロック:BrightCloud は、数十億の IP アドレスとファイルの動作記録を追跡することで、フィッシング、マルウェア、ランサムウェアなどをリアルタイムでブロックし、パートナーが侵害による被害が発生する前に阻止できるようにします。

お客様の声:成功事例

  • 「BrightCloudのIPレピュテーションデータは包括的​​で統合が容易なため、NetScalerのお客様はセキュリティプロセスを制御して簡素化できます」— Cloud Software Group(旧Citrix)社、NetScaler製品マーケティングディレクター、Jason Poole氏
  • 「BrightCloud はゼロトラスト アーキテクチャへの移行を推進し、お客様が最新の脅威データを入手してよりスマートな意思決定を行えるようにします。」 — Absolute Software (旧 NetMotion)社、元 CEO、Christopher Kenessey氏
  • A10 Networks社の活用事例:A10 Networks社は、BrightCloud Threat IntelligenceをTLS 復号化ソリューションに統合し、悪意のあるトラフィックをブロック。コンプライアンスのために分類されたURLリストを提供し、セキュリティポリシーを最適化するための分析を提供しました。

従来の脅威インテリジェンスを超える:OpenText Threat Intelligence (BrightCloud)の包括的なダイナミックサービススイート

BrightCloud は、複数のドメインにわたる保護を提供する一連の動的サービスにより、従来の運用インテリジェンスを超えています。

  • BrightCloud Threat Intelligence Servicesは、高度な AI とコンテキスト分析を使用して、悪意のある動作の可能性を予測します。
  • Web 分類および Web レピュテーションサービスは、10 億を超えるドメイン/サブドメインと数十億のURLを追跡し、複数のコンテキスト要因と動作要因に基づいてレピュテーションスコアを割り当てます。
  • ファイル レピュテーションは、数十億件の記録を含む実行可能ファイルの動作履歴を活用し、パートナーがマルウェアやその他の脅威をブロックできるようにします。
  • リアルタイムアンチフィッシングは、フィッシング攻撃に対するリアルタイムの保護を実現します。Verizonの2024年DBIR(デジタル・ビジネス・インテリジェンス・レポート)によると、ユーザーは通常、フィッシングリンクを受信して​​から60秒以内にクリックしているため、スピードが重要です。
  • クラウドサービスインテリジェンス:クラウドアプリケーション内の危険な動作を識別し、信頼できるサービスのみにアクセスできるようにします。
  • ストリーミングマルウェアの検出:動的なファイル分析により、ポリモーフィック型マルウェアが拡散する前に検出します。OpenTextの2024年脅威レポートによると、マルウェアを含むメール添付ファイルの量は2023年に35%増加しました。

OpenText Threat Intelligence (BrightCloud)との連携:シームレスな統合と強化されたセキュリティ

BrightCloudのモデルは、パートナー製品やサービスへの迅速かつ柔軟な統合を可能にし、最小限のリソース投資で高度なセキュリティソリューションの提供を支援します。これにより、導入コストの削減、市場投入までの時間の短縮、そして顧客エクスペリエンスの向上につながります。

現代の脅威に対抗するには、数の力こそが鍵となります。BrightCloud Threat Intelligence パートナーネットワークにご参加いただくことで、検知網が拡大し、より早期かつ正確に攻撃者を阻止できるようになり、すべてのパートナーを保護できます。

結論:OpenText Threat Intelligence (BrightCloud) がリアルタイムのサイバー防御を強化

組織は、包括的な運用インテリジェンス プラットフォームとしてBrightCloud を選択することで、プレミアム サービスの提供、優れた脅威インテリジェンスの配信、進化する顧客の要求への対応、製品の差別化による競争優位性の獲得を通じて収益成長が促進されます。

BrightCloud の詳細については、Webサイトをご覧ください。パートナーになる方法についてもお気軽にお問い合わせください。

The post プロアクティブにサイバー防御を強化:OpenText Threat Intelligence™ (BrightCloud) appeared first on OpenText Blogs.

]]>
OpenTextは、SAPによる企業のビジネス変革を支援 https://blogs.opentext.com/ja/powerful-enabler-of-sap-driven-business-transformation-jp/ Fri, 13 Jun 2025 00:39:21 +0000 https://blogs.opentext.com/?p=999308796

SAP® Pinnacle Awardで複数のPartner Excellence Awardsを受賞

OpenTextは、企業が情報の価値を最大限に高められるよう支援しています。お客様の成功は、私たちのすべての活動の中核を成しています。大企業から中小企業まで、お客様はOpenTextを活用してナレッジとアクションを結びつけ、イノベーションの推進、効率性の向上、そして成長の促進に役立てています。だからこそ、複数の地域でSAP® Pinnacle Awardの「 Solution Extensions Partner Awards」を受賞できたことを誇りに思います。これは、OpenTextのソリューションが世界中のお客様のイノベーションとビジネス変革の推進に大きく貢献していることの証です。

これらの名誉ある賞は、OpenTextがSAP Solution Extensionsにおいて継続的にリーダーシップを発揮していることを明らかにするものであり、組織がSAPへの投資を最適化するための信頼できるパートナーとして私たちの役割を強固なものにしています。SAPとの緊密な連携により、企業の効率性向上、コンプライアンス強化、そして重要なインサイトの獲得を支援するエンタープライズ情報管理ソリューションを提供し、クラウドへの移行を加速させています。

OpenText は次の各賞を受賞しています。

  • SAP Regional Partner Excellence Award 2025 for Solution Extensions – MEE
  • Partner Excellence for SAP Solution Extensions for Highest Software Partner Contributor in ACV Bookings – EMEA 1
  • SAP Regional Partner Excellence Award 2025 for Solution Extensions – APJ
  • Top Revenue Generating SolEx Partner of the year – US

これらの成果は、世界中のお客様に最先端のソリューションと優れた成果を提供するという当社チームの献身的な努力を反映しています。

お客様にとっての価値

OpenTextとSAPの連携により、企業は重要な組織内の情報にシームレスにアクセスでき、適切に管理できるようになり、俊敏性と効率性を新たなレベルに引き上げることができます。当社の統合ソリューションは以下のとおりです。

  • 主要なビジネスプロセスの強化 - SAP環境全体にわたる自動化、インテリジェンス、柔軟性の提供
  • クラウド変革のサポート - お客様のSAP S/4HANA Cloud ERPへの移行を加速
  • コンプライアンスとコスト管理の確保 - 運用コストを最適化しながらガバナンスを強化
  • 従業員エクスペリエンスの向上 - SAP SuccessFactorsによるシームレスなデジタルHRファイル管理を実現

OpenTextのSAPパートナーシップ担当バイスプレジデント、Mark Baillieは、今回の受賞の重要性を強調しました。「今回の受賞は、SAPとの長年にわたるパートナーシップの強さを改めて示すものであり、両社はビジネス変革を推進する革新的なエンタープライズ情報管理ソリューションを共同で提供することを示しています。エンタープライズ情報管理機能とSAPの強力なデータドリブン型ソリューションを統合することで、組織が新たな洞察と俊敏性を獲得し、変化する市場の需要に迅速に対応できるよう支援します。」

お客様の成功へー共通のコミットメント

これらの賞を獲得できたのは、営業、プリセールス、パートナー、マーケティング、プロフェッショナルサービス、そして研究開発といった部門を横断する、私たちの共通の目標、つまり共通のお客様に最良の結果を提供するという目標に向かって尽力してきた結果ととらえています。」

私たちはますますデジタル化が進む世界において、SAPと共にイノベーションを促進し、世界中の企業がEnterprise Information Managementの力を最大限に活用し、よりスマートで迅速な意思決定を促進できるよう支援していきたいと考えています。

The post OpenTextは、SAPによる企業のビジネス変革を支援 appeared first on OpenText Blogs.

]]>

SAP® Pinnacle Awardで複数のPartner Excellence Awardsを受賞

OpenTextは、企業が情報の価値を最大限に高められるよう支援しています。お客様の成功は、私たちのすべての活動の中核を成しています。大企業から中小企業まで、お客様はOpenTextを活用してナレッジとアクションを結びつけ、イノベーションの推進、効率性の向上、そして成長の促進に役立てています。だからこそ、複数の地域でSAP® Pinnacle Awardの「 Solution Extensions Partner Awards」を受賞できたことを誇りに思います。これは、OpenTextのソリューションが世界中のお客様のイノベーションとビジネス変革の推進に大きく貢献していることの証です。

これらの名誉ある賞は、OpenTextがSAP Solution Extensionsにおいて継続的にリーダーシップを発揮していることを明らかにするものであり、組織がSAPへの投資を最適化するための信頼できるパートナーとして私たちの役割を強固なものにしています。SAPとの緊密な連携により、企業の効率性向上、コンプライアンス強化、そして重要なインサイトの獲得を支援するエンタープライズ情報管理ソリューションを提供し、クラウドへの移行を加速させています。

OpenText は次の各賞を受賞しています。

  • SAP Regional Partner Excellence Award 2025 for Solution Extensions – MEE
  • Partner Excellence for SAP Solution Extensions for Highest Software Partner Contributor in ACV Bookings – EMEA 1
  • SAP Regional Partner Excellence Award 2025 for Solution Extensions – APJ
  • Top Revenue Generating SolEx Partner of the year – US

これらの成果は、世界中のお客様に最先端のソリューションと優れた成果を提供するという当社チームの献身的な努力を反映しています。

お客様にとっての価値

OpenTextとSAPの連携により、企業は重要な組織内の情報にシームレスにアクセスでき、適切に管理できるようになり、俊敏性と効率性を新たなレベルに引き上げることができます。当社の統合ソリューションは以下のとおりです。

  • 主要なビジネスプロセスの強化 - SAP環境全体にわたる自動化、インテリジェンス、柔軟性の提供
  • クラウド変革のサポート - お客様のSAP S/4HANA Cloud ERPへの移行を加速
  • コンプライアンスとコスト管理の確保 - 運用コストを最適化しながらガバナンスを強化
  • 従業員エクスペリエンスの向上 - SAP SuccessFactorsによるシームレスなデジタルHRファイル管理を実現

OpenTextのSAPパートナーシップ担当バイスプレジデント、Mark Baillieは、今回の受賞の重要性を強調しました。「今回の受賞は、SAPとの長年にわたるパートナーシップの強さを改めて示すものであり、両社はビジネス変革を推進する革新的なエンタープライズ情報管理ソリューションを共同で提供することを示しています。エンタープライズ情報管理機能とSAPの強力なデータドリブン型ソリューションを統合することで、組織が新たな洞察と俊敏性を獲得し、変化する市場の需要に迅速に対応できるよう支援します。」

お客様の成功へー共通のコミットメント

これらの賞を獲得できたのは、営業、プリセールス、パートナー、マーケティング、プロフェッショナルサービス、そして研究開発といった部門を横断する、私たちの共通の目標、つまり共通のお客様に最良の結果を提供するという目標に向かって尽力してきた結果ととらえています。」

私たちはますますデジタル化が進む世界において、SAPと共にイノベーションを促進し、世界中の企業がEnterprise Information Managementの力を最大限に活用し、よりスマートで迅速な意思決定を促進できるよう支援していきたいと考えています。

The post OpenTextは、SAPによる企業のビジネス変革を支援 appeared first on OpenText Blogs.

]]>
セイコーエプソンは、EDIの共通化/標準化を進めるためOpenTextを採用 https://blogs.opentext.com/ja/bn-user-case-studies-epson-jp/ Wed, 04 Jun 2025 08:13:50 +0000 https://blogs.opentext.com/?p=999308745

セイコーエプソン株式会社(以下、エプソン)はグローバル経営基盤変革プロジェクトにおいて、基幹システムのグローバル統合とEDIの共通化/標準化を進めるため、OpenText B2B Integration Enterpriseを採用。国内販売会社への展開によって取引先とのEDI接続の難易度を下げ、スピード化を図っています。将来的には海外生産拠点、海外販売拠点へのWeb-EDI導入も計画中で、タイムリーなデータ供給と迅速な経営判断、ガバナンスの強化に寄与していく方針です。

グループ全体のITシステムを標準化するグローバル経営基盤変革(GX)プロジェクト

「省・小・精の技術」を核に、プリンター、プロジェクター、産業用ロボット、水晶デバイス、半導体などの製造・販売を手がけるエプソン。現在、長期ビジョン「Epson 25 Renewed」のもと、「環境」「DX」「共創」を重点に取り組んでいます。

DXを重要な経営戦略に位置付ける同社では、強固なデジタルプラットフォームによる新たな価値の創出を目指しています。その1つが、グループ全体のグローバル経営基盤変革(GX)プロジェクトです。DX推進本部 IT企画設計部 部長の小口俊樹氏は次のように語ります。

「GXプロジェクトの目的は3つあります。1つめは、経営意思決定支援の強化です。世界中の販売拠点・製造拠点のデータをリアルタイムに把握し、的確で迅速な経営判断を実現します。2つめのガバナンス強化では、世界中の事業部のデータを統一し、経営の意思を反映した事業活動を実施します。3つめが低生産性・長時間労働からの脱却で、スタッフを高付加価値業務に集中させることを目指します」

同社は上記の目標に向けてグローバルデータベースの構築、業務プロセスとシステムの標準化、ガバナンス強化を並行して進め、2030年までにERP(SAP S/4HANA)をコアとするシステム更新を進める計画です。

OpenText B2B Integration Enterpriseでグループ共通のEDI基盤を構築

エプソンはERPの刷新に伴い、仕入先、販売先、国内外のグループ会社、物流会社、金融機関などとの企業間通信を行うEDI基盤も全面刷新することにしました。

The post セイコーエプソンは、EDIの共通化/標準化を進めるためOpenTextを採用 appeared first on OpenText Blogs.

]]>

セイコーエプソン株式会社(以下、エプソン)はグローバル経営基盤変革プロジェクトにおいて、基幹システムのグローバル統合とEDIの共通化/標準化を進めるため、OpenText B2B Integration Enterpriseを採用。国内販売会社への展開によって取引先とのEDI接続の難易度を下げ、スピード化を図っています。将来的には海外生産拠点、海外販売拠点へのWeb-EDI導入も計画中で、タイムリーなデータ供給と迅速な経営判断、ガバナンスの強化に寄与していく方針です。

グループ全体のITシステムを標準化するグローバル経営基盤変革(GX)プロジェクト

「省・小・精の技術」を核に、プリンター、プロジェクター、産業用ロボット、水晶デバイス、半導体などの製造・販売を手がけるエプソン。現在、長期ビジョン「Epson 25 Renewed」のもと、「環境」「DX」「共創」を重点に取り組んでいます。

DXを重要な経営戦略に位置付ける同社では、強固なデジタルプラットフォームによる新たな価値の創出を目指しています。その1つが、グループ全体のグローバル経営基盤変革(GX)プロジェクトです。DX推進本部 IT企画設計部 部長の小口俊樹氏は次のように語ります。

「GXプロジェクトの目的は3つあります。1つめは、経営意思決定支援の強化です。世界中の販売拠点・製造拠点のデータをリアルタイムに把握し、的確で迅速な経営判断を実現します。2つめのガバナンス強化では、世界中の事業部のデータを統一し、経営の意思を反映した事業活動を実施します。3つめが低生産性・長時間労働からの脱却で、スタッフを高付加価値業務に集中させることを目指します」

同社は上記の目標に向けてグローバルデータベースの構築、業務プロセスとシステムの標準化、ガバナンス強化を並行して進め、2030年までにERP(SAP S/4HANA)をコアとするシステム更新を進める計画です。

OpenText B2B Integration Enterpriseでグループ共通のEDI基盤を構築

エプソンはERPの刷新に伴い、仕入先、販売先、国内外のグループ会社、物流会社、金融機関などとの企業間通信を行うEDI基盤も全面刷新することにしました。

The post セイコーエプソンは、EDIの共通化/標準化を進めるためOpenTextを採用 appeared first on OpenText Blogs.

]]>
みずほ銀行の勘定系システム「MINORI」のUIテストをOpenText™  Functional Testing で自動化しテスト工数を大幅削減 https://blogs.opentext.com/ja/devops-customer-case-mizuhord-jp/ Tue, 03 Jun 2025 07:39:31 +0000 https://blogs.opentext.com/?p=999308777

みずほリサーチ&テクノロジーズ株式会社は、みずほ銀行の勘定系システム「MINORI」の開発における業務効率化と品質向上を目的に、3,500画面/60万項目に及ぶUIテストの自動化に取り組みました。OpenText Functional Testingを活用してテスト打鍵自動化ツール「MIBOT」を開発し、従来8日間かかっていたテスト作業を3時間に短縮。大量の打鍵テストに必要な要員数も85名から9名まで削減するなど、大幅な効率化を実現しています。
 
詳細はこちら
https://www.microfocus-enterprise.co.jp/casestudies/pdfs/mizuho.pdf
 
この製品の詳細はこちらをご覧ください
https://www.opentext.com/ja-jp/products/functional-testing

The post みずほ銀行の勘定系システム「MINORI」のUIテストをOpenText™  Functional Testing で自動化しテスト工数を大幅削減 appeared first on OpenText Blogs.

]]>

みずほリサーチ&テクノロジーズ株式会社は、みずほ銀行の勘定系システム「MINORI」の開発における業務効率化と品質向上を目的に、3,500画面/60万項目に及ぶUIテストの自動化に取り組みました。OpenText Functional Testingを活用してテスト打鍵自動化ツール「MIBOT」を開発し、従来8日間かかっていたテスト作業を3時間に短縮。大量の打鍵テストに必要な要員数も85名から9名まで削減するなど、大幅な効率化を実現しています。
 
詳細はこちら
https://www.microfocus-enterprise.co.jp/casestudies/pdfs/mizuho.pdf
 
この製品の詳細はこちらをご覧ください
https://www.opentext.com/ja-jp/products/functional-testing

The post みずほ銀行の勘定系システム「MINORI」のUIテストをOpenText™  Functional Testing で自動化しテスト工数を大幅削減 appeared first on OpenText Blogs.

]]>
脅威ハンティングにおけるAI活用の進化 https://blogs.opentext.com/ja/using-ai-in-threat-hunting-jp/ Mon, 02 Jun 2025 05:51:22 +0000 https://blogs.opentext.com/?p=999308778

~生成AIと行動分析による高度な脅威検知~

サイバー攻撃の高度化と巧妙化が進み、従来の防御型セキュリティだけでは対応が難しくなっています。APT(高度持続的脅威)や内部不正など、表面的なアラートだけでは捉えきれない脅威に対し、能動的にリスクを検知・分析・対応する脅威ハンティングの重要性が増しています。

しかし、膨大なログデータの分析や断片的なアラートの関連付けには高度な専門知識と経験が求められることから、セキュリティアナリストの負荷は年々増えており、こうした状況を打破すべく、生成AIや機械学習を活用したインテリジェントな脅威ハンティングが注目されています。

AIがもたらす脅威ハンティングの変革

従来、アナリストはSIEMやEDRなどから出力される数千、数万単位のアラートを手作業で分類・調査し、優先度を判断していました。多くのアラートは誤検知や軽微なイベントであるにもかかわらず、それらすべてに目を通さなければならず、対応の遅れやアラート疲れを引き起こします。

生成AIの導入により、このプロセスは大きく変わります。LLM(Large Language Model:大規模言語モデル)を活用すれば、アラートの内容を文脈的に補強し、背景や脅威の深刻度を自動的に判断・要約することが可能になります。

たとえば、不審なプロセスが実行されたというアラートに対して、AIはそのハッシュ値を脅威インテリジェンスと照合し、悪意のある可能性を評価します。また、関連するユーザーの過去の行動履歴や、同時に発生したネットワーク通信などを自動的に収集・分析し、アナリストが短時間で全体像を把握できるように要約して提示します。

AIを活用したエンリッチメント(情報補完)でアラート疲労を軽減

それぞれのアラートが送付されるまでには、生イベントを深掘りしてコンテキストを把握し、複数の情報源を手作業で照合してプロセスハッシュやIPアドレスを脅威インテリジェンスと突き合わせる必要があります。しかし、多くは偽陽性であり、アナリストの時間と労力を浪費しています。

AIによるアラートの「エンリッチメント(情報補完)」は、脅威ハンティングを根本的に変える要素です。従来、アラートの解析は「何が起きたのか」を特定することに多くの時間を要していましたが、AIは以下のような形でその負荷を軽減します。

  • IPアドレスやドメインの信頼性を自動評価
    → 信頼性スコアや過去の悪用履歴を即時照会し、通信先のリスクを可視化。
  • プロセス実行履歴やコマンドラインの解析
    → 異常な引数や、よく知られた攻撃ツールの痕跡を文脈に基づいて指摘。
  • 複数アラートの関連性を提示
    → 時系列や関係するユーザー・端末などから、攻撃の兆候をストーリーとして構築。

これらにより、アナリストは単なるアラートの羅列ではなく、意味のある「インシデント像」を短時間で把握できるようになります。

エンティティベースの分析とリスクスコアリング

脅威ハンティングにおけるもう一つの進化は、エンティティ(ユーザー、デバイス、IPなど)を中心とした脅威分析です。User and Entity Behavior Analytics(UEBA)では、個々のエンティティに対して通常時の行動パターンを学習し、異常な振る舞いを検知・スコアリングします。

ここでAIは、複数のアラートを時系列的・論理的に結びつけ、ナラティブ(ストーリー)として提示します。

例えば、深夜帯の不審なログイン、その直後の管理者権限昇格、内部ファイルの大量ダウンロード、外部への異常な通信、といった一連の行動を一つの脅威シナリオとしてまとめ、MITRE ATT&CKで定義されたTTP(戦術・技術・手順)と照合することで、攻撃の種類や目的を特定する手助けをします。

このようなナラティブ化により、アナリストは個別の事象を見るのではなく、全体像を理解したうえで適切な対応を選択できるようになります。

組織全体の脅威可視化とAIによる対応支援

さらに生成AIは、組織全体におけるリスク傾向や脅威の集中箇所を俯瞰的に把握する支援も可能です。エンティティ単位でのリスクスコアを集計し、「どの部門で異常が多発しているか」「どの拠点で特異な通信が見られるか」などを把握できます。

また、AIは過去のインシデントレポートやプレイブックを元に、現在の事象に対する適切な対応策を自動的に提案することも可能です。Retrieval-Augmented Generation(RAG)技術を用いれば、特定の状況に応じて、ナレッジベースから適切な情報を抽出・再構成し、アナリストに対して次に取るべきアクションを提示します。

導入の課題と解決策

AIは脅威ハンティングのワークフローを大幅に強化する一方で、その採用にはセキュリティ、確度、ユーザビリティを確保するために、以下のような技術的・運用的な課題が伴います。

  1. データセキュリティの確保(セキュリティログの扱いとプライバシー)
  2. AIがアクセスするログデータを安全に管理するため、閉域ネットワーク内(オンプレミスまたはVPC)での運用が求められます。

  3. データ構造の標準化
  4. セキュリティログには企業固有の形式や用語が多く存在します。ログを事前に正規化・構造化し、AIが解釈しやすい形に整備する必要があります。ログの標準化が成功の鍵です。

  5. AI出力の一貫性とガバナンス
  6. 生成AIは自由度が高いため、出力フォーマットの統一やプロンプト設計による制御が不可欠です。JSON形式など定型出力への対応が重要です。

結論:AI×人間による脅威ハンティングの未来

AIは脅威ハンティングを「リアクティブ」から「プロアクティブ」へと進化させ、より迅速で的確なセキュリティ対応を可能にします。最終的には、人間の専門性とAIの処理能力を組み合わせることで、これまで見逃されていた兆候を的確に捉え、迅速かつ効果的なインシデント対応が実現されるでしょう。脅威ハンティングの現場は、今まさに新たな次元へと進化しつつあるのです。

【関連セミナーのご案内】

2025年6月19日(木)開催Webセミナー
「内部脅威にどう備える?ゼロトラストのためのふるまい検知」では、本記事で触れたAIや行動分析(UEBA)を活用した脅威検知の最新手法について、より詳しく解説します。
内部不正や異常行動の兆候を見逃さないセキュリティ体制にご興味のある方は、ぜひ以下のリンクよりお申込みください。

セミナー詳細・お申込みはこちら

The post 脅威ハンティングにおけるAI活用の進化 appeared first on OpenText Blogs.

]]>

~生成AIと行動分析による高度な脅威検知~

サイバー攻撃の高度化と巧妙化が進み、従来の防御型セキュリティだけでは対応が難しくなっています。APT(高度持続的脅威)や内部不正など、表面的なアラートだけでは捉えきれない脅威に対し、能動的にリスクを検知・分析・対応する脅威ハンティングの重要性が増しています。

しかし、膨大なログデータの分析や断片的なアラートの関連付けには高度な専門知識と経験が求められることから、セキュリティアナリストの負荷は年々増えており、こうした状況を打破すべく、生成AIや機械学習を活用したインテリジェントな脅威ハンティングが注目されています。

AIがもたらす脅威ハンティングの変革

従来、アナリストはSIEMやEDRなどから出力される数千、数万単位のアラートを手作業で分類・調査し、優先度を判断していました。多くのアラートは誤検知や軽微なイベントであるにもかかわらず、それらすべてに目を通さなければならず、対応の遅れやアラート疲れを引き起こします。

生成AIの導入により、このプロセスは大きく変わります。LLM(Large Language Model:大規模言語モデル)を活用すれば、アラートの内容を文脈的に補強し、背景や脅威の深刻度を自動的に判断・要約することが可能になります。

たとえば、不審なプロセスが実行されたというアラートに対して、AIはそのハッシュ値を脅威インテリジェンスと照合し、悪意のある可能性を評価します。また、関連するユーザーの過去の行動履歴や、同時に発生したネットワーク通信などを自動的に収集・分析し、アナリストが短時間で全体像を把握できるように要約して提示します。

AIを活用したエンリッチメント(情報補完)でアラート疲労を軽減

それぞれのアラートが送付されるまでには、生イベントを深掘りしてコンテキストを把握し、複数の情報源を手作業で照合してプロセスハッシュやIPアドレスを脅威インテリジェンスと突き合わせる必要があります。しかし、多くは偽陽性であり、アナリストの時間と労力を浪費しています。

AIによるアラートの「エンリッチメント(情報補完)」は、脅威ハンティングを根本的に変える要素です。従来、アラートの解析は「何が起きたのか」を特定することに多くの時間を要していましたが、AIは以下のような形でその負荷を軽減します。

  • IPアドレスやドメインの信頼性を自動評価
    → 信頼性スコアや過去の悪用履歴を即時照会し、通信先のリスクを可視化。
  • プロセス実行履歴やコマンドラインの解析
    → 異常な引数や、よく知られた攻撃ツールの痕跡を文脈に基づいて指摘。
  • 複数アラートの関連性を提示
    → 時系列や関係するユーザー・端末などから、攻撃の兆候をストーリーとして構築。

これらにより、アナリストは単なるアラートの羅列ではなく、意味のある「インシデント像」を短時間で把握できるようになります。

エンティティベースの分析とリスクスコアリング

脅威ハンティングにおけるもう一つの進化は、エンティティ(ユーザー、デバイス、IPなど)を中心とした脅威分析です。User and Entity Behavior Analytics(UEBA)では、個々のエンティティに対して通常時の行動パターンを学習し、異常な振る舞いを検知・スコアリングします。

ここでAIは、複数のアラートを時系列的・論理的に結びつけ、ナラティブ(ストーリー)として提示します。

例えば、深夜帯の不審なログイン、その直後の管理者権限昇格、内部ファイルの大量ダウンロード、外部への異常な通信、といった一連の行動を一つの脅威シナリオとしてまとめ、MITRE ATT&CKで定義されたTTP(戦術・技術・手順)と照合することで、攻撃の種類や目的を特定する手助けをします。

このようなナラティブ化により、アナリストは個別の事象を見るのではなく、全体像を理解したうえで適切な対応を選択できるようになります。

組織全体の脅威可視化とAIによる対応支援

さらに生成AIは、組織全体におけるリスク傾向や脅威の集中箇所を俯瞰的に把握する支援も可能です。エンティティ単位でのリスクスコアを集計し、「どの部門で異常が多発しているか」「どの拠点で特異な通信が見られるか」などを把握できます。

また、AIは過去のインシデントレポートやプレイブックを元に、現在の事象に対する適切な対応策を自動的に提案することも可能です。Retrieval-Augmented Generation(RAG)技術を用いれば、特定の状況に応じて、ナレッジベースから適切な情報を抽出・再構成し、アナリストに対して次に取るべきアクションを提示します。

導入の課題と解決策

AIは脅威ハンティングのワークフローを大幅に強化する一方で、その採用にはセキュリティ、確度、ユーザビリティを確保するために、以下のような技術的・運用的な課題が伴います。

  1. データセキュリティの確保(セキュリティログの扱いとプライバシー)
  2. AIがアクセスするログデータを安全に管理するため、閉域ネットワーク内(オンプレミスまたはVPC)での運用が求められます。
  3. データ構造の標準化
  4. セキュリティログには企業固有の形式や用語が多く存在します。ログを事前に正規化・構造化し、AIが解釈しやすい形に整備する必要があります。ログの標準化が成功の鍵です。
  5. AI出力の一貫性とガバナンス
  6. 生成AIは自由度が高いため、出力フォーマットの統一やプロンプト設計による制御が不可欠です。JSON形式など定型出力への対応が重要です。

結論:AI×人間による脅威ハンティングの未来

AIは脅威ハンティングを「リアクティブ」から「プロアクティブ」へと進化させ、より迅速で的確なセキュリティ対応を可能にします。最終的には、人間の専門性とAIの処理能力を組み合わせることで、これまで見逃されていた兆候を的確に捉え、迅速かつ効果的なインシデント対応が実現されるでしょう。脅威ハンティングの現場は、今まさに新たな次元へと進化しつつあるのです。

【関連セミナーのご案内】

2025年6月19日(木)開催Webセミナー
「内部脅威にどう備える?ゼロトラストのためのふるまい検知」では、本記事で触れたAIや行動分析(UEBA)を活用した脅威検知の最新手法について、より詳しく解説します。
内部不正や異常行動の兆候を見逃さないセキュリティ体制にご興味のある方は、ぜひ以下のリンクよりお申込みください。

セミナー詳細・お申込みはこちら

The post 脅威ハンティングにおけるAI活用の進化 appeared first on OpenText Blogs.

]]>
AI時代のデータ防衛戦略:バックアップとリカバリは「攻め」の防御に進化できているか? https://blogs.opentext.com/ja/data-defense-strategies-in-the-ai-era-jp/ Tue, 27 May 2025 05:08:04 +0000 https://blogs.opentext.com/?p=999308695

AI時代到来で変わる攻撃の質

生成AIの導入が急速に進み、その可能性とリスクの両方に注目が集まっています。

AIの進化によりサイバー攻撃の手法が高度化・自動化し、従来型のマルウェアだけでなく、生成AIを活用したフィッシングメールの高度化、侵入後の行動の巧妙化など、企業はこれまで以上に予測不能な脅威にさらされています。
特に注目すべきは、AIによるランサムウェア攻撃の進化です。これまで以上に速く、広範囲にデータを暗号化・消去するケースが確認されており、企業の業務継続性が深刻に脅かされています。

OpenTextがスポンサーを務め、Osterman Researchが2024年11月に発表したホワイトペーパーでは、米国のセキュリティリーダー125人を対象に、AIが攻撃と防御の両方のサイバーセキュリティ戦略をどう再構築しようとしているかを調査しました。

調査結果は明白です。AIをセキュリティ対策に採用することは、もはやオプションではなく、戦略上必要不可欠なものになりつつあります。調査結果によれば、98.4% のセキュリティ責任者が「攻撃者がAIを活用している」と指摘し、2年前と比較して以下の傾向が顕著に増加しています。

  • セキュリティソリューション迂回攻撃(64%増)
  • 攻撃の高度化(64.8%増)
  • 検出回避技術(68.8%増)

また、攻撃者は現在、超パーソナライズされたフィッシングやポリモーフィック・マルウェアの作成に使用される生成AIや、セキュリティ制御の回避に役立つGenerative Adversarial Networks(GAN)などの分野で優位に立っています。

AI戦略が急速に進化している防御側

一部のAI分野では攻撃側が早くからリードしているのは事実ですが、防御側、つまり組織や企業はAIツールを急速に採用し、重要視しています。例えば、行動AI(Behavioral AI)による異常検知、機械学習(教師あり、半教師あり、教師なし)、自然言語処理などです。

セキュリティリーダーの80%は、悪意のある攻撃的で敵対的なAIの脅威に効果的に対抗できる唯一のテクノロジーはAIであると考えており、人員削減を目指すのではなく、新たな脅威対策の強化やトリアージと分析の自動化などを目的としてAIを活用しています。(Using AI to Enhance Defensive Cybersecurity

すでにセキュリティ対策にAIを導入している企業は、具体的なメリットを実感しており、セキュリティリーダーの98%近くが、AIを活用したサイバーセキュリティソリューションは、従来のツールよりも効果的であると報告しており、40.3%が「大幅に効果的」、41.8%が「中程度に効果的」と評価しています。実際に、フィッシングの検知(98.4%が高優先度/最優先度)やアカウント乗っ取り防止(86.4%)、データ流出事故の特定(87.2%)など幅広いタスクにAIを利用しています。

重要なのは、AI がサイバーセキュリティの専門家の置き換えではなく、人間の専門知識を補完するものということです。AIは「機械の精度」で反復的なタスクを処理することで、専門家は脅威の探索、戦略策定など、より価値の高い活動に集中できるようになります。

AIの導入には、ハードルや懸念事項がないわけではありません。

調査結果によれば、セキュリティリーダーは、脅威行為者がAIモデルの学習に使用される機密データへのアクセス(87.2%が今後12カ月間で懸念している)やAIの安全機能を回避すること、悪意のある目的のために防御的なAIシステムを悪用すること(今後5年間で最も急成長する懸念事項)を強く懸念しています。

単にAIツールを導入するだけでは十分ではなく、AIを戦略的に中核的なサイバーセキュリティのフレームワークに統合し、ビジネス目標やリスク管理に合わせて投資を行う必要があります。 さらに、防御側がAIを取り入れ始めた今、企業は「どこで」「何を」守るかという視点を見直す必要があります。
特に、バックアップとリカバリは単なる復旧手段ではなく、被害拡大を防ぐ最も重要なレイヤーの一つとなっています。

バックアップ&リカバリは「最後の砦」ではなく「最前線」へ

バックアップとリカバリはこれまでサイバー攻撃、データ損失、システム障害といったリスクに対する「最後の砦」とされてきましたが、今や最前線の防御手段へとその役割を変えつつあります。OpenText Cybersecurityは、AI活用を見据えた次世代型のバックアップ&リカバリ戦略を提唱しています。具体的には以下のようなポイントが重要です。

  • 変更不可なバックアップ:バックアップデータの改ざんや削除を防止するために、書き換え不能な(イミュータブルな)ストレージ技術が求められます。
  • 自動化されたバックアップ検証:AIを活用してバックアップの整合性を継続的に検証し、復元可能性を確保します。
  • 復元の迅速化:AIは障害発生時のリカバリ手順を自動化・最適化することで、復旧までの時間を短縮します。
  • サイバーレジリエンス設計の一部として統合:EDRやSIEMとの連携で全体の防御力を強化

自社の体制を見直すべきとき

日本企業の多くが、バックアップを「とっている」ことに安心しており、本当に復旧できる状態にあるかの検証は後回しになりがちです。

実際、災害対策やDR(ディザスタリカバリ)プランは存在していても、「サイバー攻撃からの復旧」という観点では設計不十分なケースも多くあります。特にAIによって攻撃がより速く、複雑になっている現代では、従来型のリストア手順では手遅れになる可能性もあります。

AIを活用したサイバー攻撃の脅威が増す中、企業は自社のバックアップとリカバリ体制を今こそ見直すべきです。

最後に

今後のAI活用は攻守両面において進化が進みます。企業は備えを強化しなければなりません。バックアップとリカバリは、もはや単なる“保険”ではなく、サイバーレジリエンスを構築する中心的な要素です。AIによる攻撃に立ち向かうために、AIを使った防御の最適化が必要なのです。

参考

OpenText Data Protector;https://www.opentext.com/ja-jp/products/data-protector

企業向けバックアップ/リカバリソリューションData Protector ; https://www.microfocus.com/ja-jp/media/white-paper/opentext-enterprise-backup-and-recovery-data-protector-security-pp-ja.pdf

The post AI時代のデータ防衛戦略:バックアップとリカバリは「攻め」の防御に進化できているか? appeared first on OpenText Blogs.

]]>

AI時代到来で変わる攻撃の質

生成AIの導入が急速に進み、その可能性とリスクの両方に注目が集まっています。

AIの進化によりサイバー攻撃の手法が高度化・自動化し、従来型のマルウェアだけでなく、生成AIを活用したフィッシングメールの高度化、侵入後の行動の巧妙化など、企業はこれまで以上に予測不能な脅威にさらされています。
特に注目すべきは、AIによるランサムウェア攻撃の進化です。これまで以上に速く、広範囲にデータを暗号化・消去するケースが確認されており、企業の業務継続性が深刻に脅かされています。

OpenTextがスポンサーを務め、Osterman Researchが2024年11月に発表したホワイトペーパーでは、米国のセキュリティリーダー125人を対象に、AIが攻撃と防御の両方のサイバーセキュリティ戦略をどう再構築しようとしているかを調査しました。

調査結果は明白です。AIをセキュリティ対策に採用することは、もはやオプションではなく、戦略上必要不可欠なものになりつつあります。調査結果によれば、98.4% のセキュリティ責任者が「攻撃者がAIを活用している」と指摘し、2年前と比較して以下の傾向が顕著に増加しています。

  • セキュリティソリューション迂回攻撃(64%増)
  • 攻撃の高度化(64.8%増)
  • 検出回避技術(68.8%増)

また、攻撃者は現在、超パーソナライズされたフィッシングやポリモーフィック・マルウェアの作成に使用される生成AIや、セキュリティ制御の回避に役立つGenerative Adversarial Networks(GAN)などの分野で優位に立っています。

AI戦略が急速に進化している防御側

一部のAI分野では攻撃側が早くからリードしているのは事実ですが、防御側、つまり組織や企業はAIツールを急速に採用し、重要視しています。例えば、行動AI(Behavioral AI)による異常検知、機械学習(教師あり、半教師あり、教師なし)、自然言語処理などです。

セキュリティリーダーの80%は、悪意のある攻撃的で敵対的なAIの脅威に効果的に対抗できる唯一のテクノロジーはAIであると考えており、人員削減を目指すのではなく、新たな脅威対策の強化やトリアージと分析の自動化などを目的としてAIを活用しています。(Using AI to Enhance Defensive Cybersecurity

すでにセキュリティ対策にAIを導入している企業は、具体的なメリットを実感しており、セキュリティリーダーの98%近くが、AIを活用したサイバーセキュリティソリューションは、従来のツールよりも効果的であると報告しており、40.3%が「大幅に効果的」、41.8%が「中程度に効果的」と評価しています。実際に、フィッシングの検知(98.4%が高優先度/最優先度)やアカウント乗っ取り防止(86.4%)、データ流出事故の特定(87.2%)など幅広いタスクにAIを利用しています。

重要なのは、AI がサイバーセキュリティの専門家の置き換えではなく、人間の専門知識を補完するものということです。AIは「機械の精度」で反復的なタスクを処理することで、専門家は脅威の探索、戦略策定など、より価値の高い活動に集中できるようになります。

AIの導入には、ハードルや懸念事項がないわけではありません。

調査結果によれば、セキュリティリーダーは、脅威行為者がAIモデルの学習に使用される機密データへのアクセス(87.2%が今後12カ月間で懸念している)やAIの安全機能を回避すること、悪意のある目的のために防御的なAIシステムを悪用すること(今後5年間で最も急成長する懸念事項)を強く懸念しています。

単にAIツールを導入するだけでは十分ではなく、AIを戦略的に中核的なサイバーセキュリティのフレームワークに統合し、ビジネス目標やリスク管理に合わせて投資を行う必要があります。 さらに、防御側がAIを取り入れ始めた今、企業は「どこで」「何を」守るかという視点を見直す必要があります。
特に、バックアップとリカバリは単なる復旧手段ではなく、被害拡大を防ぐ最も重要なレイヤーの一つとなっています。

バックアップ&リカバリは「最後の砦」ではなく「最前線」へ

バックアップとリカバリはこれまでサイバー攻撃、データ損失、システム障害といったリスクに対する「最後の砦」とされてきましたが、今や最前線の防御手段へとその役割を変えつつあります。OpenText Cybersecurityは、AI活用を見据えた次世代型のバックアップ&リカバリ戦略を提唱しています。具体的には以下のようなポイントが重要です。

  • 変更不可なバックアップ:バックアップデータの改ざんや削除を防止するために、書き換え不能な(イミュータブルな)ストレージ技術が求められます。
  • 自動化されたバックアップ検証:AIを活用してバックアップの整合性を継続的に検証し、復元可能性を確保します。
  • 復元の迅速化:AIは障害発生時のリカバリ手順を自動化・最適化することで、復旧までの時間を短縮します。
  • サイバーレジリエンス設計の一部として統合:EDRやSIEMとの連携で全体の防御力を強化

自社の体制を見直すべきとき

日本企業の多くが、バックアップを「とっている」ことに安心しており、本当に復旧できる状態にあるかの検証は後回しになりがちです。

実際、災害対策やDR(ディザスタリカバリ)プランは存在していても、「サイバー攻撃からの復旧」という観点では設計不十分なケースも多くあります。特にAIによって攻撃がより速く、複雑になっている現代では、従来型のリストア手順では手遅れになる可能性もあります。

AIを活用したサイバー攻撃の脅威が増す中、企業は自社のバックアップとリカバリ体制を今こそ見直すべきです。

最後に

今後のAI活用は攻守両面において進化が進みます。企業は備えを強化しなければなりません。バックアップとリカバリは、もはや単なる“保険”ではなく、サイバーレジリエンスを構築する中心的な要素です。AIによる攻撃に立ち向かうために、AIを使った防御の最適化が必要なのです。

参考

OpenText Data Protector;https://www.opentext.com/ja-jp/products/data-protector

企業向けバックアップ/リカバリソリューションData Protector ; https://www.microfocus.com/ja-jp/media/white-paper/opentext-enterprise-backup-and-recovery-data-protector-security-pp-ja.pdf

The post AI時代のデータ防衛戦略:バックアップとリカバリは「攻め」の防御に進化できているか? appeared first on OpenText Blogs.

]]>