生成AIが業務の当たり前になりつつある一方で、「会社が把握していないAI利用」が静かに、しかし確実に広がっています。それがシャドーAIです。便利さの裏側で、情報漏洩や法的責任、経営リスクにつながる可能性があることを、あなたはどこまで認識しているでしょうか。
2026年現在、シャドーAIは単なる現場のルール違反ではなく、企業の競争力や信頼性を左右する経営課題へと変質しています。実際、日本では生成AI利用者の3人に1人以上が未承認AIを使った経験があるという調査結果も示されており、もはや一部の先進企業だけの問題ではありません。
本記事では、世界と日本の最新データ、実際に起きたセキュリティ事件、そして法規制やガイドラインの動向を踏まえながら、シャドーAIの正体とそのリスクを多角的に整理します。さらに、禁止ではなく「管理された活用」へと舵を切る企業の実践例や、2026年以降に求められる現実的な対策像も紹介します。シャドーAIを脅威で終わらせず、競争優位につなげたい方にとって、最後まで読む価値のある内容です。
シャドーAIが2026年に注目される理由
2026年にシャドーAIが強い注目を集めている最大の理由は、生成AIが一過性のブームを超え、業務インフラとして定着した一方で、その利用実態が企業の統制を大きく逸脱し始めている点にあります。もはや「一部の先進部門の問題」ではなく、ほぼすべての組織に内在する経営リスクへと質的転換が起きています。
マイクロソフトのAI普及レポートによれば、2025年後半時点で世界の約6人に1人が生成AIを日常的に利用しています。この急拡大は、日本企業においても例外ではなく、SIGNATEの国内調査では、生成AI利用者の約35%がIT部門の管理外でAIを使用した経験があると報告されています。公式導入のスピードと現場ニーズの乖離が、シャドーAIを構造的に生み出していることが明らかです。
| 指標 | 内容 | 示唆 |
|---|---|---|
| 世界の生成AI利用率 | 約16〜17% | 業務利用が一般化 |
| 日本のシャドーAI経験率 | 約35% | 統制不能な利用が常態化 |
| 未承認AI利用を認めた従業員 | 71% | 禁止前提の限界 |
さらに2026年は、エージェント型AIの台頭によって、シャドーAIの影響範囲が「補助ツール」から「意思決定主体」へと拡張しています。KPMGやスタンフォード大学HAIが指摘するように、自律的に動作するAIが管理外で稼働した場合、誤った判断や不適切なコード実行が、人間の介在なしに連鎖的な業務影響を引き起こす可能性があります。
加えて、日本特有の規制環境も注目度を高めています。EUのAI法とは異なり、日本はAI推進法とガイドラインを中心としたソフトローを採用しています。これはイノベーションを後押しする一方で、「法的に禁止されていない=安全」という誤解を生みやすく、結果としてシャドーAIを黙認する土壌にもなっています。経済産業省のガイドライン改定では、AIガバナンスが経営責任であることが明確化され、知らなかったでは済まされない局面に入りました。
こうした背景から2026年のシャドーAIは、単なるIT統制の問題ではなく、生産性向上、セキュリティ、法的責任、そして企業文化の衝突点として浮上しています。便利さゆえに不可視化され、不可視であるがゆえに経営判断を誤らせる。この矛盾こそが、今シャドーAIが強く注目される本質的な理由です。
シャドーITとの決定的な違いとリスクの質的変化

シャドーAIは、従来のシャドーITと同列に語られがちですが、その本質は大きく異なります。シャドーITが未承認のデバイスやSaaSといった「道具」の問題であったのに対し、シャドーAIは業務判断や意思決定そのものを、企業の管理外にある「知能」に委ねてしまう点が決定的な違いです。管理対象がIT資産から判断プロセスへと移行したことで、リスクの質が不可逆的に変化しています。
例えば、シャドーIT時代の典型的なリスクは、クラウドストレージへの誤アップロードによる情報漏洩でした。これは発覚後にアクセス遮断やログ調査といった事後対応が可能でした。しかしシャドーAIでは、入力したデータが学習や推論に利用され、どのような内部状態や生成結果に影響したのかを事後に完全に追跡することが困難です。スタンフォード大学HAIが指摘するように、生成AIはブラックボックス性を内包しており、入力と出力の因果関係が必ずしも線形ではありません。
| 観点 | シャドーIT | シャドーAI |
|---|---|---|
| 主な対象 | デバイス・SaaS | モデル・推論・生成 |
| リスクの中心 | 情報の持ち出し | 判断の外部化と学習汚染 |
| 事後対応 | 比較的可能 | 極めて困難 |
2026年時点で特に深刻なのが、エージェント型AIのシャドー化です。KPMGやWitnessAIの分析によれば、自律的に行動するAIエージェントは、設定次第でコード実行や外部サービス連携を行います。これが未承認のまま稼働すると、担当者の意図を超えた処理が連鎖的に実行され、サプライチェーン全体に影響を及ぼす可能性があります。これは単なる情報漏洩ではなく、企業行動そのものが書き換えられるリスクです。
さらにリスクはセキュリティや法務にとどまりません。日本のAI事業者ガイドライン改定版では、AI利用は経営課題と位置付けられています。つまりシャドーAIによる誤判断や差別的アウトプットが社会問題化した場合、「現場の独断」で済まされず、経営陣の善管注意義務が問われる可能性があります。シャドーITが部門レベルの統制問題だったのに対し、シャドーAIは企業統治そのものを揺るがす存在になっています。
このように、シャドーAIは便利さの裏で、意思決定の不可視化、責任所在の曖昧化、そしてリスクの非線形拡大を同時に引き起こします。もはや過去のシャドーIT対策の延長線では対処できない段階に入っていることを、企業は正面から認識する必要があります。
データで見る世界と日本のシャドーAI利用実態
シャドーAIの実態を正しく理解するためには、印象論ではなく客観的なデータに基づく把握が不可欠です。2025年から2026年初頭にかけて公開された複数の信頼性の高い調査は、世界と日本の双方で、シャドーAIがすでに無視できない規模に達していることを明確に示しています。
マイクロソフトのAI Economy Instituteによる調査によれば、2025年後半時点で世界の生成AI利用者は約6人に1人に到達しました。特に先進国では労働年齢人口の約4分の1が日常的に生成AIを利用しており、業務利用と私的利用の境界は急速に曖昧になっています。この急拡大は、公式なIT統制の枠外での利用、すなわちシャドーAIが発生しやすい環境を構造的に生み出しています。
日本国内に目を向けると、その状況はより示唆的です。SIGNATEが2025年12月に公表した調査では、生成AI利用者の約35%が「未承認のAIを業務で使った経験がある」と回答しました。一方、Reco.aiのレポートでは、質問設計の違いはあるものの、オフィスワーカーの71%がIT部門の承認なしにAIツールを使用しているとされています。数値に幅はあるものの、少なくとも「3人に1人以上」がシャドーAIに関与している現実は共通しています。
| 調査主体 | 対象 | シャドーAI関連の主な結果 |
|---|---|---|
| Microsoft AI Economy Institute | 世界全体 | 生成AI利用者は世界で約6人に1人 |
| SIGNATE | 日本の生成AI利用者 | 約35%がシャドーAIを経験 |
| Reco.ai | 日本のオフィスワーカー | 71%が未承認AIを利用 |
これらのデータが示す本質は、シャドーAIが一部の例外的行動ではなく、高い生産性意識を持つ層ほど選択しやすい「合理的行動」になっているという点です。KPMGの分析でも、公式ツールの提供スピードや機能が現場の期待に追いつかない「摩擦」が、シャドーAI発生の最大要因であると指摘されています。
さらに無視できないのが、財務的インパクトです。Reco.aiによれば、シャドーAIレベルが高い企業では、データ侵害が発生した場合の平均コストが約67万ドル、日本円でおよそ1億円規模に達しています。すでに約2割の企業が、未承認AI利用に起因するインシデントを経験しているという事実は、シャドーAIが「将来のリスク」ではなく「現在進行形の経営課題」であることを物語っています。
世界的な利用拡大、日本特有の慎重な導入姿勢、そして現場主導のAI活用。この三つが同時に進行する中で、データが示す最大の警鐘は「見えていないこと自体が最大のリスクになる」という点です。シャドーAIの規模と実態を定量的に把握することが、すべての対策の出発点になります。
なぜ優秀な社員ほどシャドーAIを使ってしまうのか

優秀な社員ほどシャドーAIを使ってしまう背景には、単なるルール違反やモラルの問題ではなく、**高い成果責任と環境とのミスマッチ**があります。KPMGの分析によれば、シャドーAIは「従業員のニーズと企業が提供するAI機能との摩擦」の結果として生まれる現象とされています。成果を求められる人ほど、この摩擦を放置できず、自ら解消しに動くのです。
特にハイパフォーマー層は、日々の業務で生産性の差が直接評価や報酬に結びつきます。公式ツールが導入待ち、あるいは機能制限が多い状況では、生成AIを使わないこと自体が競争力低下につながると感じます。**AIを使わないことがリスク**という逆転した認識が、未承認ツール利用への心理的ハードルを下げています。
実際、日本国内の調査でも生成AI利用者の約35%がシャドーAIを経験しており、Reco.aiのレポートではオフィスワーカーの71%が承認なしでAIを使ったと回答しています。これらの数値は、問題の中心が一部の逸脱者ではなく、**中核人材そのもの**にあることを示しています。
| 視点 | 優秀な社員の行動 | 組織側の状況 |
|---|---|---|
| 生産性 | 最短距離で成果を出そうとする | 承認プロセスが遅い |
| リスク認識 | 自分なら制御できると考える | 一律禁止で対話が不足 |
| 技術理解 | AIリテラシーが高い | 管理職層の理解が追いつかない |
スタンフォード大学HAIの研究でも、AIリテラシーが高い人ほどツール選択を自律的に行う傾向が指摘されています。彼らはリスクを知らないのではなく、むしろ理解した上で「便益が上回る」と判断しています。**この自己裁量感こそが、シャドー化を加速させる要因**です。
さらに、日本企業特有の「信頼ギャップ」も無視できません。経営層がセキュリティ懸念から慎重姿勢を取る一方、現場はAI活用を前提に仕事を設計しています。この乖離が、公式ルートを迂回する動機になります。KyribaのCFO調査で示されたように、経営層の68%が不安を抱えるほど、現場との温度差は大きいのが現実です。
結果として、優秀な社員は「禁止されているから使わない」よりも、「成果を出すために黙って使う」を選びます。これは反抗ではなく、組織への貢献意識の延長線上にある行動です。**シャドーAIは、優秀さの副作用として生まれる**という視点を持たなければ、この問題の本質は見えてきません。
実際に起きたインシデントから学ぶシャドーAIの脅威
シャドーAIの危険性は抽象論ではなく、すでに現実のインシデントとして企業活動に深刻な影響を与えています。
特に2025年から2026年にかけては、生成AIの急拡大と統制不在が重なり、「便利さ」を起点とした事故が連鎖的に発生しました。
実際に起きた事例を振り返ることで、シャドーAIがどのように脅威へ転化するのかが具体的に見えてきます。
象徴的なのが、2025年初頭に明らかになった中国系生成AIサービスDeepSeekの大規模データ侵害です。
100万件を超えるチャットログやAPIキーが流出し、そこには業務コードや設計に関する記述も含まれていました。
個人判断で利用された未承認AIに、企業の知的資産が静かに集積していた点が、最大の教訓です。
| インシデント | 表面化した被害 | シャドーAIの関与 |
|---|---|---|
| DeepSeek侵害 | チャットログ・APIキー流出 | 個人利用AIへの業務情報入力 |
| ランサムウェア被害 | 業務停止・物流遅延 | AIプロンプト履歴の悪用 |
さらに深刻なのが、シャドーAIがサイバー攻撃の「偵察装置」として使われるケースです。
Trend MicroやCheck Pointが指摘するように、侵害されたAIアカウントのプロンプト履歴は、攻撃者にとって内部文書並みの価値を持ちます。
業務上の悩みや未公開プロジェクトが、そのまま標的型攻撃の設計図になるのです。
また、ブラウザ拡張型AIによる情報漏洩も見逃せません。
要約や翻訳を目的とした拡張機能が、WebメールやCRM画面のDOMにアクセスし、内容を外部送信していた事例が複数報告されています。
利用者本人は「補助ツール」と認識しており、リスク認知との乖離が被害を拡大させました。
これらのインシデントに共通するのは、悪意ではなく善意と効率化が出発点である点です。
KPMGが述べるように、シャドーAIは統制の欠如ではなく、組織内の摩擦が生み出す必然的な現象でもあります。
だからこそ、起きた事故から学び、可視化と管理へ転換できるかが企業の分岐点となります。
エージェント型AI時代に拡大する新たなリスク
エージェント型AIの普及は、業務自動化を一段引き上げる一方で、従来の生成AIとは次元の異なるリスクを企業にもたらしています。最大の特徴は、人の指示を待たずにAIが自律的に判断し、行動を連鎖させる点にあります。**この自律性こそが価値であると同時に、リスクの震源地**でもあります。
スタンフォード大学HAIやKPMGの分析によれば、エージェント型AIの事故は「誤回答」ではなく「誤行動」として表面化しやすいとされています。例えば、在庫管理や価格調整を任されたエージェントが、外部データの異常値を市場変化と誤認し、短時間で大幅な値下げや過剰発注を実行するケースです。人間であれば途中で気付く違和感を、AIは忠実に実行してしまいます。
WitnessAIのDan Graves氏は、2026年に増加するのは悪意ある攻撃よりも「善意で設計された野良エージェントによる運用事故」だと指摘しています。特にシャドーAIとして個人や部門単位で作成されたエージェントは、監査ログや権限設計が不十分なまま本番業務に接続されがちです。その結果、原因特定に時間を要し、被害が拡大します。
| リスク領域 | 具体的な内容 | 企業への影響 |
|---|---|---|
| 自律実行 | 人の承認なしでAPIやコードを実行 | システム障害、金銭的損失 |
| 判断の連鎖 | 誤判断が次のタスクを誘発 | 被害の指数関数的拡大 |
| 不可視化 | 非公式導入により存在自体を把握できない | 監査不能、責任所在の不明確化 |
さらに深刻なのが、サイバー攻撃との結合です。Check PointのAI Security Report 2025では、攻撃者が侵入後にエージェント型AIを用い、内部偵察や権限昇格を自動化する手法が確認されています。シャドーAIとして存在するエージェントは、防御側に検知されにくく、攻撃者にとって理想的な足掛かりとなります。
トレンドマイクロも、2026年はランサムウェアがAIエージェント化し、標的企業の業務フローを学習した上で最も効果的なタイミングで攻撃を仕掛けると予測しています。**つまり、社内に無秩序なエージェントが存在すること自体が、攻撃成功率を高める要因**になるのです。
日本企業にとって見落とされがちな点は、法規制との関係です。日本のAI推進法は罰則を伴わないソフトローですが、AI事業者ガイドラインでは経営層の監督責任が明確化されています。シャドーなエージェント型AIが暴走した場合、「把握できていなかった」こと自体が善管注意義務違反と評価されるリスクがあります。
エージェント型AI時代の新たなリスクとは、技術の高度化そのものではなく、**自律的に動く知能が、組織の統制外で増殖する構造**にあります。利便性の裏側で進行するこの変化を正しく理解しなければ、企業は気付かぬうちに意思決定の一部をブラックボックスへ委ねてしまうことになります。
日本のAI推進法とガイドラインが企業に求める責任
日本のAI推進法と改定AI事業者ガイドラインは、企業に対して「AIをどう使うか」以前に「AI利用にどう責任を持つか」を明確に求めています。特に2025年に成立したAI推進法は罰則を伴わないソフトローである一方、企業の自主的判断と説明責任を前提とした設計である点が重要です。これは、形式的な法令遵守ではなく、経営判断そのものが評価対象になることを意味します。
改定版AI事業者ガイドライン第1.01版では、AIガバナンスはサイバーセキュリティと同様に経営課題であると明記されました。経済産業省と総務省によれば、AIに起因する事故や不祥事が発生した場合、経営層がリスクを認識し、適切な体制整備を行っていたかが問われます。「現場が勝手に使った」という説明は、もはや免責になりません。
特にシャドーAIの文脈では、企業が把握していないAI利用が存在すること自体が、ガバナンス不全と評価される可能性があります。KPMGは、シャドーAIを放置した企業ほどインシデント発生時に説明責任を果たせず、結果としてレピュテーションリスクが拡大すると指摘しています。日本のソフトロー環境では、事前の予防よりも事後の説明が重く評価される傾向があり、この点は見落とされがちです。
| 観点 | 企業に求められる責任 | 不十分な場合のリスク |
|---|---|---|
| ガバナンス体制 | 経営層主導での方針策定と監督 | 善管注意義務違反の指摘 |
| 利用状況の把握 | 未承認AIを含む可視化 | 事故原因の特定不能 |
| 対外説明 | 合理的な判断プロセスの説明 | 社会的信頼の失墜 |
また、サプライチェーン全体に対する責任も無視できません。ガイドラインでは、自社だけでなく委託先や提携先におけるAI利用についても監督する姿勢が求められています。これは、AIによる判断や生成物が企業ブランドと不可分になりつつある現状を反映したものです。スタンフォード大学HAIも、AIの影響範囲は組織境界を容易に越えると警告しています。
重要なのは、これらの責任が「完璧な安全性」を求めているわけではない点です。日本の制度設計は、合理的なリスク評価と継続的改善を行っているかを重視します。つまり、AI推進法とガイドラインが企業に突きつけているのは、AIを使う覚悟と、その結果に向き合う経営の成熟度そのものだと言えます。
BYOAIという選択肢と管理されたAI活用モデル
BYOAIという選択肢は、シャドーAIを力で抑え込む発想から、現場の自発性を前提に管理するという思想転換を象徴しています。2026年現在、KPMGやSoftwareOneが指摘するように、全面禁止は利用を地下化させ、結果としてリスクを不可視化するだけだと認識されています。
管理されたAI活用モデルの核心は、「許可された自由」を設計する点にあります。企業が安全性を担保した枠組みを用意し、その中で従業員が個人のAIツールやスキルを発揮できるようにすることで、イノベーションと統制を両立させます。これはかつてのBYODが、MDMによって企業ITに組み込まれた流れと酷似しています。
| 観点 | 無秩序なBYOAI | 管理されたBYOAI |
|---|---|---|
| データ管理 | 個人任せで企業は把握不能 | 入力制御・ログ取得が可能 |
| 法務・責任 | 事故時に責任所在が不明確 | ガイドラインに基づき説明可能 |
| 現場の生産性 | 短期的に高いが属人化 | 再現性ある形で全社展開 |
日本企業にとって重要なのは、AI推進法とAI事業者ガイドラインが求める「経営層の説明責任」と、この管理モデルが極めて相性が良い点です。経済産業省の議論でも、AI利用を把握し、合理的な管理策を講じているかが、インシデント時の評価軸になると示唆されています。
具体策として多くの企業が採用しているのが、エンタープライズ契約AIの公式提供と、個人AIの条件付き持ち込みの併用です。MicrosoftやGoogleのエンタープライズAIを標準環境として整備しつつ、それ以外のAI利用は申告制とし、入力データや用途を明確化します。これにより現場のスピード感を殺さず、リスクだけを削減できます。
スタンフォード大学HAIも、管理された環境下でのAI利用は、従業員のAIリテラシー向上に寄与すると報告しています。自ら使い、失敗し、学ぶ経験が、ハルシネーションや著作権リスクへの感度を高めるためです。
重要なのは、BYOAIを例外扱いせず、正式な業務プロセスの一部として設計することです。誰が、どのAIを、どの業務で使っているのかを把握できて初めて、シャドーAIは「管理されたAI資産」に変わります。管理されたAI活用モデルは、統制のための制限ではなく、企業が安心してAIを拡張するための基盤なのです。
シャドーAIを可視化する最新セキュリティ技術の動向
シャドーAI対策において、2026年の最大の技術的トレンドは「可視化の精度が意思決定レベルまで到達した」点にあります。従来は、どの生成AIサービスにアクセスしているかを把握するだけで精一杯でしたが、現在はプロンプト内容やAIの振る舞いそのものを観測対象とする技術が実用段階に入っています。**見えない利用を前提に、どう把握し、どう制御するか**がセキュリティの主戦場になっています。
中核となるのが、AI TRiSMの考え方に基づくアクセス可視化と制御技術です。ガートナーが提唱したこの概念は、AIを単なるアプリケーションではなく「リスクを伴う意思決定主体」として扱う点に特徴があります。Palo Alto NetworksやCheck Pointによれば、生成AIへの通信を識別し、ユーザー、アカウント、入力内容を結び付けて分析する仕組みが、エンタープライズ環境で標準化しつつあります。
| 可視化レイヤー | 把握できる内容 | 主なリスク低減効果 |
|---|---|---|
| アプリケーション | 利用中の生成AIサービス種別 | 未承認ツールの発見 |
| ユーザー・ID | 個人アカウントか社用IDか | BYOAIの統制 |
| プロンプト | 入力データの中身 | 機密情報漏洩の防止 |
特に注目されているのが、プロンプトレベルでのリアルタイム解析です。CASBやSASEの進化により、送信される文章を即座に検査し、個人情報や設計情報が含まれる場合に自動マスキングや遮断を行うことが可能になりました。Reco.aiの2025年レポートでは、こうした可視化を導入した企業は、未承認AI利用の把握率が大幅に向上したと報告されています。
ネットワーク外で動作するシャドーAIへの対策として、エンドポイント可視化も急速に進んでいます。Trend Microなどは、ローカルLLMの実行プロセスや、ブラウザ拡張機能によるDOMアクセスを検知し、通常業務と異なる挙動をアラートとして提示します。これにより「外部通信がないから安全」という誤解を技術的に是正できます。
さらに2026年は、エージェント型AIの可視化が新たな課題として浮上しています。Stanford HAIの研究でも、自律的に行動するAIはログ設計を誤ると監査不能になると指摘されています。現在は、AIエージェントごとにIDを付与し、実行コマンドや判断履歴を人間と同じ水準で追跡する試みが始まっています。**シャドーAIを資産として扱うための第一歩は、行動を記録し、説明可能な状態に置くこと**に他なりません。
先進企業の事例に学ぶシャドーAIとの向き合い方
先進企業はシャドーAIを単なる統制対象ではなく、経営課題として正面から扱っています。特に象徴的なのがソフトバンクの取り組みです。同社は2025年以降、従業員による非公式なAI利用を抑え込むのではなく、公式の枠組みに取り込む戦略を選択しました。安全な社内環境でAIエージェントを自由に作成できる仕組みを整え、結果として10週間で250万個以上のエージェントが生まれたとされています。シャドー化の原因である「使いたいのに使えない摩擦」を解消した点が最大の学びです。
スタンフォード大学HAIやKPMGの分析によれば、生成AIの無断利用は従業員のモラルではなく、組織設計の問題として発生します。ソフトバンクの事例はその指摘を裏付けており、現場に裁量を与えつつ、ガードレールを明確に示すことで、リスクと創造性の両立を実現しています。特に、コンテスト形式で優れたエージェントを評価した点は、AI利用を「隠す行為」から「称賛される行為」へ転換させました。
一方で、失敗事例から学ぶ視点も重要です。ランサムウェア被害を受けた国内大企業のケースでは、シャドーAIが直接の原因と断定されてはいませんが、Trend MicroやCrowdStrikeが指摘するように、管理外の端末やアカウントが攻撃の起点になりやすい現実があります。シャドーAIを放置することは、サイバー攻撃者に探索コストの低い侵入口を与える行為だと理解する必要があります。
| 観点 | 先進的アプローチ | 旧来型アプローチ |
|---|---|---|
| 基本姿勢 | 公式化し可視化する | 禁止・黙認 |
| 現場との関係 | 信頼と裁量を付与 | 統制と不信 |
| 結果 | イノベーションが資産化 | リスクが地下化 |
また、海外の多国籍企業では、BYOAIを前提にエンタープライズ版AIを包括契約で提供し、個人利用を自然に置き換える動きが進んでいます。MicrosoftやGoogleの公式AI環境を迅速に展開することで、未承認ツールへの依存を減らす手法です。これはKPMGが提唱する「管理されたイノベーション」に合致します。
これらの事例に共通するのは、経営層がシャドーAIを現場任せにせず、自らの責任領域として引き取っている点です。日本のAI推進法とAI事業者ガイドラインが示す通り、法的に罰則が弱い環境だからこそ、先進企業は自主的なガバナンスを競争力の源泉に変えています。シャドーAIとの向き合い方は、企業文化と経営成熟度を映す鏡だと言えるでしょう。
参考文献
- Microsoft:Global AI Adoption in 2025
- KPMG International:Shadow AI is already here: Take control, reduce risk, and unleash innovation
- SIGNATE:AI活用実態調査 レポート(2025年12月版)
- Reco AI:The 2025 State of Shadow AI Report Findings
- Trend Micro:Trend Micro Predicts 2026 as the Year Cybercrime Becomes Fully Industrialized
- SoftBank News:Keywords Explained: BYOAI
