生成AIを業務に取り入れたものの、「結局、作業が楽になっただけで成果につながっていない」と感じていませんか。
2026年現在、世界の先進企業ではAIは“答える存在”から“仕事を完遂する存在”へと進化し、自律型AIエージェントが実務の中核を担い始めています。
調査や分析、発注、顧客対応といった一連の業務を自ら計画し、ツールを操作しながら実行するAIは、もはや実験段階ではありません。
一方で、日本企業では導入が進まない理由や、法的・組織的な不安から足踏みしているケースも少なくありません。
本記事では、自律型AIエージェントの本質的な仕組みから、米国・中国・日本の最新事例、そして2026年以降に成果を出すための実装戦略までを整理します。
AIを“試す側”から“使いこなす側”へ進むための視点を得たい方にとって、実務に直結するヒントが得られる内容です。
生成AIから自律型AIエージェントへ起きている決定的な変化
2025年以降、生成AIを巡る潮流は「賢く文章やコードを作る存在」から、「仕事を自ら進めて完了させる存在」へと明確に転換しています。この変化の本質は、生成AIが担ってきた生成という行為そのものではなく、目標理解から実行までを一気通貫で担う自律性の獲得にあります。Deloitteの最新予測によれば、生成AIを活用する企業のうち25%がすでに自律型AIエージェントのパイロット運用を開始しており、2027年には50%に達すると見込まれています。
従来の生成AIは、人間の問いかけに対して最適解らしき出力を返す「受動的な知性」でした。一方、自律型AIエージェントは、与えられた目標を起点に、自ら計画を立て、必要な情報を収集し、外部ツールや業務システムを操作しながら成果物を完成させます。**AIが意思決定の補助輪から、実行主体へと役割を変えた点**が、決定的な違いです。
この違いは、業務の中での立ち位置を比較すると一層明確になります。チャットボットは「答える」存在であり、次の行動を起こす責任は常に人間側にありました。対してエージェントは「任される」存在です。マッキンゼーの調査でも、世界の組織の約62%がAIエージェントを試験的に導入している一方で、全社的にスケールできている企業は1割未満に留まっています。これは技術不足ではなく、AIを労働力として扱う発想転換が追いついていないことを示しています。
| 観点 | 生成AI | 自律型AIエージェント |
|---|---|---|
| 役割 | 情報・コンテンツの生成 | 目標達成のための実行主体 |
| 入力単位 | プロンプト | ゴール |
| 人間の関与 | 常時操作・判断が必要 | 監督・例外対応が中心 |
日本市場ではこの変化がより重い意味を持ちます。みずほリサーチ&テクノロジーズの試算では、2035年に約850万人の労働力不足が見込まれており、単なる業務効率化では追いつかない水準です。**自律型AIエージェントは、省人化ツールではなく、実質的な労働力の補完として期待されている**のです。
実際、先進企業では「AIに聞く」から「AIに任せる」への移行が始まっています。出張手配、競合調査、顧客対応、システム運用といった一連の業務を、人間の介入を最小限にしながら完遂する事例が増えています。こうした動きは、AIが生産性向上の手段から、組織設計そのものを再定義する存在へと進化していることを物語っています。
生成AIから自律型AIエージェントへの転換は、単なる機能追加ではありません。**AIをツールとして扱う時代の終わりと、AIを同僚として迎え入れる時代の始まり**を告げる、構造的な変化なのです。
チャットボットと何が違うのか:エージェント型AIの定義と特徴

チャットボットとエージェント型AIの違いを一言で表すなら、前者は「会話する道具」、後者は「仕事を遂行する主体」です。従来のチャットボットは、人間からの入力を起点にテキストを生成する受動的な存在でした。一方でエージェント型AIは、与えられた目標を理解し、自ら考え、行動し、結果を出すことを前提に設計されています。
Deloitteによれば、エージェント型AIは「最小限の人的監督下で、不確実な環境において複雑な目標を自律的に達成するシステム」と定義されています。ここで重要なのがエージェンシー、すなわち主体性です。**人間が逐一指示を出さなくても、AI自身が次に何をすべきかを判断できる点**が、チャットボットとの決定的な差になります。
| 観点 | チャットボット | エージェント型AI |
|---|---|---|
| 基本動作 | 質問に応答する | 目標を達成する |
| 主体性 | 受動的 | 能動的・自律的 |
| ツール操作 | 原則不可 | APIや業務ツールを実行 |
例えば「来週の大阪出張を準備してほしい」と依頼した場合、チャットボットはホテル候補や移動手段を文章で提案するに留まります。最終的な予約や調整は人間が行う必要があります。対してエージェント型AIは、カレンダーを確認し、社内規定に合致したホテルを検索・予約し、交通手段を手配し、関係者にメールを送るところまでを一連のタスクとして実行します。**アウトプットが情報ではなく、完了した業務である点**が本質的な違いです。
この違いは企業導入の文脈でより鮮明になります。McKinseyの調査では、世界の約62%の組織がAIエージェントを試験的に導入していますが、全社レベルで業務に組み込めている企業は1割未満に留まっています。これは、チャットボット的な発想の延長でAIを捉えてしまい、エージェントに必要な権限設計や業務プロセス統合が不十分なケースが多いためだと指摘されています。
つまり、エージェント型AIは「賢いFAQ」や「高度な検索ツール」ではありません。**人間の指示待ちを前提としない、デジタル上の労働力**として位置づける必要があります。この認識の転換こそが、チャットボット止まりで終わるか、エージェント活用へ進めるかを分ける分岐点になります。
この定義と特徴を正しく理解することが、エージェント型AIを単なる流行語で終わらせず、実務に根付かせるための第一歩になります。
なぜ今エージェントが実用段階に入ったのか:技術進化の背景
エージェント型AIが「実験」から「実用」へ一気に進んだ最大の理由は、単一技術のブレークスルーではなく、複数の基盤技術が同時に成熟した点にあります。2025年前後は、推論能力、外部ツール接続、記憶管理という三つの要素が揃い、初めてAIが人間の業務フローを自律的に完走できる条件が整いました。
まず注目すべきは、**大規模言語モデルの推論性能が質的に変化したこと**です。OpenAIのo1やDeepSeek-R1に代表される推論特化型モデルは、単なる文章生成ではなく、問題を段階的に分解し、途中結果を検証しながら進める能力を備えています。arXiv上の最新サーベイでも、モデルネイティブな計画能力を持つLLMは、外部ルールに依存する従来型エージェントよりも長時間タスクの成功率が大きく向上すると報告されています。
次に重要なのが、**ツール利用の標準化による「実行力」の獲得**です。Function Callingの普及に加え、Model Context Protocol(MCP)の登場によって、AIがカレンダー、CRM、社内データベースなどを安全かつ共通仕様で操作できるようになりました。AnthropicやOpenAIなど主要プレイヤーが同じ思想を採用したことで、ツール連携は個別開発の職人芸から、再利用可能なインフラへと進化しています。
| 技術領域 | 2023年以前 | 2025年以降 |
|---|---|---|
| 推論・計画 | 短文応答中心 | 長期タスクを自律遂行 |
| ツール接続 | 個別API実装 | 標準プロトコルで汎用化 |
| 記憶管理 | 会話履歴のみ | 企業知識を長期参照 |
三つ目の決定打が、**記憶技術の進化による業務知識の持続**です。RAGとベクターデータベースの普及により、エージェントは社内規程、過去案件、失敗事例といった長期記憶を参照しながら判断できます。マッキンゼーが指摘するように、スケーリングに成功した企業ほど、モデル性能よりも「信頼できる知識基盤」を重視しており、ここがPoC止まり企業との差を生んでいます。
この技術的収束は、Deloitteが示す普及予測とも整合します。2025年に25%の企業がエージェント型AIを試行し、2027年には50%に達するという見通しは、技術が研究室段階を超え、業務要件に耐える水準へ到達したことの裏返しです。今エージェントが実用段階に入ったのは偶然ではなく、長年積み上げられてきた基盤技術が、ようやく同じタイミングで噛み合った結果だと言えるでしょう。
自律型AIエージェントを支える技術構造と主要コンポーネント

自律型AIエージェントを理解するうえで最も重要なのは、その内部がどのような技術構造で成り立っているかを把握することです。単一のAIモデルが万能に振る舞っているわけではなく、複数の専門的コンポーネントが役割分担しながら連携することで、はじめて自律的な行動が可能になります。
2025年以降の研究や産業実装で主流となっているエージェント・アーキテクチャは、大きく知覚、記憶、推論と計画、行動とツール使用の四層構造で整理できます。これは製造業やロボティクス分野の制御理論とも親和性が高く、世界経済フォーラムやarXivの包括的サーベイでも共通して言及されています。
| コンポーネント | 役割 | 実務への影響 |
|---|---|---|
| 知覚 | 外界データの取得と解釈 | 非構造データを業務判断に利用可能 |
| 記憶 | 知識と経験の保持 | 属人化していたノウハウの再利用 |
| 推論・計画 | 目標分解と手順設計 | 人手の判断工程を代替・補完 |
| 行動・ツール | 実行と外部操作 | 業務完遂までの自動化 |
まず知覚は、エージェントが世界を理解するための入口です。テキストだけでなく、画像、音声、画面キャプチャなどを扱うマルチモーダル処理が標準となりつつあります。ブラウザ操作型エージェントが画面上のボタン配置を理解できるのはこの層の進化によるもので、製造現場ではセンサーデータを直接解釈する応用も進んでいます。
次に記憶は、短期と長期に分かれます。短期記憶は現在のタスク文脈を保持し、長期記憶はベクターデータベースなどに保存された知識資産を参照します。**RAGの普及により、エージェントは社内規程や過去事例を常に参照しながら判断できるようになり、再現性と一貫性が飛躍的に向上しました。**
推論と計画はエージェントの中核です。与えられた曖昧な目標を、実行可能なタスクに分解し、順序立てて進めます。近年は推論特化型モデルの登場により、自己検証や軌道修正がモデル内部で完結するケースが増えています。マッキンゼーも、スケーリングに成功している企業ほど計画能力を重視していると指摘しています。
最後の行動とツール使用は、計画を現実に反映させる層です。API呼び出し、コード実行、業務システムへの書き込みなどを通じて成果を生み出します。ここで重要なのは、**ツール利用が標準化されつつある点**です。Model Context Protocolのような共通仕様により、エージェントは特定ベンダーに依存せず、多様な業務環境へ接続できるようになっています。
これら四つのコンポーネントは独立しているわけではなく、フィードバックループを形成します。行動結果が知覚され、記憶に蓄積され、次の推論精度を高める循環が生まれます。この循環設計こそが、自律型AIエージェントを単なる自動化ツールではなく、学習し続けるデジタル労働力へと進化させる本質的な技術基盤なのです。
主要エージェント開発フレームワークと設計思想の違い
主要なエージェント開発フレームワークは、一見すると似た機能を提供しているように見えますが、その根底にある設計思想は大きく異なります。この違いを理解せずに選定すると、PoCでは動いたものの本番で破綻する、という事態に陥りがちです。**本質的な差分は「自律性をどこまで許容し、どこを人間や設計で縛るか」という思想の違い**にあります。
初期に注目を集めたAutoGenやCrewAIは、人間同士の対話や役割分担を模倣することで、高い自律性と創発性を引き出すアプローチを採用しています。Microsoftが開発したAutoGenは、エージェント同士がチャットを通じて議論し、コード生成から実行、デバッグまでを自律的に進める点が特徴です。実際、開発者コミュニティではソフトウェア開発支援やデータ分析で高い評価を得ています。一方で、マッキンゼーが指摘するように、自律性が高いほど挙動の予測が難しくなり、企業利用ではガバナンス面が課題になりやすいとされています。
これに対し、2025年以降に企業評価を高めているのがLangGraphやPydanticAIです。LangGraphは、エージェントの行動をグラフ構造で明示的に定義し、分岐やループ、人間の承認ポイントを状態遷移として管理します。**これは「AIに自由を与える」のではなく、「AIの行動範囲を設計で規定する」思想**であり、Deloitteが指摘するエンタープライズ導入の成功条件である制御可能性と監査性を満たしやすい設計です。
| フレームワーク思想 | 重視点 | 向いている組織 |
|---|---|---|
| 会話・役割駆動型 | 自律性・創発性 | スタートアップ、研究開発部門 |
| 状態遷移・型安全型 | 制御性・信頼性 | 大企業、基幹業務部門 |
PydanticAIの設計思想はさらに明確で、入出力を厳密なスキーマで定義し、想定外のデータを原則として許容しません。Pydantic開発チーム自身が述べているように、これは「AIを魔法の存在として扱わない」ための思想であり、既存の業務システムに組み込む際の事故リスクを最小化します。日本企業で多い基幹システム連携や業務アプリ内利用では、この型安全性が導入可否を左右する決定要因になるケースが増えています。
Semantic Kernelは、その中間に位置する設計です。プランナー機能によってタスクを動的に組み立てつつ、Microsoft 365や既存IT資産との統合を前提にしています。これは「AIエージェントを単体で完結させず、企業ITの一部としてオーケストレーションする」という思想であり、世界経済フォーラムが示すAIの社会実装モデルとも整合的です。
重要なのは、**優れたフレームワークが存在するのではなく、組織のリスク許容度と業務特性に合った思想を選ぶこと**です。創造性が価値を生む領域では自律性重視、契約・発注・顧客対応のような領域では制御性重視が合理的です。この設計思想の選択こそが、エージェント導入を「実験」で終わらせるか、「労働力」として定着させるかの分水嶺になります。
米国・中国に見る自律型AIエージェントによる産業変革
米国と中国は、自律型AIエージェントを産業競争力の中核に据え、明確に異なるアプローチで変革を進めています。**米国はスタートアップ主導で特定業務を代替・拡張する垂直型エージェントを高速で社会実装**し、中国は国家戦略のもとで製造業や医療など物理世界へ深く浸透させています。
米国では、Cognition SoftwareのDevinに代表される「自律型ソフトウェアエンジニア」が象徴的です。GitHubのIssue理解から修正、テストまでを一気通貫で実行し、ベンチマークでは約14%の課題を自律的に解決できると報告されています。マッキンゼーによれば、カスタマーサポート分野でも自律型エージェントが問い合わせの80%以上を完結処理する事例が増え、**人件費削減ではなく処理速度と品質の同時向上**が競争優位を生んでいます。
| 観点 | 米国 | 中国 |
|---|---|---|
| 主導主体 | スタートアップ・VC | 政府・国有企業 |
| 重点領域 | ソフトウェア、CS、開発 | 製造、医療、インフラ |
| 価値創出 | 業務単位の完全代替 | 産業全体の最適化 |
一方、中国は「AI+産業」を掲げ、世界経済フォーラムの報告書でも、170万台を超える産業用ロボットにAIエージェントを組み合わせる取り組みが紹介されています。従来の固定プログラム制御から、状況判断を伴う自律制御へ移行することで、多品種少量生産への対応力が大きく向上しました。これは**単なる省人化ではなく、生産様式そのものの転換**を意味します。
医療分野でも清華大学とGEヘルスケア中国によるバーチャル病院構想が進み、呼吸器疾患診断で93%超の精度を達成しています。世界保健機関が指摘する医師不足への対応策としても注目され、**AIエージェントが専門判断を補完する段階に入った**ことを示しています。
この米中比較から見える本質は、自律型AIエージェントが「業務効率化ツール」ではなく、**産業構造そのものを再設計する装置**として扱われている点です。短期的ROIを追う米国、長期的産業基盤を築く中国という違いはあるものの、いずれも人間中心の分業モデルを再定義しつつあり、この動きは他国の産業戦略にも直接的な影響を与え始めています。
日本企業の実務適用事例に学ぶ成功パターンと失敗回避
日本企業における自律型AIエージェントの実務適用を俯瞰すると、成果を上げる企業と停滞する企業の差は、技術力そのものよりも導入設計と組織運営に表れています。成功企業は「業務に根差した適用範囲の限定」と「人間との役割分担」を明確にし、失敗企業はPoC段階で目的を見失う傾向が確認されています。マッキンゼーの調査でも、日本企業は実験実施率に比べてスケーリング率が著しく低く、その背景に意思決定プロセスの曖昧さがあると指摘されています。
成功事例に共通する第一のパターンは、エージェントを「万能な代替人材」と見なさない点です。リクルートの観光DX実証では、分析・翻訳といった明確なボトルネック業務に限定したことで、分析工数を最大15分の1に削減しました。業務単位で成果指標を設定し、効果が数値で可視化できたことが、現場の納得感と継続利用につながっています。これはDeloitteが示す「ExecutionフェーズではROIの即時測定が鍵」という見解とも一致します。
| 観点 | 成功パターン | 失敗回避の示唆 |
|---|---|---|
| 適用範囲 | 業務プロセスの一部に限定 | 全社一斉導入を避ける |
| 評価方法 | 工数削減・精度向上を定量化 | 定性的評価のみで終わらせない |
| 人の関与 | Human-in-the-loopを維持 | 完全自律に急がない |
第二の成功パターンは、ガバナンスを前提条件として組み込む設計です。パナソニック コネクトがRAGにナレッジグラフを組み合わせた事例は、ハルシネーション対策を後付けにせず、初期設計で信頼性を確保した点が評価されています。日本総研も、エージェントの実務展開では「制御可能性の担保が利用拡大の前提条件になる」と分析しており、精度不安を放置したままの導入は現場定着を阻害します。
一方、失敗事例に多いのは、PoCの目的が「AIを使うこと」自体にすり替わるケースです。短期間のデモでは一定の成果が出ても、本番環境での権限管理や例外処理を想定していないため、業務に組み込めず終了します。実務適用では、80点の自動化よりも95点を人と協働で安定的に出す設計が重要であり、この現実的な期待値調整こそが失敗回避の最大のポイントと言えます。
総じて、日本企業の成功パターンは「小さく始め、測定し、統制する」という堅実なアプローチに集約されます。派手さはなくとも、業務理解と組織設計に裏打ちされた導入こそが、2026年以降の自律型AIエージェント活用を持続的な競争力へと転換する現実解になっています。
ハルシネーション・誤発注・情報漏洩への現実的な対策
自律型AIエージェントの実務適用が進むにつれ、ハルシネーション、誤発注、情報漏洩は「想定外の事故」ではなく、設計次第で確率を下げられる経営リスクとして捉える必要があります。**重要なのはAIの賢さではなく、人間がどこまで制御構造を組み込めているか**です。
ハルシネーション対策として最も現実的なのは、生成前提のLLMに判断を委ねない設計です。パナソニック コネクトが採用するRAGとナレッジグラフの併用は象徴的で、自由生成を抑え、参照可能な事実関係の範囲内でのみ回答させています。マッキンゼーも、業務利用では「創造性より再現性」を優先すべきだと指摘しています。
| リスク | 技術的対策 | 運用上の工夫 |
|---|---|---|
| ハルシネーション | RAG、ナレッジグラフ | 出典明示と人間レビュー |
| 誤発注 | ワークフロー分岐 | 金額・数量で承認必須 |
| 情報漏洩 | 最小権限設計 | 送信前チェック |
誤発注リスクへの対策では、法制度を前提にした設計が不可欠です。電子消費者契約法が適用されないB2B取引では、AIのミスはそのまま企業の損失になります。そのため先進企業では、一定金額や数量を超える取引では自動実行せず、人間承認を必須とするHuman-in-the-loop設計が標準化しつつあります。
情報漏洩対策では、日本総研が警鐘を鳴らすプロンプト・インジェクションへの備えが重要です。実務では、エージェントに与える権限を読み取り専用に限定し、外部送信や書き込みは別エージェントか人間が担う分業設計が有効です。Deloitteも、権限設計を曖昧にしたエージェントは高確率で事故を起こすと指摘しています。
これらに共通するのは、AIを「万能な自動化装置」と見なさず、**ルールに縛られた新入社員として扱う視点**です。制御可能性を最初から組み込むことが、現実的で持続可能なAIエージェント活用への最短ルートになります。
日本の法制度とAIガバナンスが実務に与える影響
自律型AIエージェントが実務に組み込まれるにつれ、日本の法制度とAIガバナンスは、単なるコンプライアンス論ではなく業務設計そのものを左右する実務要件になりつつあります。特に2024年に総務省・経済産業省が公表したAI事業者ガイドラインは、2026年現在、日本企業におけるAI活用の事実上の基準として機能しています。
このガイドラインの特徴は、EUのAI法のような制裁前提のハードローではなく、注意義務や説明責任を重視するソフトローである点です。しかしソフトローであるがゆえに、事故やトラブル発生時には「ガイドラインに沿った設計・運用をしていたか」が、過失の有無を判断する重要な材料になります。日本総研の分析によれば、AIの自律性が高まるほど、事前のガバナンス設計が事後責任を大きく左右するとされています。
実務で特に影響が大きいのが、AIエージェントによる発注や契約行為です。電子消費者契約法はB2C取引において消費者保護を定めていますが、企業間取引には適用されません。そのため、購買エージェントが誤って大量発注を行った場合でも、B2Bでは原則として契約が有効となるリスクがあります。これはエージェントの導入可否を判断する際の、現場レベルの重要な論点です。
| 論点 | B2C取引 | B2B取引 |
|---|---|---|
| 誤操作時の救済 | 電子消費者契約法により一定条件で取消可 | 原則不可 |
| 確認措置の要否 | 事業者に義務あり | 契約自由の原則 |
さらに見落とされがちなのが、セキュリティと権限管理です。日本総研が指摘するプロンプト・インジェクションのような攻撃は、技術問題であると同時にガバナンス問題でもあります。エージェントに過剰な権限を与えた結果の情報漏洩は、管理体制の不備として企業責任を問われる可能性があります。
このため先進企業では、Human-in-the-loopや最小権限の原則を、単なる技術設計ではなく内部統制の一部として明文化する動きが進んでいます。AIガバナンスは現場のスピードを落とすブレーキではなく、安心して業務を任せるためのハンドルです。日本の法制度を正しく理解し、それを前提に業務フローを設計できるかどうかが、2026年以降のAI実装の成否を分ける重要な分岐点になります。
2026年以降に成果を出すための自律型AIエージェント導入ロードマップ
2026年以降に自律型AIエージェントで継続的な成果を出すためには、単発のPoCやツール導入ではなく、段階的かつ組織設計まで踏み込んだロードマップが不可欠です。**多くの企業が実験止まりに陥る中、成果を出す企業は「技術導入」ではなく「業務変革」を起点に設計しています。**マッキンゼーの2025年調査でも、AIエージェントを全社スケールできている企業は1割未満に留まっており、計画性の差が明確に表れています。
最初のフェーズでは、エージェント導入に適した業務を見極めることが重要です。RPAのような完全定型業務ではなく、判断・探索・修正を伴う知的業務が対象になります。Deloitteは、リサーチ、社内ITサポート、ナレッジ検索を初期導入の有望領域として挙げています。**この段階での目的は自動化率ではなく、「人間がどこで介入すべきか」を可視化することです。**
| フェーズ | 主目的 | 成功指標 |
|---|---|---|
| 評価・選定 | 業務適性の見極め | 対象業務の明確化 |
| パイロット | 信頼性と再現性の検証 | 人手削減・品質維持 |
| 自律化 | 全体最適と拡張 | スケール展開率 |
次のパイロットフェーズでは、Human-in-the-loopを前提とした運用設計が不可欠です。Deloitteが「AIは新入社員として扱うべき」と指摘するように、エージェントの出力を必ず人がレビューし、修正内容を記憶に反映させる学習ループを構築します。**この設計を省略した企業ほど、ハルシネーションや誤操作を理由に導入を断念する傾向があります。**
実際、日本企業の成功事例ではこの段階設計が成果に直結しています。リクルートの観光DXでは、分析と翻訳という限定領域にエージェントを適用し、分析工数を最大15分の1に削減しました。業務範囲を絞り、結果を定量評価した点がスケールへの布石となっています。**スモールスタートは妥協ではなく、再現性を高める戦略です。**
最終フェーズでは、人間は個々の判断から解放され、複数エージェントを監督・調整する役割へ移行します。LangGraphやAgent Builderのようなオーケストレーション技術を用い、リサーチ、実行、検証を分担する構成が主流になりつつあります。World Economic Forumも、2027年以降は「単体エージェント」より「協調エージェント」が競争力の源泉になると指摘しています。
**ロードマップの本質は技術選定ではなく、組織がAIとどう協働するかを段階的に学習する点にあります。**早期に完璧を求める企業ほど停滞し、試行錯誤を前提に設計した企業ほど2026年以降の果実を手にしています。
自律型AIエージェントは導入した瞬間に成果を生む魔法の存在ではありません。しかし、正しい順序で育成・拡張すれば、労働力不足と生産性停滞という構造課題に対する現実的な解となります。**2026年以降に差がつくのは、今このロードマップを描けているかどうかです。**
参考文献
- Deloitte Insights:Autonomous generative AI agents
- McKinsey:The State of AI: Global Survey 2025
- みずほリサーチ&テクノロジーズ:AIは人手不足解消のカギになるか
- MarkeZine:リクルート、生成AIを活用した観光マーケティングの実証実験を開始
- AIsmiley:パナソニックコネクト、独自開発AIエージェントがRAGにナレッジグラフを参照して回答する新技術を開発
- World Economic Forum:Blueprint to Action: China’s Path to AI-Powered Industry Transformation
