採用が難しい。若手が定着しない。ベテランが高齢化し、暗黙知が現場に残ったまま——。
この状況で「現場の頑張り」や「教育回数を増やす」だけでは、限界が見え始めています。
いまグローバルで起きている変化は、AIを「相談相手」として使う段階から、AIを「業務の担い手(デジタル労働力)」として組み込む段階への移行です。
これを実現する考え方が エージェンティックAI(Agentic AI)。単なるチャットボットではなく、AIが「状況を理解し」「次の作業を計画し」「必要な情報を探し」「社内システムを操作して」「結果を記録する」——つまり 業務プロセスを前に進めるアプローチです。
OpenAIと協業したKlarnaは、AIアシスタントが導入初期に2/3のカスタマー対応チャットを処理したと公表。さらに、解決時間の短縮や反復問い合わせの減少なども示しています。
ポイントは「AIが回答する」ことではなく、「問い合わせ→意図判定→根拠(ナレッジ)参照→解決/エスカレーション」という一連の流れを、KPI(解決率・再問い合わせ率・処理時間)で管理している点です。
引用:クラーナ
※Klarnaは、後払い(BNPL)を中心とした決済サービスを提供するスウェーデン発のフィンテック企業で、近年はAIを活用してカスタマーサポートや業務運営の高度な自動化を進めている先進企業です。
Morgan Stanleyは、クライアント同意を前提に、面談後の要約・アクション抽出・フォローアップメール下書きを作成し、Salesforceへ記録する仕組みを発表しています。
「議事録を作る」だけで終わらず、次に必要な仕事(メール・CRM記録)まで進める。ここに「エージェント性」があります。
引用:モルガンスタンレー
Launch of AI @ Morgan Stanley Debrief | Morgan Stanley
SalesforceはAgentforceの顧客事例として、1-800Accountantで繁忙期のチャットの70%を自律解決した旨を紹介しています。
繁忙期のたびに人員を増やすのではなく、AIが一次対応と定型作業を担い、人は高度判断へ集中する設計です。
引用:セールスフォース
1-800Accountant will resolve 70% of inquiries with Agentforce. | Salesforce
エージェンティックAIは、PoCで動いても「本番で怖い」「責任が曖昧」「情報漏洩が心配」で止まりがちです。
だから最初にやるべきは、モデル選定ではなく ガバナンス設計です。
この考え方の土台として、NISTのAI RMF(AI Risk Management Framework)は、統治(GOVERN)から測定(MEASURE)まで整理されており、社内合意を作りやすい枠組みです。
※1:NIST
Artificial Intelligence Risk Management Framework (AI RMF 1.0)
※NISTは、米国商務省に属する国立研究機関で、AIやサイバーセキュリティを含む先端技術について、世界中の企業や政府が参考にする信頼性・安全性の標準ガイドラインを策定している組織です。
また、OWASPの LLM/GenAI向けTop 10は、プロンプトインジェクションや機密漏洩など「ありがちな落とし穴」をチェックリスト化するのに有効です。
引用:OWASP
OWASP Top 10 for Large Language Model Applications | OWASP Foundation
※OWASPは、世界中の専門家が参加する非営利団体で、WebやAIを含むソフトウェアの代表的なセキュリティリスクと対策(Top 10)を整理し、企業が安全にシステムを運用するための実践的指針を提供しています。
最初に当てやすいのはこの3つです。
エージェンティックAIを「業務化」する技術は、実はシンプルに3つです。
引用:OpenAI
a-practical-guide-to-building-agents.pdf
手順書・規程・過去のトラブル対応・FAQ・議事録などを整備し、AIが根拠を引いて回答・提案できる状態にします。
「知識承継」の第一歩は、ここを作ることです。
AIは単体では社内システムを更新できません。そこで、AIが「この操作を実行したい」とツール(関数/API)を呼ぶ仕組みを入れます。
※Tool Callingとは、AIが会話するだけでなく、あらかじめ定義されたAPIや業務機能(起票・検索・更新など)を安全なルールのもとで呼び出し、実際の業務を前に進める仕組みのことです。
イメージは「AIが作業指示を出し、アプリ側が実行する」。これにより、
引用:OpenAI Platform
業務は例外だらけです。そこで、状態(進捗)と分岐(条件)を管理する仕組みが必要になります。
たとえばLangGraphは、エージェント/ワークフローの設計パターンを整理し、デバッグや運用をしやすくする考え方を提示しています。
引用:LangGraph
Workflows and agents - Docs by LangChain
※LangGraphは、AIの判断や処理を業務フローのように分岐・状態管理しながら進められるようにするための、エージェンティックAI向けワークフレームワークです。
MicrosoftのCopilot Studioでは、データ流出防止のためにデータポリシー(DLP)を設定し、接続できるコネクタや扱えるデータを制御する考え方が示されています。
参考:Microsoft Copilot Studio
Configure data policies for agents - Microsoft Copilot Studio | Microsoft Learn
※DLP(Data Loss Prevention)とは、機密情報や個人情報が社外に漏れたり不正に持ち出されたりしないよう、データの利用・共有・送信をルールで制御・監視する仕組みのことです。
同じくCopilot Studioでは、マルチステージ承認やAI承認(プレビュー)など、重要判断は人がコントロールする設計が説明されています。
参考:Microsoft Copilot Studio
Multistage and AI approvals in agent flows - Microsoft Copilot Studio | Microsoft Learn
Amazon Bedrockでは、ガードレールのメトリクスをCloudWatchで監視する考え方が示されています(どれだけブロックされたか、など)。
参考:AWS
Monitor Amazon Bedrock Guardrails using CloudWatch metrics - Amazon Bedrock
※Amazon Bedrockは、AWSが提供する生成AI基盤で、複数の高性能AIモデルを安全管理や業務連携(エージェント化)とあわせて、非エンジニア企業でも使いやすく導入できるサービスです。
また上述したOpenAIのガイドでも、安全・予測可能・効果的に動かすための実践ポイント(ユースケース選定、ツール設計、評価)が整理されています。
もし、あなたの会社が「今年、現実的に一歩進める」なら——おすすめはこの順番です。
エージェンティックAI導入の「最初の一手」を一緒に設計しませんか
貴社の業務(品質/保全/購買/生産管理/情シス等)を題材に、AI戦略フレームワークにて、
を、短期間で「実装可能な形」に落とし込みます。