私も含めて多くの人たちが実際に自分で使って見て生成AIが持つ実力の凄さを学んだ。ChatGPTも初めて登場して評判を呼んだ3.5版から、今では5.0版まで進歩し、もはや地球上の誰もが、高度な知識レベルにおいて人間は誰でも生成AIには勝てないことを知った。将棋の藤井七冠ならとっくに知っているAIの凄さに、遅ればせながら我々はようやく気がついたのだ。その生成AIの実力を単に質問に答えるというレベルを超えて自ら判断して仕事を行わせるのが「AIエージェント」と呼ばれる新たな形のサービスだ。少し前に大流行したRPA(ロボティック・プロセス・オートメーション)も決まった仕事をきちんとやり遂げることについては大きな役割を果たし、今も多くの仕事を行なっている。
元々、RPAは金融機関のデータセンターで、これまで多用されていた「Exelマクロ」を体系的な仕掛けとして置き換えることで多くの支持を得たが、少しでも定義から外れた入力が投入されると全く無力になるという限界が見えてきて、最近では、なぜかRPAの話は殆ど聞かれなくなった。こうしたRPAにおける雁字搦めの定義を少しでも広義に拡張できる生成AIを応用した「ワークフロー型AI」を「AIエージェント」と定義するようになった。世界の主要テック企業が「AIエージェント」について次のように定義している。
Amazon (AWS):環境と対話し、データを収集し、そのデータを使用して自己決定タスクを実行し、事前に決められた目標を達成するためのソフトウエア。
Google : AIを使用してユーザーの代わりに目標を追求しタスクを完了させるソフトウエアシステム。推論、計画、記憶が可能であることが示されており、意思決定、学習、適応を行えるレベルの自律性を備える。
IBM : ワークフローを設計し、利用可能なツールを活用することでユーザまたは別のシステムに代わってタスクを自律的に実行できるシステム。
Meta : ユーザの入力を受け取り、内部で推論や意思決定を行い、適切なツールやアクションを選択して実行する自律的なシステム。
Microsoft : 生成AIの力をさらに一歩進めた存在。ただ単に支援するだけでなく、ユーザーと一緒に、あるいはユーザーの代わりに作業を行う。エージェントは質問への回答から、より複雑なマルチステップのタスクで幅広い作業をこなせる。
Open AI : ユーザの代わりにタスクを自律的に達成するシステム。
「AIエージェント」という、何とも夢のような知的システムの登場で、人手不足で困っている経営者から見れば何としても導入したいと考えることは極めて自然である。一方で、「AIエージェント」導入の失敗例も後を経たない。一番は、目的が曖昧なまま導入してしまうこと。2番目は、責任の所在が不明確なまま進めてしまう。最後は、一番大事なことだが、現行の業務フローを変えずに「AIエージェント」だけを無理やり導入してしまうことだという。まずは、「AIエージェント」を導入するためには、現在の業務の棚卸しが必要だ。全て思いつくままに全ての業務を書き出して、現場の状況を正確に把握する必要がある。さらに、「その人がいないと回らない」属人化している業務を見つけ出すことが重要となる。「AIエージェント」をスムースに導入するためには、こうした属人的にしている業務を整理して、誰もが論理的に納得するルールを整備する必要がある。
「AIエージェント」の導入がうまくいかない組織には、以下の点が挙げられる。第一には、マニュアルやドキュメントが存在しない業務がある。第二には「いつも通り」、「普段通り」という言葉が頻出する。そして第三には、「何となく」、「経験的に」という言葉で説明される判断基準が多くある組織である。こうした組織では、RPAで整理されていない「Execlマクロ」を特定の人だけが管理している状況とも重なっている。また、「AIエージェント」を安定的に運用するためには「情報漏洩のリスク」、「判断の誤りのリスク」、「運用上のリスク」についても、予め留意しておく必要がある。
生成AIがホワイトカラーの雇用を奪う可能性が危惧されているのと反対に、生成AIが関与しにくい「エッセンシャルワーカー」の存在は益々重要となり求職サイドだけでなく、求人側からみても極めて重要となる。その「エッセンシャルワーカー」の中で、今の日本で一番危惧されている職業の一つとして車の運転手(ドライバー)がある。この職業を自動運転に置き換える「AIエージェント」の存在が期待されているわけだが、これまでGoogleやテスラなど多くのビッグテックが挑戦をしてきたが、なかなか本格的に実用化してこなかった。つい最近もテスラの自動運転車が人身事故を起こしてしまったというニュースが世界中を駆け巡った。一体、いつになったらドライバーを必要としない「AIエージェント」が出現するのだろうか?と心配になる。
私の考えでは、自動運転車の人身事故発生確率は人間のドライバーが起こす人身事故より遥かに少なくなっており、安全性で見れば「AIエージェント」の方が圧倒的に人間のドライバーより安全だと思うのだが、それでも多くの人々は「AIエージェント」が起こす人身事故の発生を許さない。我々は、この矛盾をどうしたら解決できるのだろうか? 先日、Uber Japanの役員に就任した友人の話を聞いて一つの解決策に気がついた。彼女は、Uberの本社がある米国テキサス州オースチンに行って研修を受けた後、米国で最も自動運転タクシーが普及しているサンフランシスコ市内で50回ほどUber自動運転タクシーに自分だけで乗ってみたという。その結果は、極めて安定していて、何の不安もなかったそうだ。
まず、Uber自動運転タクシーを呼ぶには、行き先のほか、自身の名前の頭文字と「好きな色」を指定する。彼女がピンク色を指定してから暫くすると、車の上部にピンク色で発光させたランプに彼女が指定した頭文字が見えた。スマホを車にかざすとドアロックが外れて簡単に乗ることができた。50回の乗車中、49回は何の問題もなくスムーズに指定場所まで運んでくれたという。しかし、たった1回だけダウンタウンの混み行ったところで、自動運転タクシーはスピードを落として路肩に乗り上げて停止した。直ぐに、センター側から「どうしたのか?」との声が聞こえたので、彼女は「助けてほしい」と答えたところ、「すぐに復旧させるから暫く待つように」との指示があった。そして、すぐさま、Uberのコントロールセンターから人手によるリモート操作で元の道に戻し、その後、自動運転車は何の不都合もなかったように、また自動運転任務を再開した。
私は、この話を聞いて「凄いな」と思ったことが2点ある。現在、UberはGoogleの親会社でアルファベット傘下のウエイモ社製の自動運転タクシーを使って運用しているわけだが、最初の1点目は、この車が困難な状況に陥った時に勝手に判断しないで「もう無理だから助けて!」とUberのコントロールセンタに通知できたことだ。生成AIは、人間を遥かに超える大量の知識を持っているので、これらの知識を総動員して何とか解を見出そうとする。だから、「分からない」とか「知らない」という出力を出すことを非常に苦手としている。非常に稀ではあるが、生成AIは、ハルシネーション(幻想)と呼ばれる誤った答えを出すことさえある。それでも、生成AI自身は自分の出力が間違っていることを知らないので何の悪意も感じていない。しかし、このウエイモの自動運転車に搭載されている「AIエージェント」は「分からない、助けて」という出力が出せるのだ。これが、まず最初に凄いことだと思った。
次に、凄いなと思ったことは、支援を求めてきた「AIエージェント」に対して、センターに常駐している人間のドライバーが、多くのセンサーを自分の目で見て「AIエージェント」を支援する仕掛けである。タクシーやバス、あるいはトラックの運転手は必ずどこかの組織に属しているので、車の運転を「AIエージェント」に委ねたとしても、優秀なドライバーが所属する組織の「支援センター」のバックアップが受けられる仕掛けが組み込まれている。こうした救済する仕掛けがあれば、「AIエージェント」が自らの考えを深追いしないように作り込んでおくことによって最悪の事態は避けられる。しかし、一般の個人が、バックアップ組織を持たないまま自らの運転を「AIエージェント」に委ねるとすれば、それは今の所少々危険であると言わざるを得ない。
このUberの自動運転タクシーの仕掛けから、「AIエージェント」の本質的な役割が見えてくる。どんなに優れた「AIエージェント」でも絶対的に全自動とはいかないのだ。それをバックアップするシステムを最初から考えておく必要がある。そうした、AIと人との協業によって「AIエージェント」は、更なる高みに登ることができるだろう。