テクノロジーと科学の最新の話題を毎日配信中!!

AIエージェントとは何か? コンピュータ科学者が次世代のAIツールを説明する

Y Kobayashi

2024年12月19日

ChatGPTなどのAIチャットボットとのやり取りは楽しく、時には有用な場合もあるが、次世代の日常的なAIは質問に答えるだけにとどまらない。AIエージェントは、人間に代わってタスクを実行するのである。

OpenAIMicrosoftGoogleSalesforceなどの主要テクノロジー企業は、最近AIエージェントをリリースしたか、その開発・リリース計画を発表している。これらのイノベーションにより、医療、ロボティクス、ゲーム、その他のビジネスで使用されているシステムの基盤となる技術的・管理的プロセスに、かつてない効率性がもたらされると主張している。

単純なAIエージェントは、電子メールで送られてくる標準的な質問に返信するように教えることができる。より高度なエージェントは、大陸間のビジネス出張の航空券やホテルの予約を行うことができる。Googleは最近、記者団に対してProject Marinerのデモンストレーションを行った。これは、画面上のテキストや画像について推論できるChromeのブラウザ拡張機能である

デモンストレーションでは、エージェントは食料品チェーン店のWebサイトで商品をショッピングカートに追加し、特定の材料が入手できない場合は代替品を見つけることで、食事の計画を支援した。最終的な購入には人間の関与が必要だが、エージェントはその時点までに必要なすべての手順を実行するよう指示することができる。

ある意味で、人間もエージェントである。人間は毎日、見たり、聞いたり、感じたりすることに反応して行動を起こしている。しかし、AIエージェントとは正確には何か? コンピュータ科学者として、以下のように定義する:AIエージェントとは、特定の環境について多くを学習し、人間からの簡単な指示により、その環境で問題を解決したり特定のタスクを実行したりする技術的ツールである。

ルールと目標

スマートサーモスタットは、非常にシンプルなエージェントの例だ。環境を認識する能力は、温度を伝える温度計に限定されている。部屋の温度が特定のレベルを下回ると、スマートサーモスタットは暖房を上げることで反応する。

現在のAIエージェントの身近な先駆者は、Roombaだ。このロボット掃除機は、例えばカーペットが敷かれたリビングルームの形状や、カーペットの汚れの程度を学習する。そしてその情報に基づいて行動を起こす。数分後には、カーペットはきれいになっている。

スマートサーモスタットは、AI研究者が単純反射エージェントと呼ぶものの例である。これは決定を下すが、その決定は単純で、エージェントがその瞬間に認識することのみに基づいている。ロボット掃除機は、床を掃除するという単一の目標を持つ目標ベースのエージェントである。方向転換するタイミング、ブラシを上げ下げするタイミング、充電ベースに戻るタイミングなど、すべての決定がその目標に向けられている。

目標ベースのエージェントは、必要な手段を通じて目標を達成することで成功とみなされる。しかし、目標は様々な方法で達成できるものであり、その中には望ましいものもあれば、望ましくないものもある。

現在の多くのAIエージェントは効用ベースであり、目標の達成方法についてより多くの考慮を行う。進め方を決める前に、可能な各アプローチのリスクと利点を検討する。また、互いに競合する目標を考慮し、どちらがより重要であるかを判断する能力も持っている。ユーザー固有の好みを考慮して行動を選択することで、目標ベースのエージェントを超えている。

決定を下し、行動を起こす

テクノロジー企業がAIエージェントに言及する時、ChatGPTのようなチャットボットや大規模言語モデルについて話しているわけではない。ウェブサイトで基本的な顧客サービスを提供するチャットボットは技術的にはAIエージェントだが、その認識と行動は限定的である。チャットボットエージェントはユーザーが入力した言葉を認識できるが、取れる行動は、ユーザーに正確または有益な応答を提供することを期待してテキストで返信することだけである。

テクノロジー企業が言及するAIエージェントは、それを使用する個人や企業に代わって行動を起こす能力を持っているため、ChatGPTのような大規模言語モデルから大きく進歩している。

OpenAIは、エージェントはまもなく、進捗や結果を確認する必要なく、数日間あるいは数週間にわたって独立して実行できるツールになると述べている。OpenAIGoogle DeepMindの研究者たちは、エージェントは汎用人工知能(AGI)または「強いAI」への道のりの一歩であると述べている。これは、幅広い領域やタスクで人間の能力を超えるAIのことである。

現在人々が使用しているAIシステムは、狭いAIまたは「弱いAI」と考えられている。あるシステムは1つの領域(例えばチェス)では熟達しているかもしれないが、チェッカーのゲームに投入された場合、そのスキルは転用できないため、同じAIは機能の仕方がわからないだろう。人工知能一般システムは、これまで見たことのない新しい領域であっても、あるドメインから別のドメインへとスキルをより適切に転用できるだろう。

リスクは価値があるか?

AIエージェントは人間の働き方を革新する準備ができているのか? これは、テクノロジー企業が、エージェントが割り当てられたタスクを実行できるだけでなく、新しい課題や予期せぬ障害が発生した際にもそれらに対処できることを証明できるかどうかにかかっている。

AIエージェントの普及は、人々が潜在的に機密性の高いデータへのアクセスを許可する意思があるかどうかにもかかっている。エージェントが何をすることになっているかに応じて、インターネットブラウザ、電子メール、カレンダー、特定の割り当てに関連する他のアプリやシステムへのアクセスが必要になる可能性がある。これらのツールが一般的になるにつれ、人々はどの程度のデータを共有したいと考えるかを検討する必要がある。

AIエージェントのシステムが侵害された場合、生活や財務に関する個人情報が悪用される可能性がある。エージェントが作業を省力化できるならば、これらのリスクを受け入れることができるだろうか?

AIエージェントが不適切な選択や、ユーザーが同意しない選択をした場合はどうなるのか? 現在、AIエージェントの開発者たちは人間を介在させ、最終決定が下される前にエージェントの作業を確認する機会を確実に提供している。Project Marinerの例では、Googleはエージェントに最終購入やサイトの利用規約への同意を実行させることはない。人間を介在させることで、システムはエージェントが行った選択のうち、承認できないものを取り消す機会を提供している。

他のAIシステムと同様に、AIエージェントにもバイアスが存在する。これらのバイアスは、エージェントが最初に訓練されたデータ、アルゴリズム自体、またはエージェントの出力の使用方法から生じる可能性がある。人間を介在させることは、決定が実行される前に人々によって確認されることを保証することで、バイアスを軽減する1つの方法である。

これらの質問への答えは、人々がエージェントを使い始めた後、テクノロジー企業がどの程度エージェントを改善できるかに依存し、AIエージェントの普及度を決定する可能性が高い。


本記事は、キニピアック大学 コンピュータサイエンス准教授 Brian O’Neill氏によって執筆され、The Conversationに掲載された記事「What is an AI agent? A computer scientist explains the next wave of artificial intelligence tools」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする

コメントする