G-genの杉村です。今回は、生成 AI に関してよくある誤解と、それに対する事実を紹介します。これらは生成 AI と AI エージェントを、組織の業務に適用していくうえで知っておくべき基本的な知識です。

生成 AI に関するよくある誤解
以下の表に、生成 AI に関してよく聞かれる誤解と、それに対する事実をまとめました。
| 誤解 | 事実 |
|---|---|
| 生成 AI は思考する。 | 生成 AI は確率的にテキスト等を生成するだけ。 ただし思考しているかのような挙動を見せることはできる |
| 生成 AI は複雑な問題に対処できる。 | 生成 AI は単体では1+1すらできない。 tools の助けが必要。 |
| 生成 AI は学習する。 | 生成 AI モデルは、新しいデータを学ぶことは原則的にない。 ただし AI サービス提供ベンダーが、ユーザーの使用履歴を新しいモデルの学習に利用する可能性はある。 また AI サービスの使用履歴をコンテキストとして読み込むことで、学習したかのように見えることはある。 |
生成 AI と AI エージェントを適切に組織の業務に適用していくためには、上記に対する適切な理解が必要です。
当記事では上記について、生成 AI に関する基本的な知識と共に解説します。
生成 AI は確率的にテキスト等を生成するだけ
生成 AI とは
生成 AI(Generative AI)とは、テキスト、画像、音声、ソースコードなど、新しいコンテンツを生成することができる人工知能の一種です。
従来の AI が主にデータの分類や予測、画像認識などを得意としていたのに対し、生成 AI は学習したデータに基づいて、これまで存在しなかった新しいコンテンツを生成する能力を持ちます。生成 AI を利用した代表的なサービスとして、Google の Gemini アプリ や OpenAI の ChatGPT などが挙げられます。
- 参考 : Google Gemini
- 参考 : ChatGPT
これらの AI サービスの中核となっているのは、大規模言語モデル(LLM)です。LLM は、膨大なテキストデータを学習し、ある単語の次にどの単語が来る確率が最も高いかを統計的に予測することで文章を生成します。
生成 AI の学習
前述の通り、LLM は膨大なテキストデータを学習しています。このとき、「この単語の後には、次はこの単語が来やすい」という傾向を統計的に学習します。また LLM は学習時に、単純に隣接した単語の関係性を学ぶだけでなく、Transformer という仕組みを使って、文章全体の文脈を「理解」します。
この学習の結果として、LLM(あるいは単にモデル)が誕生します。代表的なモデルとして、Google の Gemini 2.5 Pro や Gemini 2.5 Flash、また OpenAI の GPT-4o、GPT-5、GPT-5 mini などがあります。
ここで挙げたモデルの名称と、AI サービスの名称を混同しないように注意してください。Gemini 2.5 Pro、GPT-5 といったモデルを搭載し、ユーザーに AI チャットを提供するサービスの名前が、Gemini アプリや ChatGPT です。
| サービス名 | サービスが使うモデル名 |
|---|---|
| Gemini アプリ | Gemini 2.5 Pro、Gemini 2.5 Flash 等 |
| ChatGPT | GPT-5、GPT-5 mini 等 |
上記を模式図にすると以下のようになります。以下は Gemini アプリの例ですが、ChatGPT でも似た図になります。

確率的な特性
人間がプロンプトと呼ばれるテキスト(あるいは時には画像、音声、動画)をモデルに渡すことで、モデルは処理を開始します。モデルは、ある単語の次にどの単語が来る確率が最も高いかを、統計的に予測することで文章を生成します。
以下の Google の公式記事は、生成 AI モデルは確率エンジンであるとしています。あくまでモデルは、過去に学習したデータに基づいて確率的に文章を生成しているのだ、という点に注意が必要です。本質的に、そこに論理や思考は存在していません。モデルは人間のように意味を理解して対話しているわけではなく、あくまで確率に基づいた「それらしい」応答を生成しているに過ぎません。また同じ質問を複数回すると、返って来る答えが同じになるとは限りません。
この特性により、生成AIはいわゆるハルシネーション(もっともらしい嘘)を生成することがあります。入力された情報や学習データにない事柄について質問された場合でも、モデルは最も確率の高い単語を繋ぎ合わせて、事実に基づかない情報を生成してしまう可能性が十分にあるのです。
最新のモデルや AI サービスでは、生成結果の正しさを検証するプロセスが実行されたり、後述の「RAG」といった技術により正しさを補強する機能が備わったことにより、ハルシネーションを軽減する試みがなされています。とはいえ、生成された内容は必ずファクトチェック(事実確認)を行う必要があります。
モデルは「今」を知らない
また、モデルは過去に学習したデータをもとに生成を行います。よってモデルは、「現在の天気」や「最新の Web ページの内容」などを知ることはできません。モデルは、学習が行われた時期より後に起こった出来事を知らないのです。
Gemini シリーズのモデルでは、モデルがいつの時点のデータを使って学習されたかが明示されています。例えば Gemini 2.5 Pro は2025年1月時点のデータを使って学習しているので、それ以降の世の中の情報を知りません。
しかし、Gemini アプリや ChatGPT に、最近の時事について質問すると、適切に答えることがあります。この挙動は、後述する「tools」や「RAG」といったテクニックにより、モデルが現実世界の新しい情報を随時取得していることにより実現しています。モデル自体は最近のニュースを知らないため、外部から情報を取得しているのです。
思考/推論
生成 AI モデルや AI サービスの中には、あたかも思考しているかのような挙動を見せるものもあります。これらの挙動は思考(thinking)や推論(reasoning)と呼ばれ、モデルの特徴として位置づけられています。
Gemini 2.5 Pro/Flash/Flash-Lite や、GPT-5、GPT-5 mini はいずれもこれらの思考/推論の機能を備えたモデルです。
この機能の中核にあるのは、Chain-of-Thought(CoT、思考の連鎖)と呼ばれる技術です。この技術では、モデルは思考の途中プロセスをテキストとして生成し、それを次の生成へのインプットにして、また次の生成を行います。この連鎖を行うことで、多段階の思考を実現しています。
例えば、「太郎君はリンゴを5個持っていました。花子さんから3個もらい、その後2個食べました。残りは何個ですか?」という問題に対して、LLMは次のように思考を文章化します。
- 初期状態: 太郎君は最初にリンゴを5個持っている。
- 変化1: 花子さんから3個もらったので、5 + 3 = 8個になる。
- 変化2: その後2個食べたので、8 - 2 = 6個になる。
- 結論: したがって、残りのリンゴは6個である。
このアプローチは、人間が複雑な問題を解く際に、頭の中や紙の上で段階的に考えるプロセスを模倣しています。ポイントは、あくまで LLM の基本である「確率的にテキストを生成する」という挙動しか行っていないことです(途中で後述の「tools」を使うことはあります)。
誤解と事実
| 誤解 | 事実 |
|---|---|
| 生成 AI は思考する。 | 生成 AI は確率的にテキスト等を生成するだけ。 ただし思考しているかのような挙動を見せることはできる |
これを理解すれば、以下のような誤謬を回避することができます。
- 生成 AI は思考しており、「正しい」答えを導いてくれる
- 生成 AI は想定どおりの答えを毎回同じように回答してくれる
- 生成 AI は感情を持つかもしれない
上記の誤謬を避けられれば、AI の適用対象業務の選定や適用のさせ方を適切に検討できます。
生成 AI モデルは1+1すらできない
計算も Web サイト読み込みもできない
前述した「生成 AI は確率的にテキスト等を生成するだけ」という特性から、生成 AI モデルは「1+1」という簡単な計算すら行うことはできません。とはいえ「1+1」であれば、学習した言語的なデータに基づいてあたかも計算をしたかのような回答をすることはありますが、複雑な計算はできません。
当記事ならではの言い回しですが、「生成 AI は根っからの文系である」ということもできます。
同様に、以下のような作業は、いずれも生成 AI モデル単体では、正確に行うことはできません。
- 数値の計算や集計
- URL に基づいた Web サイトの読み込み
- 外部のアプリケーションやデータベースとの連携
モデルが実行できるのは、確率的にテキスト等を生成することだけであると考えればわかりやすいと言えます。
AI を助ける tools
しかし、Gemini アプリや ChatGPT に数学の問題を与えると、高度な問題も解けることがあります。また難しい質問や時事に関する質問をすると、Web サイトの情報を取得してそれに基づいて回答してくれることもあります。
これが実現可能なのは、これらの Web サービスに tools という仕組みが組み込まれているからだと考えられます。
tools は、その名のとおり、生成 AI が使う道具です。その実体はいわゆる通常のコンピュータプログラムです。通常のプログラムであれば、四則演算や Web サイトの取得などを、速く正確に行うことができます。Gemini アプリや ChatGPT などの Web サービスは、人間から与えられた指示に応じて、tools(= 外部プログラム)を呼び出し、必要な計算を行ったり、Web サイト検索を行ったりすることで、タスクを遂行しています。この tools を「いつ呼び出すか」「どのように使うか」という一見論理的な判断は、文系脳の生成 AI モデルでも行うことができます。これは、プロンプトに含まれるキーワードや文脈から、どの tool が最適かを確率的に判断しているためです。
なおモデルが tools としてプログラムを呼び出す機能のことを function calling と呼びます。例として Gemini や GPT シリーズは、function calling 機能を持っています。
Gemini アプリや ChatGPT の挙動
Gemini アプリや ChatGPT といった各社が提供する AI サービスでは、以下のような処理が行われていると考えることができます。
- ユーザーが「345 × 123は?」などとプロンプトを入力する
- モデルがプロンプトの意図を言語的に解釈する
- モデルが tools を選択。「これは計算が必要なタスクだ」と判断し、内蔵されている計算ツールを選択する
- モデルが tools を実行。モデルが計算ツールに「345 * 123」という計算を実行させ、42435 という結果を受け取る
- モデルが応答を生成。計算ツールから受け取った結果を基に「345 × 123 の答えは 42,435 です。」といった自然な文章を生成してユーザーに返す
Gemini アプリや ChatGPT といったサービスは、単にモデルへの入出力インターフェイスではなく、様々な tools などの仕組みが組み込まれたチャット型アプリケーションである、と言えます。
誤解と事実
| 誤解 | 事実 |
|---|---|
| 生成 AI は複雑な問題に対処できる。 | 生成 AI は単体では1+1すらできない。 tools の助けが必要。 |
これを理解すれば、以下のような誤謬を回避することができます。
- tools を用意していないのにも関わらず、生成 AI モデルに外部サイトの URL を与えて読み込ませようとする
- tools を用意していないのにも関わらず、生成 AI モデルに数値の計算や分析をさせようとする
上記の誤謬を避けられれば、AI エージェントや AI アプリケーションを開発する際に、適切に仕様を検討したり、Gemini Enterprise(旧称 Google Agentspace)や Dify といった AI プラットフォームやローコード/ノーコードエージェント開発ツールで、適切に開発を行うことができます。
モデルは「学習しない」
モデルの使用と学習
生成 AI に関するよくある誤解の1つとして、「Gemini アプリや ChatGPT といったサービスを使っていると、入力したデータがモデルに随時、学習される」といったものがあります。
これは、使っていくうちにモデルがユーザーのことを理解して、より使い勝手がよくなるのであるというポジティブな見方の側面もあれば、逆に顧客データや機密データを学習されてしまう、というネガティブな捉え方をしている人もいます。
しかし実際には、生成 AI モデルは入力されたデータを学習するということはありません。「生成 AI の学習」の項で説明したように、モデルは大量のデータに基づいた学習のアウトプットとして誕生します。そして一度誕生したモデルは、原則的に追加のデータを学習することはありません(後述のファインチューニングといった手法を除く)。よって、Gemini アプリや ChatGPT に入力したデータや、出力されたアウトプットが随時学習され、見ず知らずの他人に提供されてしまうということはありえません。
学習に見える挙動
一方で、Gemini アプリや ChatGPT がユーザーとのやり取りを学習したと思える挙動を見せることがあります。
これは、以下のいずれかの機能に由来しています。
- コンテキスト
- メモリ
コンテキストとは、モデルが生成を行う際に、背景情報として使う情報です。Gemini アプリや ChatGPT で、会話スレッドを始めると、同じスレッド内であれば前の会話を AI が覚えていて、一貫性のある会話が成り立ちます。これは、AI が生成を行う際に、都度以前の会話をコンテキスト(背景情報)として参照して生成を行っているためです。生成の都度、コンテキストを読み込んでいるため、これは学習ではありません(モデル自体は何も変化していません。モデルへのインプットが変化しています)。
またメモリとは、Gemini アプリや ChatGPT の Web アプリケーションに組み込まれた機能であり、過去のスレッドでの会話を AI が覚えているかのように会話が行える機能です。AI が最近の会話を自動的に参照するため、使えば使うほど AI がパーソナライズされていき、使い勝手がよくなります(Gemini アプリの場合はこの機能は「パーソナルコンテキスト」と呼ばれており、2025年12月現在、個人向けプラン・一部の地域でのみ利用可能です)。
この機能は、モデルが最近の会話の内容を都度コンテキストとして使っている、もしくは RAG(後述)の対象として使用することで実現していると考えられます。
これらの手段は、モデルが学習していない、外部データを使用するためインプットを充実させる手法であり、モデルが学習して変化するわけではありません。よって、データへのアクセス権限が適切に管理されている限り、これらの機能によってモデルを通じて他人にデータが漏洩してしまう心配もありません。
サービス改善に使われるデータ
それでは、生成 AI サービスを使う際によく話題になる「入力したデータや出力されたデータが、サービス提供事業者によってサービスの改善やモデルの学習に使われるかどうか」という議論は、何のためのものなのでしょうか。
これは、Google や OpenAI といったサービス提供事業者が、新しいモデルを開発したり、Gemini アプリや ChatGPT といった AI サービスの改善にデータを利用するかどうかを指しています。つまり、ユーザーが入力したデータや AI によって出力されたデータは、直ちにそのモデルが学習するわけではありませんが、データがサービス提供事業者によって蓄積され、新しいモデルの学習に使われる可能性がある、ということを指しています。
これにより、新しく開発されるであろう次期モデルの学習には、無償版の AI サービスのユーザーが入力したデータ等が学習に使われる可能性が十分あります。機密データが次期モデルの学習に使われると、次期モデルではそのアウトプットに学習データが含まれる可能性がゼロではありません。これが、企業の AI 利用者がデータのプライバシーポリシーを適切に理解しなければならない理由です。
なお Google が提供するモデルに関しては、有償のサービス(Google Cloud や Google Workspace) に含まれる AI 機能について、入出力データはモデルの学習やサービス改善に使われることはない、とドキュメントや利用規約に明記されています。
- 参考 : 生成 AI とデータ ガバナンス - Google Cloud
- 参考 : Service Specific Terms - Google Cloud
- 参考 : Google Workspace with Gemini に関するよくある質問 - Google Workspace 管理者ヘルプ
- 参考 : Google Workspace の生成 AI に関するプライバシー ハブ - Google Workspace 管理者ヘルプ
一方で、個人向け・無償版の Google アカウントで使用する Gemini アプリ等では、データはサービス改善に使われる可能性があります。
精度を上げるには
既存のモデルが学習して変化するわけではないとしたら、モデルの精度を上げたり、自社の業務への適応度を向上させるにはどうすればよいでしょうか。
いくつかの方法がありますが、以下のような代替手段が考えられます。
- コンテキストを与える
- Retrieval-Augmented Generation(RAG)
- ファインチューニング
上記を、順番に説明します。
1. コンテキストを与える
最も簡単な方法は、モデルへのインプットにコンテキスト(背景情報)を与えることです。AI への指示だけではなく、その指示の背景情報を含ませてプロンプトとしてモデルに与えることで、モデルは過去に学習していないデータも使用して生成を行うことができます。このように、特に背景情報として読み込ませるプロンプトのことをシステム指示(System Instruction)と呼ぶこともあります。
例えば、モデルに日報を書かせる場合は、以下のような情報をコンテキストとしてプロンプトに含ませることが有用です。
- ペルソナ(どういった人物の立場から記述するか)
- 日報を書いている背景(誰のために、何のためになど)
- 日報の基になる業務履歴(メールのやりとり、カレンダーの予定、成果物等)
- 日報の体裁
特に Gemini はロングコンテキストモデルと呼ばれています。Gemini 2.5 Pro や Flash は100万トークンのコンテキストを受け付けることができます。トークンとは、LLM が入出力する文字を理解するために分割した結果をカウントする単位です。Gemini の場合、英語の処理では概ね「約4文字が1トークン」「約60~80単語が100トークン」とされています。
つまりGemini は、英語でいうと80万単語ほどのプロンプトを一度に受け取ることができます。コンテキストとして十分な情報をインプットすることで、アウトプットの精度が向上します。
2. Retrieval-Augmented Generation(RAG)
Retrieval-Augmented Generation(RAG)は、生成 AI モデルが外部のデータを参照するための手法、またはアーキテクチャのことです。RAG では、モデルにプロンプトとして直接情報を与えるのではなく、外部のデータベースを参照させます。例として、API 経由で Gemini を呼び出す場合、Google Cloud と組み合わせることで、Cloud Storage に格納した文書や BigQuery テーブルを RAG の対象として使用できます。
特に AI アプリケーションを開発したり、AI エージェントを開発するときに、RAG は重要です。AI が自社の業務やデータに適応した振る舞いをするには、RAG を構成することが有効に働きます。また、そのためには RAG の対象とするデータの整備が必要です。すなわち、文書が一箇所のストレージに集約されていたり、あるいはデータベースにきれいなフォーマットで格納されている必要があります。
3. ファインチューニング
ファインチューニングは、モデルに追加の学習を施すことです。特定の業務に特化させたり、振る舞いを特定させることができます。この手法は前述の2つの手法と違い、実際に学習を行い、派生版のモデルを作成する作業です。しかし、前述の2つの手法よりも、より労力が大きいものになります。Gemini の場合、有意なファインチューニングを行うには、学習用データとしてプロンプトと応答のセットを数百個用意する必要があります。また一度モデルを開発すると、精度を維持するためには、継続してデータセットを準備して学習し続ける必要があるため、その労力は大きいものとなります。
- 参考 : About supervised fine-tuning for Gemini models - Google Cloud
- 参考 : Gemini の教師ありファインチューニング: ベスト プラクティス ガイド - Google Cloud
誤解と事実
| 誤解 | 事実 |
|---|---|
| 生成 AI は学習する。 | 生成 AI モデルは、新しいデータを学ぶことは原則的にない。 ただし AI サービス提供ベンダーが、ユーザーの使用履歴を新しいモデルの学習に利用する可能性はある。 また AI サービスの使用履歴をコンテキストとして読み込むことで、学習したかのように見えることはある。 |
これを理解すれば、以下のような誤謬を回避することができます。
- ツールを使っているうちに AI が徐々に賢くなるのを期待する
- AI が入力情報を学習することを恐れて、業務導入に否定的になる
上記の誤謬を避けて、AI サービスのプライバシーポリシーやデータの扱いに関する規約を適切に理解しましょう。さらに、AI への適切なコンテキスト情報のインプットを図ったり、データの整備と RAG 構成を構築することにより、AI の精度を上げ、実業務に適用させることができます。
AI エージェントの業務適用
AI エージェントとは
生成 AI の業務適用を語るにあたり、AI エージェントの概念も解説します。AI エージェントとは、特定の目標を達成するために、自律的に状況を判断し、計画を立てて、遂行するシステムのことです。特に、その思考エンジンとして生成 AI モデルを使用しているものを指します。
単にユーザーの指示に応答を返すだけの生成 AI チャットボット等とは異なり、AI エージェントは「出張の手配をする」といった曖昧な指示に対して、必要なタスク(航空券の予約、ホテルの予約、スケジュールの登録など)を自ら分解し、それぞれに対応する tools を順番に実行することで、目標を達成します。
AI エージェントと tools
ここで重要なのが、前述の tools です。繰り返しになりますが、基本的にモデルが実行できるのは、確率的なテキスト生成です。生成 AI は、1+1という簡単な計算すら行うことはできません。AI エージェントは、生成 AI モデルを思考エンジンとして、tools、すなわち外部プログラムを自律的に判断して実行することでタスクを実行していきます。
また、AI エージェントは時として複数のエージェントを内包したマルチエージェントとして実装されます。以下は、マルチエージェントとして構成された AI エージェントの例です。

AI エージェントができること
AIエージェントは、人間が行っていた定型的な業務や、複数のシステムを横断して行われる複雑なタスクを自動化することができます。例えば、以下のようなことが可能です。
- 情報収集と分析 : 複数のWebサイトや社内データベースから情報を収集し、レポートとして要約する
- タスクの自動化 : 経費精算システムへの入力、顧客情報のCRMへの登録、カレンダーへの予定登録などを自動で行う
- 顧客対応 : 顧客からの問い合わせ内容を解釈し、FAQデータベースを検索して回答したり、必要に応じて担当者へエスカレーションしたりする
2025年12月現在、AI エージェントはまだ多くの組織で実験段階であり、業務改善や大きな RoI に繋がった事例は限定的です。以下は、株式会社G-genが商用環境で AI エージェントを公開している事例です。
- 参考 : ナレッジ検索・回答AIエージェントG-gen Tech AgentをADKで開発した事例 - G-gen Tech Blog
- 参考 : 株式会社G-gen、新サービス G-gen Tech Suite を提供開始 - 株式会社G-gen
ノーコードエージェント
ソースコードを記述することなく AI エージェントを開発できるノーコードエージェントソリューションも存在します。
Gemini Enterprise のノーコードエージェント機能はその代表です。ノーコードエージェントは、Gemini Enterprise に接続された外部データソースを取得したうえで、コンテンツ生成や要約などのタスクを行わせることができます。

AI の業務適用
本当に AI である必要があるのか
生成 AI や AI エージェントは強力なツールですが、あらゆる課題に対する万能薬ではありません。逆説的ではありますが、AI の導入を検討する前に、その課題が本当に生成 AI で解決すべきものなのかを考えるべきです。
課題によっては、生成 AI を使わずに従来の技術で十分に、あるいはより効率的に解決できる場合があります。
例えば、特定のキーワードが含まれていたら定型文を返すような単純な応答であれば、ルールベースのチャットボットで十分です。また、Excel のデータを別のシステムに転記するような作業は、RPA(Robotic Process Automation)の方が精度が高い可能性があります。商品カタログからあいまいな言葉で検索をかけて、迅速に商品ページの URL を返すようなシステムでは、セマンティック検索(意味論検索)機能を備えた検索システムが適切です。
生成 AI の出力結果は、不確実性を伴うため、より単純で確実な方法がある場合はそちらを優先すべきです。ミスが許されない業務を、生成 AI で完全に自動化するのは困難です。一方で、人間の業務時間を短縮するための便利な道具あるいは人間の判断等を補助するアシスタントとしての用途であれば、検討の余地はあります。
また現状、例えば後述の Agent Development Kit(ADK)を使って実装した Gemini 2.5 Flash ベースの AI エージェントにおいて、2〜3のエージェントがシーケンシャル(直列)に動いた場合、クエリ開始からレスポンスまで、20秒〜40秒のレイテンシがかかります。こういった処理時間が許容できるかどうかも、生成 AI や AI エージェントを採用するかどうかの検討要素になります。
AI の業務導入
ある程度は生成 AI による効果が見込めそうだと考えられる場合、まずは Google Workspace に組み込まれている AI 機能(Gemini for Google Workspace)など、ライセンスを購入すれば開発不要ですぐに使える(Out-of-the-box な)サービスの使用を検討します。
Gemini for Google Workspace は、Gmail、Google ドキュメント、スプレッドシートなどの日常的に利用する Google Workspace アプリに組み込まれた生成 AI 機能の総称です。メールの文面作成、文書の要約、議事録の作成、関数やマクロの自動生成など、専門的な知識がなくても、誰もがすぐに生成 AI の恩恵を受けることができます。
以下の記事も参照してください。
どうしても既存サービスで実現できない独特な要件がある場合に、AI アプリケーションの独自開発を検討します。この考え方については、以下の記事も参照してください。
AI アプリケーションの開発
AI アプリケーションの開発を決断する場合、Google Cloud や OpenAI など、AI モデル提供事業者等が提供する API を、インターネット越しにアプリケーションから呼び出す形で実現します。
あるいは、オープンモデルと呼ばれるようなモデルを直接サーバーに配置するような実現方法もあります。どのようにモデルを呼び出すかは、扱うデータの機密性、データの所在に関する規定、許容されるレイテンシなどから判断します。
また前述の AI エージェントを実装するには、例として以下のような方式が考えられます。
1. Agent Development Kit(ADK)
Agent Development Kit(ADK)は、AI エージェントの開発、デプロイ、評価を効率化するために Google が開発したオープンソースのフレームワークです。ADK を利用することで、開発者は通常のソフトウェア開発と同じような感覚で、モジュール化された再利用可能なコンポーネントを組み合わせて AI エージェントを開発できます。ADK は Google の生成 AI モデル Gemini や Vertex AI などのエコシステムに最適化されていますが、特定のモデルやデプロイ環境に依存しない設計思想を持っており、高い柔軟性と拡張性を備えています。
ADK の仕様や実装例については、以下の記事を参照してください。
2. Gemini Enterprise - ノーコードエージェント
Gemini Enterprise は、Google(Google Cloud)が提供する生成 AI サービスです。組織内に分散しているドキュメント、メール、チャット履歴などのデータを横断検索し、情報の発見を手助けします。また AI エージェント機能により、カレンダーの登録やその他のタスクなどを人間の代わりに行います。
Gemini Enterprise の Enterprise Plus ライセンスには、ノーコードエージェント開発機能が搭載されています。ユーザーの1人1人が手元で、ソースコードを書くことなく、エージェントを開発できます。
例えば以下のようなエージェントを開発可能です。
- Cloud Storage 上の社内規定集から情報を取得して、社内規定の質問に答えてくれるエージェント
- Jira から情報を取得して、指定された名称の開発プロジェクトの状況をタイムライン順に報告するエージェント
Gemini Enterprise 自体は Out-of-the-box なソリューションです。その中に含まれるノーコード開発機能は、ユーザーが自らノーコードでエージェントを開発できるため、「Out-of-the-box なソリューションの利用」と「独自アプリ開発」の中間的な選択肢と言えます。以下の記事も参考にしてください。
杉村 勇馬 (記事一覧)
執行役員 CTO
元警察官という経歴を持つ IT エンジニア。クラウド管理・運用やネットワークに知見。AWS 認定資格および Google Cloud 認定資格はすべて取得。X(旧 Twitter)では Google Cloud や Google Workspace のアップデート情報をつぶやいています。
Follow @y_sugi_it