【AI入門その11】生成AIはなぜ文章を作れるのか

この記事では、生成AIがどのような仕組みで文章を作り出すのかを解説します。
トークン予測という本質的な仕組みを理解することで、生成AIの活用法と限界を正しく判断できるようになります。

目次

生成AIの本質 ― トークン予測の繰り返し

生成AIは「次のトークン(単語のかたまり)を予測する」という処理を繰り返します。

文章生成の最小単位「トークン」

トークンとは、AIが文章を処理するときの最小単位です。日本語では1〜2文字程度、英語では単語・接頭辞・語根などに相当します。「機械学習」なら「機械」「学習」の2トークンに分割されることがあります。生成AIはまず入力テキストをトークン列に変換し、そのトークンの並びを数値(ベクトル)として処理します。

次のトークンを確率で予測する

生成AIが文章を作る仕組みは「次に来るトークンの確率分布を計算し、最も自然なものを選ぶ」という繰り返しです。「今日の天気は」という入力があれば、「晴れ」「曇り」「雨」など多くの候補をスコアリングし、確率が高いものを出力します。この処理を1トークンずつ行い、文章を少しずつ生成していきます。

温度(Temperature)パラメータによる制御

出力のランダム性は温度(Temperature)というパラメータで調整できます。温度が低いと確率最大のトークンをほぼ確実に選ぶため回答が安定・予測可能になります。温度が高いと確率分布が均一化され、より多様で創造的な出力が生まれます。ビジネス文書生成では低め(0.3〜0.5)、ブレインストーミングでは高め(0.8〜1.0)に設定するのが一般的です。

事前学習 ― 大量のテキストから「知識」を蓄積する

インターネット全体を読み込んだモデルが、そこから言語パターンを学習しています。

学習データの規模

GPTやClaudeなどの大規模言語モデルは、インターネット上のWebページ・書籍・論文・コードなど、数十〜数百テラバイトにのぼるテキストデータで学習しています。このプロセスを事前学習(Pre-training)と呼びます。大量のテキストを読み込み、次のトークンを予測するタスクを数兆回繰り返すことで、言語の文法・語彙・世界の知識・推論パターンをパラメータに蓄積します。

知識はパラメータに「埋め込まれている」

人間が知識を記憶するように、モデルの「知識」は数百億〜数兆個のパラメータ(数値)として分散して記録されています。「東京の人口は約1400万人」という知識は、特定のパラメータに保存されているわけではなく、大量のパラメータの組み合わせとして表現されています。これが、学習後のデータ(知識のカットオフ以降の情報)を答えられない原因であり、ハルシネーション(事実と異なる回答)が発生する根本的な理由でもあります。

プロンプトと文脈の活用

プロンプトは「予測の出発点」として機能します。質の高い指示が出力を決めます。

プロンプトが予測の方向性を決める

プロンプトとは、ユーザーがモデルに与える入力テキストです。モデルはプロンプトを「文章の続き」として生成を行うため、プロンプトの書き方が出力の質に直結します。「要約してください」より「以下の文章を3つの箇条書きで要約してください。対象読者は経営者です」のように具体的な条件を加えることで、有用な出力が得られます。

コンテキストウィンドウの制限

LLMは一度に参照できる情報量に上限があり、これをコンテキストウィンドウと呼びます。モデルごとに数万〜数十万トークン程度の範囲があり、この上限を超えると文脈の一部しか反映されません。長文を扱う場合は、そのまま入力するのではなく、分割・要約・RAGなどを組み合わせて設計する必要があります。

RLHFによる品質向上

人間のフィードバックで「役に立つ回答」を学習するのがRLHFです。

事前学習だけでは「従順なアシスタント」にならない

事前学習だけのモデルは「次のトークンを予測する能力」は高いですが、人間の意図に沿った有用な回答を生成するとは限りません。不適切な内容や冗長な回答を出力することもあります。そこでOpenAI・Anthropicなどが採用しているのがRLHF(人間のフィードバックによる強化学習)です。

RLHFの3ステップ

  1. SFT(教師あり微調整):人間が書いた模範回答で基本的なアシスタント動作を学習
  2. 報酬モデルの学習:人間の評価者が複数の回答を比較・ランク付けし、「良い回答」の基準を学習したモデルを作る
  3. 強化学習:報酬モデルのスコアを最大化する方向にモデルのパラメータを調整する

このプロセスにより、ChatGPTのような「丁寧で有用な回答を生成するアシスタント」が誕生します。

まとめ

この記事では、生成AIがなぜ自然な文章を作れるのかを、トークン予測・事前学習・プロンプト・RLHFという4つの観点から解説しました。

  • 生成AIは「次のトークンの確率分布を計算して選ぶ」処理を繰り返し、文章を生成する
  • 事前学習により大量のテキストから言語パターン・知識をパラメータに蓄積する
  • プロンプトが予測の出発点となり、その内容と具体性が出力の質を左右する
  • RLHFにより人間のフィードバックを反映させ、有用で安全な回答を生成できるようにする

これらを理解することで、生成AIツールの活用シーンと限界を正しく評価し、業務への適切な組み込みを判断できるようになります。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次