LLMとは「超大量の文章を読んで言葉のパターンを学んだAI」

LLM(Large Language Model:大規模言語モデル)とは、インターネット上の膨大なテキストデータを学習し、人間のような文章を生成できるAIモデルです。ChatGPT(OpenAI)やClaude(Anthropic)の中核技術がこのLLMです。

LLMの本質は「次にどの言葉が来るかを予測するシステム」です。「今日の天気は」と入力すると、学習データのパターンから「晴れ」「曇り」などの続きを確率的に生成します。辞書を引いて意味を理解しているわけではなく、膨大な文章のパターンから統計的に最もらしい応答を作り出しています。

この「予測」の仕組みを理解しておくと、AIが得意なこと(文章生成、要約、翻訳)とAIが間違えやすいこと(事実の正確性、計算)の両方が腑に落ちます。

LLMの学習プロセスを3ステップで理解する

LLMがどのように「賢く」なるのか、3つのステップに分けて説明します。

ステップ1:事前学習(Pre-training)

インターネット上の書籍、記事、論文などの大量のテキストを読み込み、言語のパターンを学習します。この段階では「文章の続きを予測する」能力を身につけます。学習データは数兆語に及ぶとされています。

ステップ2:ファインチューニング(Fine-tuning)

事前学習だけでは、質問に対して適切に回答する能力は不十分です。人間が作成した「良い回答の手本」を使って、対話形式でのやり取りを学習させます。

ステップ3:人間のフィードバックによる調整(RLHF)

複数の回答候補から人間が「どちらがより良い回答か」を評価し、そのフィードバックでモデルを改善します。この工程によって、AIの回答が人間にとってより自然で有用なものになります。

この3ステップの積み重ねによって、ChatGPTやClaudeのような「会話ができるAI」が生まれています。モデルが新しくなるたびに、この学習プロセスの規模と精度が上がっているため、回答品質が向上し続けています。

「トークン」と「コンテキストウィンドウ」を知っておこう

LLMを使ううえで知っておくと便利な2つの概念があります。

トークンは、LLMがテキストを処理する最小単位です。英語では1単語が1〜2トークン程度、日本語では1文字が1〜3トークン程度に分割されます。「こんにちは」は約3〜5トークンに分割されるイメージです。LLMの利用料金はこのトークン数で計算されることが多いです。

コンテキストウィンドウは、LLMが一度に処理できるテキストの量です。2026年現在、主要モデルは10万〜100万トークンのコンテキストウィンドウを持っています。これは書籍数冊分に相当します。ただし、コンテキストが長くなるほど処理速度は低下し、初期の指示が薄れる傾向があります。

実務的には、「長い会話を1つのスレッドで続けると精度が落ちる」ことを覚えておくと便利です。テーマが変わったら新しい会話を始めるだけで、回答の質が安定します。

ChatGPTとClaudeの違いはモデルの「人格」

ChatGPT(GPTシリーズ)とClaude(Claudeシリーズ)はどちらもLLMですが、設計思想が異なります。

技術的な性能差は日々縮まっていますが、対話のスタイルや回答の傾向には各社の思想が反映されています。どちらが優れているかではなく、目的に合わせて使い分けるのが実務のコツです。

LLMの限界を正しく理解する

LLMは強力なツールですが、以下の限界を理解しておくことが重要です。

これらの限界を知っておくことで、LLMの出力を適切に検証し、より効果的に活用できるようになります。

LLMの仕組みを知ると「プロンプト」の書き方が変わる

LLMが「次の言葉を予測するシステム」だと理解すると、プロンプト(指示文)の書き方が変わります。

次のレッスンでは、この仕組みを踏まえたプロンプトの具体的な書き方を解説します。LLMの動作原理を理解した上でプロンプトを設計すると、回答の質が大きく変わります。