O(1) アクセス
定義:
計算量理論の用語。データ量が増えても、アクセス時間が「一定(Constant)」であることを示す。
PM視点:
これは「スケーラビリティの聖杯」です。ユーザーが100倍使っても、サーバーコストが100倍にならない、ということを意味します。
具体例:
辞書で単語を引く時、辞書が薄くても分厚くても、目次から探す時間はほぼ同じ。これがO(1)。一方、最初から全ページ読むのはO(n)(データ量に比例)。
トークン (Token)
定義:
AIが文章を処理する際の最小単位。英語では単語単位、日本語では文字や部分単語単位で分割される。
PM視点:
API料金の課金単位です。「1000トークンあたり$0.01」のような形で価格が設定されます。日本語は英語より多くのトークンを消費するため、コストが高くなりがちです。
具体例:
「こんにちは」は約3トークン。「Hello」は1トークン。長い会話履歴を毎回送ると、トークン数が爆発してコストが跳ね上がります。
コンテキストウィンドウ (Context Window)
定義: AIが一度に「覚えていられる」情報の量。トークン数で表される(例: 128k =
約12万8千トークン)。
PM視点: これが製品の「記憶力」の限界です。GPT-4は128k、Claude
3は200kなど、モデルによって異なります。この範囲を超えると、古い情報を「忘れ」ます。
具体例:
128kトークンは、日本語で約10万文字(小説1冊分)。それを超える会話をすると、最初の方の内容を忘れてしまいます。
レイテンシ (Latency)
定義:
リクエストを送ってから応答が返ってくるまでの「遅延時間」。ミリ秒(ms)や秒(s)で測定される。
PM視点:
ユーザー体験の生命線です。3秒以上待たせると離脱率が急上昇します。コンテキストが長いと、レイテンシも増加します。
具体例:
チャットで質問して、回答が表示されるまでの「待ち時間」。Transformerは長文になると10秒以上かかることも。
Needle in a Haystack (干し草の中の針)
定義: 膨大な情報の中から、特定の小さな情報を正確に見つけ出せるかを測るベンチマークテスト。
PM視点:
「長文を読ませても精度が落ちないか」を測る指標です。多くのモデルは、コンテキストが長くなると「幻覚(Hallucination)」を起こしたり、重要な情報を見落とします。
具体例:
1000ページのマニュアルの中に「製品番号XYZ-123は生産終了」という1文だけ埋め込んで、AIが正確に見つけられるかテストする。