StoryHubでは、AIとの入出力にかかる「トークン」を「クレジット」に換算して使用量を集計しています。
クレジットの消費を抑えるには、トークン消費を抑える必要があります。有効な方法を二つ紹介します。
① 軽量なAIモデルを使う
OpenAI の GPT-4o mini や、Googleの Gemini 1.5 Flash などの軽量モデルは、GPT-4oやGemini 1.5 Proなどの上位モデルと比較して高速かつトークン消費量を抑えられます。
高度な推論や文章力を必要としないタスクについては、これらの軽量モデルを活用しましょう。
② 会話スレッドを長くしすぎない
AIは会話の履歴をもとに返答を生成しています。会話スレッドが長くなりすぎると、これまでのメッセージの全てをAIが考慮してしまい、消費トークンが急激に増加します。同時に、返答に時間がかかったり、期待している品質に達しないというデメリットも出てきます。
メッセージのやり取りが10回を超えてきた場合は新しい会話スレッドに移行したほうが良いでしょう。なお、StoryHubでは10往復以上のやり取りが発生した場合、それより過去の履歴はAIに与えないような設定になっています。意図的にすべての履歴をAIに与えたい場合は、チャット画面右上のメニューからその設定を変えることができます。