モデル
サポートするモデルと、タスクに合わせた選び方。
ToShop はエージェントごとに異なるモデルを選べます — エージェントが扱う作業の種類に合わせてモデルを選びます。
マークアップなし、プロキシなし
ToShop にはモデルのマークアップはなく、呼び出しをプロキシしません。呼び出しはお手元のマシンから、プロバイダーの公式 API エンドポイントへ TLS 経由で行われます。
プロバイダー
モデル: Claude Opus、Sonnet、Haiku。
強み: 深い推論、ロングコンテキスト(Sonnet には 1M バリアントあり)、強力なコード作業。
コンテキストウィンドウ:
- Claude Opus —— 200K トークン。
- Claude Sonnet —— 200K(標準)/ 1M(ロングバリアント)。
- Claude Haiku —— 200K トークン。
モデル: GPT-5 ファミリー、o3、GPT-5 Codex。
強み: 汎用、速い反復、堅牢な関数呼び出し。
コンテキストウィンドウ:
- GPT-5 —— 200K(標準)/ 400K(ロングバリアント)。
- GPT-5 Codex —— コード向けにチューニング、200K。
- o3 —— 推論向けにチューニング、200K。
モデル: Gemini Pro ファミリー。
強み: 非常に長いコンテキスト、マルチモーダル。
コンテキストウィンドウ: 1M+ トークン — 主要プロバイダー中で最大。
概要: 主要モデルの大半を 1 つの API キーで利用できるメタルーター。
強み: プロバイダー横断の一括請求、実験のしやすさ。
料金: モデルごと、OpenRouter の小さなマークアップを乗せてパススルー。openrouter.ai を参照。
モデルを選ぶ
「正しい」モデルは最新のベンチマークではなく、作業内容で決まります。
| ユースケース | 選択肢 |
|---|---|
| Deep reasoning, novel problems | Claude Opus / GPT-5。 |
| Day-to-day agent loop, balanced cost | Claude Sonnet / GPT-5-mini。 |
| Triage, classification, short tasks | Haiku / Mini クラス。 |
| Code-heavy tasks | GPT-5 Codex、Claude Opus。 |
| Long context (large docs, big repos) | Claude Sonnet(1M コンテキスト)、Gemini Pro。 |
エージェントごとのモデル
Settings → Agents → [エージェント] → Model で設定します。各エージェントには独自のデフォルトモデルがあります。整理方法については 複数エージェント を参照してください。
タスクやメッセージごとの上書き
別のエージェントで新しいチャットを開始します。
送信時に ⌥⏎(Option+Enter)を押すと、モデルピッカーが表示されます。
エージェントはサブステップに合った適切なモデルを選べます(例: 些細な分類には高速モデルを使い、その後メインモデルに戻る)。モデルを固定したい場合は Settings → Agent → Automatic model switching で無効化してください。
コスト
ToShop は各タスクの後に推定トークン数とコストを表示します。正式な請求はご利用プロバイダーのダッシュボードに掲載されます。
タスクが予想以上に高コストになった場合は、プロンプティング ページがコンテキストを縮小する方法を解説しています。
ToShopドキュメント