diff --git a/docs/cli/configuration/mixed-models.mdx b/docs/cli/configuration/mixed-models.mdx index 7febb01d..2d6f9b76 100644 --- a/docs/cli/configuration/mixed-models.mdx +++ b/docs/cli/configuration/mixed-models.mdx @@ -131,8 +131,8 @@ Here are some effective model combinations for different scenarios: **Best for:** Most development workflows, flexible reasoning control - **Default model:** Haiku 4.5 or Sonnet 4.5 (select reasoning of your choice if supported) -- **Spec mode model:** Opus 4.6 (reasoning: high) or Sonnet 4.5 (reasoning: high) -- **Benefits:** Fast implementation with deep planning analysis. Opus 4.6 offers **Max** reasoning for the most thorough planning. +- **Spec mode model:** Opus 4.7 (reasoning: high) or Sonnet 4.5 (reasoning: high) +- **Benefits:** Fast implementation with deep planning analysis. Opus 4.7 offers **Max** reasoning for the most thorough planning. ### OpenAI Models diff --git a/docs/cli/configuration/settings.mdx b/docs/cli/configuration/settings.mdx index 8a557519..bf9e7a49 100644 --- a/docs/cli/configuration/settings.mdx +++ b/docs/cli/configuration/settings.mdx @@ -59,7 +59,8 @@ Local overrides merge on top of the corresponding `settings.json` at the same le Choose the default AI model that powers your droid: - **`opus`** - Claude Opus 4.5 (current default) -- **`opus-4-6`** - Claude Opus 4.6, latest flagship with Max reasoning +- **`opus-4-7`** - Claude Opus 4.7, newest flagship with Max reasoning (2×; 1× promotional until April 30) +- **`opus-4-6`** - Claude Opus 4.6, previous flagship with Max reasoning - **`opus-4-6-fast`** - Claude Opus 4.6 Fast, tuned for faster responses - **`sonnet`** - Claude Sonnet 4.5, balanced cost and quality - **`sonnet-4-6`** - Claude Sonnet 4.6, Max reasoning at the Sonnet price point diff --git a/docs/cli/user-guides/choosing-your-model.mdx b/docs/cli/user-guides/choosing-your-model.mdx index bed6b8f5..de4add84 100644 --- a/docs/cli/user-guides/choosing-your-model.mdx +++ b/docs/cli/user-guides/choosing-your-model.mdx @@ -12,22 +12,23 @@ Model quality evolves quickly, and we tune the CLI defaults as the ecosystem shi | Rank | Model | Why we reach for it | | ---- | ----------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------ | -| 1 | **Claude Opus 4.6** | Latest Anthropic flagship with **Max** reasoning; best depth and safety for complex work. | -| 2 | **Claude Opus 4.6 Fast** | Opus 4.6 tuned for faster response times; 12× multiplier. | -| 3 | **Claude Opus 4.5** | Proven quality-and-safety balance; strong default for TUI and exec. | -| 4 | **Claude Sonnet 4.6** | **Max** reasoning at the Sonnet price point (1.2×); strong daily driver for planning and implementation. | -| 5 | **GPT-5.4** | Latest OpenAI model with 922K context, 128K output, verbosity support, and **Extra High** reasoning; excellent for large-context tasks. | -| 6 | **Claude Sonnet 4.5** | Strong daily driver with balanced cost/quality; great general-purpose choice when you don't need Opus-level depth. | -| 7 | **GPT-5.3-Codex** | Newest OpenAI coding model with **Extra High** reasoning and verbosity support; strong for implementation-heavy tasks. | -| 8 | **GPT-5.2-Codex** | Proven OpenAI coding model with **Extra High** reasoning; solid for implementation-heavy tasks. | -| 9 | **GPT-5.2** | OpenAI model with verbosity support and reasoning up to **Extra High**. | -| 10 | **Claude Haiku 4.5** | Fast, cost-efficient for routine tasks and high-volume automation. | -| 11 | **Gemini 3.1 Pro** | Newer Gemini Pro generation with strong structured outputs and mixed reasoning controls for research-heavy tasks. | -| 12 | **Gemini 3 Flash** | Fast, cheap (0.2× multiplier) with full reasoning support; great for high-volume tasks where speed matters. | -| 13 | **Droid Core (MiniMax M2.5)** | Open-source, 0.12× multiplier with reasoning support (Low/Medium/High); cheapest model available. No image support. | -| 14 | **Droid Core (GLM-5)** | Open-source, 0.4× multiplier with updated GLM capabilities for bulk automation and air-gapped environments; no image support. | -| 15 | **Droid Core (GLM-4.7)** | Open-source, 0.25× multiplier, stable choice for bulk automation or air-gapped environments; note: no image support. | -| 16 | **Droid Core (Kimi K2.5)** | Open-source, 0.25× multiplier with image support; good for cost-sensitive work. | +| 1 | **Claude Opus 4.7** | Newest Anthropic flagship with **Max** reasoning; top pick for the hardest work. Promotional 1× multiplier through April 30 (2× afterward). | +| 2 | **Claude Opus 4.6** | Previous Anthropic flagship with **Max** reasoning; still excellent depth and safety for complex work. | +| 3 | **Claude Opus 4.6 Fast** | Opus 4.6 tuned for faster response times; 12× multiplier. | +| 4 | **Claude Opus 4.5** | Proven quality-and-safety balance; strong default for TUI and exec. | +| 5 | **Claude Sonnet 4.6** | **Max** reasoning at the Sonnet price point (1.2×); strong daily driver for planning and implementation. | +| 6 | **GPT-5.4** | Latest OpenAI model with 922K context, 128K output, verbosity support, and **Extra High** reasoning; excellent for large-context tasks. | +| 7 | **Claude Sonnet 4.5** | Strong daily driver with balanced cost/quality; great general-purpose choice when you don't need Opus-level depth. | +| 8 | **GPT-5.3-Codex** | Newest OpenAI coding model with **Extra High** reasoning and verbosity support; strong for implementation-heavy tasks. | +| 9 | **GPT-5.2-Codex** | Proven OpenAI coding model with **Extra High** reasoning; solid for implementation-heavy tasks. | +| 10 | **GPT-5.2** | OpenAI model with verbosity support and reasoning up to **Extra High**. | +| 11 | **Claude Haiku 4.5** | Fast, cost-efficient for routine tasks and high-volume automation. | +| 12 | **Gemini 3.1 Pro** | Newer Gemini Pro generation with strong structured outputs and mixed reasoning controls for research-heavy tasks. | +| 13 | **Gemini 3 Flash** | Fast, cheap (0.2× multiplier) with full reasoning support; great for high-volume tasks where speed matters. | +| 14 | **Droid Core (MiniMax M2.5)** | Open-source, 0.12× multiplier with reasoning support (Low/Medium/High); cheapest model available. No image support. | +| 15 | **Droid Core (GLM-5)** | Open-source, 0.4× multiplier with updated GLM capabilities for bulk automation and air-gapped environments; no image support. | +| 16 | **Droid Core (GLM-4.7)** | Open-source, 0.25× multiplier, stable choice for bulk automation or air-gapped environments; note: no image support. | +| 17 | **Droid Core (Kimi K2.5)** | Open-source, 0.25× multiplier with image support; good for cost-sensitive work. | We ship model updates regularly. When a new release overtakes the list above, @@ -40,14 +41,14 @@ Model quality evolves quickly, and we tune the CLI defaults as the ecosystem shi | Scenario | Recommended model | | ---------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------ | -| **Deep planning, architecture reviews, ambiguous product specs** | Start with **Opus 4.6** for best depth and safety, or **Opus 4.6 Fast** for faster turnaround. Use **Sonnet 4.6** or **Sonnet 4.5** when you want balanced cost/quality, or **GPT-5.4** for large-context reasoning. | -| **Full-feature development, large refactors** | **Opus 4.6** or **Opus 4.5** for depth and safety. **GPT-5.4**, **GPT-5.3-Codex**, or **GPT-5.2-Codex** when you need speed plus **Extra High** reasoning; **Sonnet 4.6** or **Sonnet 4.5** for balanced loops. | +| **Deep planning, architecture reviews, ambiguous product specs** | Start with **Opus 4.7** for best depth and safety (1× promotional multiplier through April 30), or fall back to **Opus 4.6** / **Opus 4.6 Fast** for faster turnaround. Use **Sonnet 4.6** or **Sonnet 4.5** when you want balanced cost/quality, or **GPT-5.4** for large-context reasoning. | +| **Full-feature development, large refactors** | **Opus 4.7** or **Opus 4.6** for depth and safety. **GPT-5.4**, **GPT-5.3-Codex**, or **GPT-5.2-Codex** when you need speed plus **Extra High** reasoning; **Sonnet 4.6** or **Sonnet 4.5** for balanced loops. | | **Repeatable edits, summarization, boilerplate generation** | **Haiku 4.5** or **Droid Core** (including **MiniMax M2.5** at 0.12×) for speed and cost. **GPT-5.2** when you need higher quality or structured outputs. | | **CI/CD or automation loops** | Favor **Haiku 4.5** or **Droid Core** for predictable, low-cost throughput. Use **GPT-5.3-Codex** or **GPT-5.4** when automation needs stronger reasoning. | | **High-volume automation, frequent quick turns** | **Haiku 4.5** for speedy feedback. **Droid Core** (especially **MiniMax M2.5** at 0.12× with reasoning) when cost is critical or you need air-gapped deployment. | - **Claude Opus 4.6** is the top-tier option for extremely complex architecture decisions or critical work where you need maximum reasoning capability. **Opus 4.6 Fast** is tuned for faster responses at a higher cost. Most tasks don't require Opus-level power—start with Sonnet 4.6 or Sonnet 4.5 and escalate only if needed. + **Claude Opus 4.7** is the newest top-tier option for extremely complex architecture decisions or critical work where you need maximum reasoning capability—and it runs at a promotional 1× multiplier through April 30 (2× afterward). **Claude Opus 4.6** remains an excellent alternative, and **Opus 4.6 Fast** is tuned for faster responses at a higher cost. Most tasks don't require Opus-level power—start with Sonnet 4.6 or Sonnet 4.5 and escalate only if needed. Tip: you can swap models mid-session with `/model` or by toggling in the settings panel (`Shift+Tab` → **Settings**). @@ -65,6 +66,7 @@ Tip: you can swap models mid-session with `/model` or by toggling in the setting ## 4 · Reasoning effort settings +- **Opus 4.7**: Off / Low / Medium / High / **Max** (default: High) - **Opus 4.6 / Opus 4.6 Fast**: Off / Low / Medium / High / **Max** (default: High) - **Sonnet 4.6**: Off / Low / Medium / High / **Max** (default: High) - **Opus 4.5 / Sonnet 4.5 / Haiku 4.5**: Off / Low / Medium / High (default: Off) @@ -79,7 +81,7 @@ Tip: you can swap models mid-session with `/model` or by toggling in the setting - **Droid Core (Kimi K2.5)**: None only (default: None) - **Droid Core (MiniMax M2.5)**: Low / Medium / High (default: High) -Reasoning effort increases latency and cost—start low for simple work and escalate as needed. **Max** is available on Claude Opus 4.6 and Sonnet 4.6. **Extra High** is available on GPT-5.4, GPT-5.2, GPT-5.2-Codex, and GPT-5.3-Codex. +Reasoning effort increases latency and cost—start low for simple work and escalate as needed. **Max** is available on Claude Opus 4.7, the Opus 4.6 family (Opus 4.6 and Opus 4.6 Fast), and Sonnet 4.6. **Extra High** is available on GPT-5.4, GPT-5.2, GPT-5.2-Codex, and GPT-5.3-Codex. Change reasoning effort from `/model` → **Reasoning effort**, or via the diff --git a/docs/guides/power-user/prompt-crafting.mdx b/docs/guides/power-user/prompt-crafting.mdx index e7c593b0..605b4fce 100644 --- a/docs/guides/power-user/prompt-crafting.mdx +++ b/docs/guides/power-user/prompt-crafting.mdx @@ -372,7 +372,7 @@ Match the model to the task: | Task Type | Recommended Model | Reasoning Level | |-----------|-------------------|-----------------| -| **Complex architecture** | Opus 4.6 or Opus 4.5 | High-Max | +| **Complex architecture** | Opus 4.7 or Opus 4.6 | High-Max | | **Feature implementation** | Sonnet 4.5 or GPT-5.1-Codex | Medium | | **Quick edits, formatting** | Haiku 4.5 | Off/Low | | **Code review** | GPT-5.1-Codex-Max | High | diff --git a/docs/guides/power-user/token-efficiency.mdx b/docs/guides/power-user/token-efficiency.mdx index cc5b7b77..f0f65674 100644 --- a/docs/guides/power-user/token-efficiency.mdx +++ b/docs/guides/power-user/token-efficiency.mdx @@ -146,8 +146,9 @@ Different models have different cost multipliers and capabilities. Match the mod | Gemini 3.1 Pro | 0.8× | Research, analysis with newer Gemini generation | | Claude Sonnet 4.5 | 1.2× | Balanced quality/cost | | Claude Opus 4.5 | 2× | Complex reasoning, architecture | -| Claude Opus 4.6 | 2× | Latest flagship, Max reasoning | +| Claude Opus 4.6 | 2× | Previous flagship, Max reasoning | | Claude Opus 4.6 Fast | 12× | Opus 4.6 tuned for faster responses | +| Claude Opus 4.7 | 2× (1× until April 30) | Newest flagship, discounted during launch window | ### Task-Based Model Selection @@ -155,7 +156,7 @@ Different models have different cost multipliers and capabilities. Match the mod Simple edit, formatting → Haiku 4.5 (0.4×) Implement feature from spec → GPT-5.1-Codex (0.5×) Debug complex issue → Sonnet 4.5 (1.2×) -Architecture planning → Opus 4.6 (2×) or Opus 4.5 (2×) +Architecture planning → Opus 4.7 (2×, 1× until April 30) or Opus 4.6 (2×) Bulk file processing → Droid Core (GLM-4.7 at 0.25× or GLM-5 at 0.4×) ``` diff --git a/docs/jp/cli/configuration/mixed-models.mdx b/docs/jp/cli/configuration/mixed-models.mdx index f6158852..9931182b 100644 --- a/docs/jp/cli/configuration/mixed-models.mdx +++ b/docs/jp/cli/configuration/mixed-models.mdx @@ -131,8 +131,8 @@ spec modeモデルの推論努力は、デフォルトモデルの推論設定 **最適な用途:** ほとんどの開発ワークフロー、柔軟な推論制御 - **デフォルトモデル:** Haiku 4.5またはSonnet 4.5(サポートされている場合は任意の推論を選択) -- **Spec modeモデル:** Opus 4.6(推論:高)またはSonnet 4.5(推論:高) -- **利点:** 深いプランニング分析による高速実装。Opus 4.6は最も徹底的なプランニングのために**Max**推論を提供 +- **Spec modeモデル:** Opus 4.7(推論:高)またはSonnet 4.5(推論:高) +- **利点:** 深いプランニング分析による高速実装。Opus 4.7は最も徹底的なプランニングのために**Max**推論を提供 ### OpenAI モデル diff --git a/docs/jp/cli/configuration/settings.mdx b/docs/jp/cli/configuration/settings.mdx index 810edf01..fbf058e7 100644 --- a/docs/jp/cli/configuration/settings.mdx +++ b/docs/jp/cli/configuration/settings.mdx @@ -59,7 +59,8 @@ droidの設定を構成するには: droidを動かすデフォルトのAIモデルを選択します: - **`opus`** - Claude Opus 4.5(現在のデフォルト) -- **`opus-4-6`** - Claude Opus 4.6、Max推論機能を持つ最新フラグシップモデル +- **`opus-4-7`** - Claude Opus 4.7、Max推論機能を持つ最新フラグシップモデル(2×;4月30日まで1×のプロモーション価格) +- **`opus-4-6`** - Claude Opus 4.6、Max推論機能を持つ前世代フラグシップモデル - **`opus-4-6-fast`** - Claude Opus 4.6 Fast、高速レスポンス用にチューニングされたモデル - **`sonnet`** - Claude Sonnet 4.5、コストと品質のバランス型 - **`sonnet-4-6`** - Claude Sonnet 4.6、Sonnet価格帯でMax推論を搭載 diff --git a/docs/jp/cli/user-guides/choosing-your-model.mdx b/docs/jp/cli/user-guides/choosing-your-model.mdx index 71ff71f3..376e4337 100644 --- a/docs/jp/cli/user-guides/choosing-your-model.mdx +++ b/docs/jp/cli/user-guides/choosing-your-model.mdx @@ -12,22 +12,23 @@ keywords: ['model', 'models', 'llm', 'claude', 'sonnet', 'opus', 'haiku', 'gpt', | ランク | モデル | 選ぶ理由 | | ---- | ----------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------ | -| 1 | **Claude Opus 4.6** | **Max**推論機能を搭載したAnthropic最新フラッグシップ;複雑な作業における最高の深度と安全性。 | -| 2 | **Claude Opus 4.6 Fast** | より高速な応答時間に調整されたOpus 4.6;12倍のマルチプライヤー。 | -| 3 | **Claude Opus 4.5** | 実証された品質と安全性のバランス;TUIとexecの強固なデフォルト。 | -| 4 | **Claude Sonnet 4.6** | Sonnet価格帯(1.2倍)で**Max**推論を搭載;計画と実装のための強力な日常使いモデル。 | -| 5 | **GPT-5.4** | 922Kコンテキスト、128K出力、冗長性サポート、**Extra High**推論を搭載した最新OpenAIモデル;大規模コンテキストタスクに最適。 | -| 6 | **Claude Sonnet 4.5** | コスト/品質のバランスが取れた優秀な日常使いモデル;Opusレベルの深度が不要な場合の優れた汎用選択肢。 | -| 7 | **GPT-5.3-Codex** | **Extra High**推論と冗長性サポート搭載の最新OpenAIコーディングモデル;実装重視のタスクに強力。 | -| 8 | **GPT-5.2-Codex** | **Extra High**推論搭載の実証済みOpenAIコーディングモデル;実装重視のタスクに堅実。 | -| 9 | **GPT-5.2** | 冗長性サポートと**Extra High**までの推論を備えたOpenAIモデル。 | -| 10 | **Claude Haiku 4.5** | 日常的なタスクと大量自動化のための高速で費用効率の良いモデル。 | -| 11 | **Gemini 3.1 Pro** | 構造化出力に強く、研究重視のタスク用の混合推論制御を持つ新しいGemini Pro世代。 | -| 12 | **Gemini 3 Flash** | 完全な推論サポートを持つ高速・安価(0.2倍マルチプライヤー);速度が重要な大量タスクに最適。 | -| 13 | **Droid Core (MiniMax M2.5)** | オープンソース、推論サポート(Low/Medium/High)付きの0.12倍マルチプライヤー;利用可能な最安価モデル。画像サポートなし。 | -| 14 | **Droid Core (GLM-5)** | 大量自動化とエアギャップ環境用の更新されたGLM機能を持つオープンソース、0.4倍マルチプライヤー;画像サポートなし。 | -| 15 | **Droid Core (GLM-4.7)** | 大量自動化やエアギャップ環境用のオープンソース、0.25倍マルチプライヤーの安定した選択肢;注:画像サポートなし。 | -| 16 | **Droid Core (Kimi K2.5)** | 画像サポート付きオープンソース、0.25倍マルチプライヤー;コスト重視の作業に適している。 | +| 1 | **Claude Opus 4.7** | **Max**推論機能を搭載したAnthropicの新しいフラッグシップ;最も困難な作業への第一選択。4月30日までプロモーション1倍マルチプライヤー(以降は2倍)。 | +| 2 | **Claude Opus 4.6** | **Max**推論機能を搭載したAnthropicの前世代フラッグシップ;複雑な作業における優れた深度と安全性を依然として提供。 | +| 3 | **Claude Opus 4.6 Fast** | より高速な応答時間に調整されたOpus 4.6;12倍のマルチプライヤー。 | +| 4 | **Claude Opus 4.5** | 実証された品質と安全性のバランス;TUIとexecの強固なデフォルト。 | +| 5 | **Claude Sonnet 4.6** | Sonnet価格帯(1.2倍)で**Max**推論を搭載;計画と実装のための強力な日常使いモデル。 | +| 6 | **GPT-5.4** | 922Kコンテキスト、128K出力、冗長性サポート、**Extra High**推論を搭載した最新OpenAIモデル;大規模コンテキストタスクに最適。 | +| 7 | **Claude Sonnet 4.5** | コスト/品質のバランスが取れた優秀な日常使いモデル;Opusレベルの深度が不要な場合の優れた汎用選択肢。 | +| 8 | **GPT-5.3-Codex** | **Extra High**推論と冗長性サポート搭載の最新OpenAIコーディングモデル;実装重視のタスクに強力。 | +| 9 | **GPT-5.2-Codex** | **Extra High**推論搭載の実証済みOpenAIコーディングモデル;実装重視のタスクに堅実。 | +| 10 | **GPT-5.2** | 冗長性サポートと**Extra High**までの推論を備えたOpenAIモデル。 | +| 11 | **Claude Haiku 4.5** | 日常的なタスクと大量自動化のための高速で費用効率の良いモデル。 | +| 12 | **Gemini 3.1 Pro** | 構造化出力に強く、研究重視のタスク用の混合推論制御を持つ新しいGemini Pro世代。 | +| 13 | **Gemini 3 Flash** | 完全な推論サポートを持つ高速・安価(0.2倍マルチプライヤー);速度が重要な大量タスクに最適。 | +| 14 | **Droid Core (MiniMax M2.5)** | オープンソース、推論サポート(Low/Medium/High)付きの0.12倍マルチプライヤー;利用可能な最安価モデル。画像サポートなし。 | +| 15 | **Droid Core (GLM-5)** | 大量自動化とエアギャップ環境用の更新されたGLM機能を持つオープンソース、0.4倍マルチプライヤー;画像サポートなし。 | +| 16 | **Droid Core (GLM-4.7)** | 大量自動化やエアギャップ環境用のオープンソース、0.25倍マルチプライヤーの安定した選択肢;注:画像サポートなし。 | +| 17 | **Droid Core (Kimi K2.5)** | 画像サポート付きオープンソース、0.25倍マルチプライヤー;コスト重視の作業に適している。 | モデルの更新は定期的に行われます。新しいリリースが上記のリストを超えた場合、このページとCLIのデフォルトを更新します。 @@ -39,14 +40,14 @@ keywords: ['model', 'models', 'llm', 'claude', 'sonnet', 'opus', 'haiku', 'gpt', | シナリオ | 推奨モデル | | ---------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------ | -| **深い計画、アーキテクチャレビュー、曖昧な製品仕様** | 最高の深度と安全性には**Opus 4.6**、またはより高速なターンアラウンドには**Opus 4.6 Fast**から始める。バランスの取れたコスト/品質には**Sonnet 4.6**または**Sonnet 4.5**、大規模コンテキスト推論には**GPT-5.4**を使用。 | -| **フル機能開発、大規模リファクタリング** | 深度と安全性には**Opus 4.6**または**Opus 4.5**。速度と**Extra High**推論が必要な場合は**GPT-5.4**、**GPT-5.3-Codex**、または**GPT-5.2-Codex**;バランスの取れたループには**Sonnet 4.6**または**Sonnet 4.5**。 | +| **深い計画、アーキテクチャレビュー、曖昧な製品仕様** | 最高の深度と安全性には**Opus 4.7**(4月30日までプロモーション1倍マルチプライヤー)から始め、より高速なターンアラウンドには**Opus 4.6**または**Opus 4.6 Fast**にフォールバック。バランスの取れたコスト/品質には**Sonnet 4.6**または**Sonnet 4.5**、大規模コンテキスト推論には**GPT-5.4**を使用。 | +| **フル機能開発、大規模リファクタリング** | 深度と安全性には**Opus 4.7**または**Opus 4.6**。速度と**Extra High**推論が必要な場合は**GPT-5.4**、**GPT-5.3-Codex**、または**GPT-5.2-Codex**;バランスの取れたループには**Sonnet 4.6**または**Sonnet 4.5**。 | | **反復可能な編集、要約、定型文生成** | 速度とコストのために**Haiku 4.5**または**Droid Core**(0.12倍の**MiniMax M2.5**含む)。より高い品質や構造化出力が必要な場合は**GPT-5.2**。 | | **CI/CDまたは自動化ループ** | 予測可能で低コストなスループットのために**Haiku 4.5**または**Droid Core**を優先。自動化により強い推論が必要な場合は**GPT-5.3-Codex**または**GPT-5.4**を使用。 | | **大量自動化、頻繁な迅速ターン** | 迅速なフィードバックには**Haiku 4.5**。コストが重要またはエアギャップ展開が必要な場合は**Droid Core**(特に推論付き0.12倍の**MiniMax M2.5**)。 | - **Claude Opus 4.6**は、極めて複雑なアーキテクチャの意思決定や、最大限の推論機能が必要な重要な作業に最適なオプションです。**Opus 4.6 Fast**はより高いコストでより高速な応答に調整されています。ほとんどのタスクにOpusレベルのパワーは不要です。Sonnet 4.6またはSonnet 4.5から始め、必要な場合のみエスカレートしてください。 + **Claude Opus 4.7**は、極めて複雑なアーキテクチャの意思決定や最大限の推論機能が必要な重要な作業に最適な新しい最上位オプションで、4月30日までプロモーション1倍マルチプライヤー(以降は2倍)で実行されます。**Claude Opus 4.6**は引き続き優れた代替選択肢であり、**Opus 4.6 Fast**はより高いコストでより高速な応答に調整されています。ほとんどのタスクにOpusレベルのパワーは不要です。Sonnet 4.6またはSonnet 4.5から始め、必要な場合のみエスカレートしてください。 ヒント:`/model`または設定パネル(`Shift+Tab` → **Settings**)でセッション中にモデルを切り替えることができます。 @@ -64,6 +65,7 @@ keywords: ['model', 'models', 'llm', 'claude', 'sonnet', 'opus', 'haiku', 'gpt', ## 4 · 推論努力設定 +- **Opus 4.7**: Off / Low / Medium / High / **Max**(デフォルト:High) - **Opus 4.6 / Opus 4.6 Fast**: Off / Low / Medium / High / **Max**(デフォルト:High) - **Sonnet 4.6**: Off / Low / Medium / High / **Max**(デフォルト:High) - **Opus 4.5 / Sonnet 4.5 / Haiku 4.5**: Off / Low / Medium / High(デフォルト:Off) @@ -78,7 +80,7 @@ keywords: ['model', 'models', 'llm', 'claude', 'sonnet', 'opus', 'haiku', 'gpt', - **Droid Core (Kimi K2.5)**: Noneのみ(デフォルト:None) - **Droid Core (MiniMax M2.5)**: Low / Medium / High(デフォルト:High) -推論努力は遅延とコストを増加させます。単純な作業には低く開始し、必要に応じてエスカレートしてください。**Max**はClaude Opus 4.6とSonnet 4.6で利用可能。**Extra High**はGPT-5.4、GPT-5.2、GPT-5.2-Codex、GPT-5.3-Codexで利用可能。 +推論努力は遅延とコストを増加させます。単純な作業には低く開始し、必要に応じてエスカレートしてください。**Max**はClaude Opus 4.7、Opus 4.6ファミリー(Opus 4.6およびOpus 4.6 Fast)、Sonnet 4.6で利用可能。**Extra High**はGPT-5.4、GPT-5.2、GPT-5.2-Codex、GPT-5.3-Codexで利用可能。 `/model` → **Reasoning effort**、または設定メニューから推論努力を変更できます。 diff --git a/docs/jp/guides/power-user/prompt-crafting.mdx b/docs/jp/guides/power-user/prompt-crafting.mdx index 18adbeae..72d6d9a3 100644 --- a/docs/jp/guides/power-user/prompt-crafting.mdx +++ b/docs/jp/guides/power-user/prompt-crafting.mdx @@ -372,7 +372,7 @@ Geminiモデルは長いコンテキストをうまく処理し、構造化さ | タスクタイプ | 推奨モデル | 推論レベル | |-----------|-------------------|-----------------| -| **複雑なアーキテクチャ** | Opus 4.6または Opus 4.5 | High-Max | +| **複雑なアーキテクチャ** | Opus 4.7またはOpus 4.6 | High-Max | | **機能実装** | Sonnet 4.5またはGPT-5.1-Codex | Medium | | **クイック編集、フォーマット** | Haiku 4.5 | Off/Low | | **コードレビュー** | GPT-5.1-Codex-Max | High | diff --git a/docs/jp/guides/power-user/token-efficiency.mdx b/docs/jp/guides/power-user/token-efficiency.mdx index 53ec9f8e..0344d083 100644 --- a/docs/jp/guides/power-user/token-efficiency.mdx +++ b/docs/jp/guides/power-user/token-efficiency.mdx @@ -146,8 +146,9 @@ droid | Gemini 3.1 Pro | 0.8× | より新しいGemini世代による研究、分析 | | Claude Sonnet 4.5 | 1.2× | 品質/コストのバランス | | Claude Opus 4.5 | 2× | 複雑な推論、アーキテクチャ | -| Claude Opus 4.6 | 2× | 最新フラッグシップ、Max推論 | +| Claude Opus 4.6 | 2× | 前世代フラッグシップ、Max推論 | | Claude Opus 4.6 Fast | 12× | より高速な応答に調整されたOpus 4.6 | +| Claude Opus 4.7 | 2×(4月30日まで1×) | 最新フラッグシップ、ローンチ期間中は割引 | ### タスクベースのモデル選択 @@ -155,7 +156,7 @@ droid Simple edit, formatting → Haiku 4.5 (0.4×) Implement feature from spec → GPT-5.1-Codex (0.5×) Debug complex issue → Sonnet 4.5 (1.2×) -Architecture planning → Opus 4.6 (2×) or Opus 4.5 (2×) +Architecture planning → Opus 4.7 (2×, 4月30日まで1×) or Opus 4.6 (2×) Bulk file processing → Droid Core (GLM-4.7 at 0.25× or GLM-5 at 0.4×) ``` diff --git a/docs/jp/pricing.mdx b/docs/jp/pricing.mdx index cb168406..c50e83c5 100644 --- a/docs/jp/pricing.mdx +++ b/docs/jp/pricing.mdx @@ -52,6 +52,7 @@ Enterpriseの料金については[営業チームにお問い合わせ](https:/ | Claude Sonnet 4.6 | `claude-sonnet-4-6` | | GPT-5.3-Codex Fast | `gpt-5.3-codex-fast` | | Claude Opus 4.5 | `claude-opus-4-5-20251101` | +| Claude Opus 4.7 | `claude-opus-4-7` | | Claude Opus 4.6 | `claude-opus-4-6` | | GPT-5.4 Fast | `gpt-5.4-fast` | | Claude Opus 4.6 Fast | `claude-opus-4-6-fast` | \ No newline at end of file diff --git a/docs/jp/reference/cli-reference.mdx b/docs/jp/reference/cli-reference.mdx index 8a3e9f00..5fe4940f 100644 --- a/docs/jp/reference/cli-reference.mdx +++ b/docs/jp/reference/cli-reference.mdx @@ -101,6 +101,7 @@ droid exec --auto high "Run tests, commit, and push changes" | モデルID | 名前 | 推論サポート | デフォルト推論 | | :---------------------------- | :--------------------------- | :--------------------------------------- | :---------------- | +| `claude-opus-4-7` | Claude Opus 4.7 | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-6` | Claude Opus 4.6 | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-6-fast` | Claude Opus 4.6 Fast | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-5-20251101` | Claude Opus 4.5 | Yes (Off/Low/Medium/High) | off | diff --git a/docs/pricing.mdx b/docs/pricing.mdx index a343772b..61b57782 100644 --- a/docs/pricing.mdx +++ b/docs/pricing.mdx @@ -52,6 +52,7 @@ Everything in Max, plus: | Claude Sonnet 4.6 | `claude-sonnet-4-6` | | GPT-5.3-Codex Fast | `gpt-5.3-codex-fast` | | Claude Opus 4.5 | `claude-opus-4-5-20251101` | +| Claude Opus 4.7 | `claude-opus-4-7` | | Claude Opus 4.6 | `claude-opus-4-6` | | GPT-5.4 Fast | `gpt-5.4-fast` | | Claude Opus 4.6 Fast | `claude-opus-4-6-fast` | diff --git a/docs/reference/cli-reference.mdx b/docs/reference/cli-reference.mdx index 51d2f879..5f98b3c7 100644 --- a/docs/reference/cli-reference.mdx +++ b/docs/reference/cli-reference.mdx @@ -101,6 +101,7 @@ droid exec --auto high "Run tests, commit, and push changes" | Model ID | Name | Reasoning support | Default reasoning | | :---------------------------- | :--------------------------- | :--------------------------------------- | :---------------- | +| `claude-opus-4-7` | Claude Opus 4.7 | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-6` | Claude Opus 4.6 | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-6-fast` | Claude Opus 4.6 Fast | Yes (Off/Low/Medium/High/Max) | high | | `claude-opus-4-5-20251101` | Claude Opus 4.5 | Yes (Off/Low/Medium/High) | off |