プライベートデプロイメントに最適な AI モデルの選択
RowSpeak Private Deployment における最も重要な決定の 1 つは、どの AI モデルを使用するかです。正しい選択は、組織のプライバシー要件、インフラ、パフォーマンス要件、内部ポリシーによって異なります。
このガイドではオプションを説明し、決定をサポートします。
2 つのパス
決定フレームワーク
選択を迅速に絞り込むためにこれを使用してください。
オープンソースを選択する場合:
- データがどんな状況でもネットワークから外に出てはいけない
- エアギャップ環境にデプロイしている
- データ所在地に関する規制またはコンプライアンス要件がある
- サードパーティ API の可用性に依存したくない
- トークンごとの価格なしで予測可能なコストを希望
クローズドソースを選択する場合:
- データ機密性が外部 API 呼び出しを許可する
- 複雑な推論タスクに最高の出力品質を希望
- GPU インフラが利用できない
- モデルセットアップなしで素早く始めたい
- GPU ハードウェアにコミットする前にパイロットを実行したい
両方を組み合わせる:
- 異なるワークフローに異なる機密性レベル
- 機密データにオープンソース、非感 insensitive タスクにクローズドソースを使用したい
- 一方が利用できない場合のフォールバックモデル
RowSpeak は同じデプロイメント内で異なるワークフローを異なるモデルにルーティングすることをサポートしています。
オープンソースモデル比較
| モデル | パラメータ | VRAM 必要 | 言語 | ライセンス | 最適用途 | |
|---|---|---|---|---|---|---|
| Qwen3.5-397B-A17B | 397B (MoE, 17B active) | 64 GB | 201+ 言語 | Apache 2.0 | 最大品質、複雑な分析 | |
| Qwen3.5-122B-A10B | 122B (MoE, 10B active) | 24–48 GB | 201+ 言語 | Apache 2.0 | 高品質、複雑なタスク | |
| Qwen3.5-35B-A3B | 35B (MoE, 3B active) | 16 GB | 201+ 言語 | Apache 2.0 | 多言語、一般的な分析 | |
| DeepSeek V3 | 671B (MoE, 37B active) | 32–48 GB | EN, ZH, 多言語 | MIT | 数学的推論、コード生成 | |
| Gemma 4-31B | 31B | 24 GB | 140 言語 | Apache 2.0 | エージェントワークフロー、構造化出力 | |
| Qwen3.5-9B | 9B | 16 GB | 201+ 言語 | Apache 2.0 | コスト効率の良いローカルデプロイ |
すべてのオープンソースモデルはローカルで実行されます。初期セットアップ後にインターネット接続は不要です。ライセンスは商用使用を許可します。
クローズドソースモデル比較
|| モデル | プロバイダー | コンテキストウィンドウ | 最適用途 | |---|---|---|---| || GPT-5.4 | OpenAI | 1M トークン | 複雑な推論、英語優先 | || Claude Opus 4.6 | Anthropic | 1M トークン | 長文書、繊細な分析 | || Gemini 3.1 Pro | Google | 1M トークン | 非常大規模ファイル、混合コンテンツ |
あなた自身の API キーを使用します。RowSpeak は仲介者として機能しません — あなたのデータは環境から直接プロバイダーに送信されます。
クローズドソースモデル使用時のデータの扱い
クローズドソースモデルを使用する場合、あなたのスプレッドシートデータは処理のためにそのプロバイダーの API に送信されます。つまり:
- プロバイダーはあなたのデータをサービスの利用規約に従って処理します
- OpenAI、Anthropic、Google のエンタープライズ API ���約には通常、トレーニング使用を制限するデータ処理契約(DPA)が含まれます
- このオプションを有効にする前に、プロバイダーのデータ処理ポリシーを確認する必要があります
- RowSpeak は、機密性の高いデータにはオープンソースモデルの使用を推奨します
最大限のデータ主権を得るには、オープンソースモデルを使用してください。
RowSpeak でのモデルルーティング
RowSpeak は同じデプロイメント内で異なるユースケースに異なるモデルを設定できるモデルルーティングをサポートしています。
例設定:
ワークフロー:財務レポート → DeepSeek V3(ローカル、機密データ)
ワークフロー:マーケティング要約 → GPT-5.4(API、非機密)
ワークフロー:デフォルト → Qwen3.5-35B(ローカル、一般的な使用)
これにより、組織はデータ機密性に基づいて各ワークフローに適切なモデルを適用できます。
よくある質問
デプロイ後にモデルを切り替えできますか? はい。モデル選択は設定変更であり、再デプロイメントではありません。あなたの IT チームはダウンタイムなしでモデルルーティング設定を更新できます。
モデル重みを自分でダウンロードする必要がありますか? いいえ。RowSpeak デプロイメントパックにはモデル取得のガイダンスが含まれています。エアギャップ環境の場合、セットアップ前にモデル重みを事前にロードする手順を提供します。
このリストにないモデルを使用したい場合はどうなりますか? お問い合わせください。RowSpeak のモデル層は拡張可能に設計されています。特定のモデル要件がある場合は、互換性について discussion できます。
ファインチューニングまたはカスタムモデルを使用できますか? これは Enterprise ティアで利用可能です。要件についてはお問い合わせください。
決定に助けが必要ですか?
デモを予約して、環境、データ機密性、パフォーマンス要件に適したモデル戦略をマッピングするお手伝いをします。
技術アーキテクチャドキュメントで、モデル層がシステムの他の部分とどのように統合されるかの詳細を確認することもできます。