Das richtige KI-Modell für Ihre Private Deployment auswählen

Eine der wichtigsten Entscheidungen bei einer RowSpeak Private Deployment ist, welches KI-Modell Sie verwenden. Die richtige Wahl hängt von den Datenschutzanforderungen Ihrer Organisation, Ihrer Infrastruktur, Leistungsanforderungen und internen Richtlinien ab.

Dieser Leitfaden führt Sie durch die Optionen und hilft Ihnen bei der Entscheidung.


Die zwei Pfade

Open-Source- vs. Closed-Source-Modelle Open-Source-Modelle Laufen vollständig in Ihrer Umgebung Beispiele: Qwen3.5 · DeepSeek V3 · Gemma 4 Datenhandling: ✅ Daten verlassen nie Ihr Netzwerk ✅ Keine externen API-Aufrufe ✅ Air-Gapped-kompatibel Anforderungen: GPU-Server (16–64 GB VRAM) Closed-Source-Modelle Über Ihren eigenen API-Schlüssel Beispiele: GPT-5.4 · Claude Opus 4.6 · Gemini 3.1 Pro Datenhandling: ⚠️ Daten werden an Provider-API gesendet ⚠️ Unterliegt den Richtlinien des Providers ✅ Ihr API-Schlüssel, Ihr Konto Anforderungen: API-Schlüssel + ausgehender Internetzugang

Entscheidungsrahmen

Nutzen Sie dies, um Ihre Wahl schnell einzugrenzen.

Wählen Sie Open-Source, wenn:

  • Ihre Daten unter keinen Umständen Ihr Netzwerk verlassen dürfen
  • Sie in einer Air-Gapped-Umgebung bereitstellen
  • Sie regulatorische oder Compliance-Anforderungen an die Datenresidenz haben
  • Sie keine Abhängigkeit von der Verfügbarkeit von Drittanbieter-APIs wollen
  • Sie vorhersehbare Kosten ohne Token-preise pro wünschen

Wählen Sie Closed-Source, wenn:

  • Ihre Datensensibilität externe API-Aufrufe erlaubt (mit Ihrem eigenen Konto)
  • Sie die bestmögliche Ausgabequalität für komplexe Reasoning-Aufgaben wünschen
  • Sie keine GPU-Infrastruktur verfügbar haben
  • Sie schnell ohne Modelleinrichtung loslegen möchten
  • Sie einen Pilotbetrieb durchführen, bevor Sie sich zu GPU-Hardware verpflichten

Kombinieren Sie beide, wenn:

  • Verschiedene Workflows verschiedene Sensibilitätsstufen haben
  • Sie Open-Source für sensible Daten und Closed-Source für nicht sensible Aufgaben wollen
  • Sie ein Fallback-Modell wünschen, falls eines nicht verfügbar ist

RowSpeak unterstützt das Routing verschiedener Workflows zu verschiedenen Modellen innerhalb derselben Bereitstellung.


Open-Source-Modellvergleich

|| Modell | Parameter | VRAM erforderlich | Sprachen | Lizenz | Am besten für | ||---|---|---|---|---|---|---| || Qwen3.5-397B-A17B | 397B (MoE, 17B aktiv) | 64 GB | 201+ Sprachen | Apache 2.0 | Maximale Qualität, komplexe Analyse | || Qwen3.5-122B-A10B | 122B (MoE, 10B aktiv) | 24–48 GB | 201+ Sprachen | Apache 2.0 | Hohe Qualität, komplexe Aufgaben | || Qwen3.5-35B-A3B | 35B (MoE, 3B aktiv) | 16 GB | 201+ Sprachen | Apache 2.0 | Mehrsprachig, allgemeine Analyse | || DeepSeek V3 | 671B (MoE, 37B aktiv) | 32–48 GB | EN, ZH, mehrsprachig | MIT | Mathe-Reasoning, Codegenerierung | || Gemma 4-31B | 31B | 24 GB | 140 Sprachen | Apache 2.0 | Agentic Workflows, strukturierte Ausgabe | || Qwen3.5-9B | 9B | 16 GB | 201+ Sprachen | Apache 2.0 | Kosteneffektive lokale Bereitstellung |

Alle Open-Source-Modelle laufen lokal. Keine Internetverbindung nach der Ersteinrichtung erforderlich. Lizenzen erlauben kommerzielle Nutzung.


Closed-Source-Modellvergleich

|| Modell | Provider | Kontextfenster | Am besten für | ||---|---|---|---| || GPT-5.4 | OpenAI | 1M Tokens | Komplexes Reasoning, Englisch-zuerst | || Claude Opus 4.6 | Anthropic | 1M Tokens | Lange Dokumente, nuancierte Analyse | || Gemini 3.1 Pro | Google | 1M Tokens | Sehr große Dateien, gemischte Inhalte |

Sie verwenden Ihren eigenen API-Schlüssel. RowSpeak fungiert nicht als Vermittler — Ihre Daten gehen direkt von Ihrer Umgebung zum Provider.


Was mit Ihren Daten bei Closed-Source-Modellen passiert

Wenn Sie ein Closed-Source-Modell verwenden, werden Ihre Tabellendaten zur Verarbeitung an die API dieses Providers gesendet. Das bedeutet:

  • Der Provider verarbeitet Ihre Daten gemäß seinen Nutzungsbedingungen
  • Enterprise-API-Vereinbarungen mit OpenAI, Anthropic und Google enthalten typischerweise Datenverarbeitungsvereinbarungen (DPAs), die die Nutzung für Training einschränken
  • Sie sollten die Datenverarbeitungsrichtlinien des Providers vor der Aktivierung dieser Option überprüfen
  • RowSpeak empfiehlt, Closed-Source-Modelle nur für nicht sensible Daten zu verwenden oder nach Überprüfung und Akzeptanz der Enterprise-Datenbedingungen des Providers

Für maximale Datensouveränität verwenden Sie Open-Source-Modelle.


Modell-Routing in RowSpeak

RowSpeak unterstützt das Konfigurieren verschiedener Modelle für verschiedene Anwendungsfälle innerhalb derselben Bereitstellung.

Beispielkonfiguration:

Workflow: Finanzberichte → DeepSeek V3 (lokal, sensible Daten)
Workflow: Marketing-Zusammenfassungen → GPT-5.4 (API, nicht sensibel)
Workflow: Standard → Qwen3.5-35B (lokal, allgemeine Nutzung)

Dies ermöglicht Ihrer Organisation, das richtige Modell basierend auf der Datensensibilität auf jeden Workflow anzuwenden, ohne eine einzelne Wahl für alle Anwendungsfälle erzwingen zu müssen.


Häufig gestellte Fragen

Kann ich nach der Bereitstellung die Modelle wechseln? Ja. Die Modellauswahl ist eine Konfigurationsänderung, keine erneute Bereitstellung. Ihr IT-Team kann die Modell-Routing-Konfiguration ohne Ausfallzeit aktualisieren.

Muss ich Modellgewichte selbst herunterladen? Nein. Das RowSpeak-Bereitstellungspaket enthält Anleitungen zum Model-Erwerb. Für Air-Gapped-Umgebungen stellen wir Anweisungen zum Vorab-Laden von Modellgewichten vor der Bereitstellung bereit.

Was ist, wenn ich ein Modell verwenden möchte, das nicht auf dieser Liste steht? Kontaktieren Sie uns. RowSpeaks Modellschicht ist erweiterbar konzipiert. Wenn Sie eine spezifische Modellanforderung haben, können wir die Kompatibilität besprechen.

Kann ich ein Fine-Tuned oder benutzerdefiniertes Modell verwenden? Dies ist auf Enterprise-Ebene verfügbar. Kontaktieren Sie uns, um Ihre Anforderungen zu besprechen.


Brauchen Sie Hilfe bei der Entscheidung?

Buchen Sie eine Demo und wir helfen Ihnen, die richtige Modellstrategie auf Ihre Umgebung, Datensensibilität und Leistungsanforderungen abzubilden.

Sie können auch das Technische Architekturdokument für mehr Details zur Integration der Modellschicht mit dem Rest des Systems überprüfen.