Endpunkte
Chat, Responses und Messages
Die öffentliche API unterstützt zentrale LLM-Workflows für bestehende Integrationen.
- POST /v1/chat/completions
- POST /v1/responses
- POST /v1/messages
- POST /v1/embeddings
Messages API. Responses API. KI-Gateway.
2342.ai stellt eigene Plattform-Endpunkte bereit. API-Kompatibilität ist ein Umsteck-Feature: bestehende OpenAI- oder Anthropic-artige Tools können mit wenigen Änderungen angebunden werden, laufen aber durch 2342.ai Regeln, Modellwahl, Abrechnung, Rate Limits, Logs und Datenschutzvorgaben.
Kein reiner Durchreicher
Anfragen werden nicht als direkter Anbieter-Account verkauft. Kunden nutzen 2342.ai-Endpunkte. Je nach Teamregel werden Modellkonfigurationen ausgewählt, Budgets geprüft, Nutzung gemessen und Anbieter-spezifische Datenschutzvorgaben angewendet.
Endpunkte
Die öffentliche API unterstützt zentrale LLM-Workflows für bestehende Integrationen.
Regeln
Teams können festlegen, welche Modelle und Anbieter-Konfigurationen für welche Aufgaben zugelassen sind.
Abrechnung
2342.ai Nutzungsguthaben deckt geroutete Modellausführung, Gateway-Verarbeitung, Regelprüfung, Messung und Anbieterkosten ab.
Rollout
Festlegen, welche Teams, Datenklassen, Budgets und Modelle erlaubt sind.
Bestehende Integrationen mit minimalen Änderungen an 2342.ai anbinden.
Kosten, Modellrouting und Datenwege laufend sichtbar halten.
Nein. Kunden erhalten Zugriff auf die 2342.ai-Plattform. Drittanbieter-Modelle können als technische Infrastrukturkomponenten und Unterauftragsverarbeiter für ausgewählte Plattformfunktionen eingesetzt werden.
Nein. Sinnvoll ist ein freigegebener EU/DSGVO-Modus: Admins entscheiden, welche Anbieter- und Modellkonfigurationen für sensible Daten erlaubt sind.
OpenAI- oder Anthropic-artige Integrationen können mit wenigen Änderungen angebunden werden. Die Endpunkte bleiben aber 2342.ai-Plattformendpunkte mit Regeln, Modellwahl, Abrechnung, Rate Limits und Logs.