Wir hosten aktuell das Whisper-3-large Modell von openAI.
Wir hosten aktuell das xTTS-v2 Modell.
Das xTTS Modell kennt derzeit alle bei openAI verfügbaren Stimmen:
Wobei es sich um ähnlich klingende, nachgeahmte Stimmen handelt.
Wir hosten das Nanonets OCR2 3B für OCR-Anwendungen.
Wir hosten aktuell das Flux.1 Modell in der dev Variante.
Zusätzlich kann mittels LoRa ein Flux.1-schnell genutzt werden. Dafür einen weitern Parameter lora_settings mitgeben:
{
"prompt": "A cat wearing a superhero costume, edge detected style",
"lora_settings": [
{
"name": "flux-schnell",
"weight": 1.0
}
]
}
Das Model kann mit den Endpunkten
angesprochen werden.
Das Flux.1-dev Modell kennt derzeit folgende Konfigurationen für den quality Parameter:
| Quality Parameter | Guidance Scale | Num Inference Steps |
|---|---|---|
| standard | 3.5 | 25 |
| standard+ | 5.5 | 25 |
| standard++ | 7.0 | 25 |
| bfl | 3.5 | 50 |
| hd | 5.5 | 50 |
| xhd | 7.0 | 50 |
Das Model kann mit den Endpunkten
angesprochen werden.
Das Flux.1-dev Modell kennt derzeit folgende Konfigurationen für den quality Parameter:
| Quality Parameter | Guidance Scale | Num Inference Steps |
|---|---|---|
| schnell-hd | 5.5 | 6 |
| schnell-standard | 3.5 | 3 |
| standard | 2.5 | 25 |
| standard+ | 4.5 | 25 |
| standard++ | 7.0 | 25 |
| bfl | 3.5 | 50 |
| hd | 5.5 | 50 |
| xhd | 7.0 | 50 |