Allgemeines
Wir hosten generative KI Modelle für Lehre, Forschung und Transfer.
Für die Dauer des Projekts HI-Lübeck (Innovative Hochschule) hosten wir diese Modelle als Teil der Campus-Plattform für Transferzwecke ohne Zugangsbeschränkungen. Wir wollen damit Innovationen im Bereich der Digitaliserung und der Nutzung von Generativer KI auf dem Hanse-Innovation-Campus fördern.
Betriebsprinzipien:
- Wir betreiben alle hier aufgeführten generativen KI-Modelle auf Servern auf dem Campus der TH-Lübeck.
- Wir speichern die verarbeiteten Daten nicht und verwenden sie nicht für interne Zwecke.
- Wir speichern generierte Daten nur für die Dauer der Verarbeitung einschließlich der in transaktionaler Kausalität anschließenden Verarbeitungsprozesse (z.B. Download eines generierten Bildes nach dessen Generierung).
- Wir protokollieren nur Datenmengen (z.B. Anzahl der Requests, Anzahl der Token), aber keine Dateninhalte (z.B. verarbeiteter Text, der in ein Sprachmodell einfließt, oder generierter Text, der von einem Sprachmodell generiert wird).
- Alle hier genannten KI-Modelle dürfen nicht für kommerzielle Dienstleistungen verwendet werden (sie dienen ausschließlich der explorativen Analyse potenzieller Anwendungsfälle und sonstiger betrieblicher Fragestellungen).

Wartungsfenster
NEU Jeweils am 2. Donnerstag eines Monats werden ab 20 Uhr die Systeme des myLab aktualisiert.
Auch die hier genannten Modelle können davon betroffen sein und sind daher ggf. in diesen Zeiträumen nicht erreichbar! {.is-warning}
Newsletter
In unserem Chatbot KIRA findet ihr das Anmeldeformular für den Newsletter:
chat.kira.th-luebeck.dev
Wir informieren euch dann per Mail, wenn wir an den gehosteten Modellen etwas ändern.
Large Language und Embedding Modelle
Wir hosten verschiedene Language Models. Für Details siehe LLM-Übersicht
Unser ChatBot KIRA läuft bspw. auf Llama3 70B.
Andere Modelle (Audio, Images)
Wir hosten auch andere Modelle, z.B. für Sprach- und Bildgenerierung. Für Details siehe Andere Modelle
openAI Client API (Beta)
Wir hosten ab sofort eine OpenAI Client kompatible API.
Diese befindet sich noch in der Erprobung und es kann entsprechend zu Ausfällen kommen.
Erreichbar ist diese unter models.mylab.th-luebeck.dev
Über die API sind alle unsere LLMs und auch weitere Modelle erreichbar.
Bei der Verwendung des openAI Clients z.B. in Python muss die
base_urlaufhttps://models.mylab.th-luebeck.dev/v1gesetzt werden.
Eine Übersicht aller Modelle findet sich in der KI-Plattform Übersicht (Lädt ggf etwas langsam).
Alle nicht-LLM Modelle müssen derzeit als "Highly Experimental" betrachtet werden. Wir garantieren keine Verfügbarkeit oder Qualität.
Übersicht der verfügbaren Modelle
Die Verwendung der gelisteten Endpunkte kann der regulären openAI Dokumentation entnommen werden.
| Model Parameter | openAI API-Endpoints | Actual Model | Backend | Anmerkungen |
|---|---|---|---|---|
| gpt-4o-mini | v1/chat/completions | phi-4-multimodal | vLLM | - |
| phi-4-multimodal | v1/chat/completions | Qwen3 VL 8B | vLLM | Wird zum 30.11. abgeschalten, verweist in der Übergangszeit noch auf das Qwen3 VL 8B |
| qwen3-vl-8b | v1/chat/completions | Qwen3 VL 8B | vLLM | - |
| qwen3-vl-32b | v1/chat/completions | Qwen3 VL 32B | vLLM | - |
| chat-large | v1/chat/completions v1/completions |
gpt-oss-120b | vLLM | - |
| chat-default | v1/chat/completions v1/completions |
gpt-oss-120b | vLLM | - |
| gpt-oss-120b | v1/chat/completions v1/completions |
gpt-oss-120b | vLLM | - |
| nanonets-ocr2-3b | v1/chat/completions | nanonets-ocr2-3b | vLLM | - |
| tts-1-hd | v1/audio/speech | coqui xtts-v2 | customized matatonic/openedai-speech | - |
| xtts-v2 | v1/audio/speech | coqui xtts-v2 | customized matatonic/openedai-speech | - |
| whisper-3-large | v1/audio/transcriptions v1/audio/translations |
whisper-3-large | customized matatonic/openedai-whisper | - |
| whisper-1 | v1/audio/transcriptions v1/audio/translations |
whisper-3-large | customized matatonic/openedai-whisper | - |
| dall-e-3 | v1/images/generations v1/images/edits v1/images/variations v1/images/data |
Flux.1-Dev | hanseware/FastFusion | - |
| flux.1-dev | v1/images/generations v1/images/edits v1/images/variations v1/images/data |
Flux.1-Dev | hanseware/FastFusion | - |
| flux.1-kontext | v1/images/edits v1/images/variations v1/images/data |
Flux.1-Kontext | hanseware/FastFusion | - |
| qwen3-embedding-4b | v1/embeddings | qwen3-embedding-4b | Huggingface TEI | - |