Direkt zum Hauptinhalt

Allgemeines

Wir hosten generative KI Modelle für Lehre, Forschung und Transfer.

Für die Dauer des Projekts HI-Lübeck (Innovative Hochschule) hosten wir diese Modelle als Teil der Campus-Plattform für Transferzwecke ohne Zugangsbeschränkungen. Wir wollen damit Innovationen im Bereich der Digitaliserung und der Nutzung von Generativer KI auf dem Hanse-Innovation-Campus fördern.

Betriebsprinzipien:

  1. Wir betreiben alle hier aufgeführten generativen KI-Modelle auf Servern auf dem Campus der TH-Lübeck.
  2. Wir speichern die verarbeiteten Daten nicht und verwenden sie nicht für interne Zwecke.
  3. Wir speichern generierte Daten nur für die Dauer der Verarbeitung einschließlich der in transaktionaler Kausalität anschließenden Verarbeitungsprozesse (z.B. Download eines generierten Bildes nach dessen Generierung).
  4. Wir protokollieren nur Datenmengen (z.B. Anzahl der Requests, Anzahl der Token), aber keine Dateninhalte (z.B. verarbeiteter Text, der in ein Sprachmodell einfließt, oder generierter Text, der von einem Sprachmodell generiert wird).
  5. Alle hier genannten KI-Modelle dürfen nicht für kommerzielle Dienstleistungen verwendet werden (sie dienen ausschließlich der explorativen Analyse potenzieller Anwendungsfälle und sonstiger betrieblicher Fragestellungen).

Wartungsfenster

NEU Jeweils am 2. Donnerstag eines Monats werden ab 20 Uhr die Systeme des myLab aktualisiert.
Auch die hier genannten Modelle können davon betroffen sein und sind daher ggf. in diesen Zeiträumen nicht erreichbar! {.is-warning}

Newsletter

In unserem Chatbot KIRA findet ihr das Anmeldeformular für den Newsletter:
chat.kira.th-luebeck.dev
Wir informieren euch dann per Mail, wenn wir an den gehosteten Modellen etwas ändern.

Large Language und Embedding Modelle

Wir hosten verschiedene Language Models. Für Details siehe LLM-Übersicht

Unser ChatBot KIRA läuft bspw. auf Llama3 70B.

Andere Modelle (Audio, Images)

Wir hosten auch andere Modelle, z.B. für Sprach- und Bildgenerierung. Für Details siehe Andere Modelle

openAI Client API (Beta)

Wir hosten ab sofort eine OpenAI Client kompatible API. Diese befindet sich noch in der Erprobung und es kann entsprechend zu Ausfällen kommen. Erreichbar ist diese unter models.mylab.th-luebeck.dev
Über die API sind alle unsere LLMs und auch weitere Modelle erreichbar.

Bei der Verwendung des openAI Clients z.B. in Python muss die base_url auf https://models.mylab.th-luebeck.dev/v1 gesetzt werden.

Eine Übersicht aller Modelle findet sich in der KI-Plattform Übersicht (Lädt ggf etwas langsam).

Alle nicht-LLM Modelle müssen derzeit als "Highly Experimental" betrachtet werden. Wir garantieren keine Verfügbarkeit oder Qualität.

Übersicht der verfügbaren Modelle

Die Verwendung der gelisteten Endpunkte kann der regulären openAI Dokumentation entnommen werden.

Model Parameter openAI API-Endpoints Actual Model Backend Anmerkungen
gpt-4o-mini v1/chat/completions phi-4-multimodal vLLM -
phi-4-multimodal v1/chat/completions Qwen3 VL 8B vLLM Wird zum 30.11. abgeschalten, verweist in der Übergangszeit noch auf das Qwen3 VL 8B
qwen3-vl-8b v1/chat/completions Qwen3 VL 8B vLLM -
qwen3-vl-32b v1/chat/completions Qwen3 VL 32B vLLM -
chat-large v1/chat/completions
v1/completions
gpt-oss-120b vLLM -
chat-default v1/chat/completions
v1/completions
gpt-oss-120b vLLM -
gpt-oss-120b v1/chat/completions
v1/completions
gpt-oss-120b vLLM -
nanonets-ocr2-3b v1/chat/completions nanonets-ocr2-3b vLLM -
tts-1-hd v1/audio/speech coqui xtts-v2 customized matatonic/openedai-speech -
xtts-v2 v1/audio/speech coqui xtts-v2 customized matatonic/openedai-speech -
whisper-3-large v1/audio/transcriptions
v1/audio/translations
whisper-3-large customized matatonic/openedai-whisper -
whisper-1 v1/audio/transcriptions
v1/audio/translations
whisper-3-large customized matatonic/openedai-whisper -
dall-e-3 v1/images/generations
v1/images/edits
v1/images/variations
v1/images/data
Flux.1-Dev hanseware/FastFusion -
flux.1-dev v1/images/generations
v1/images/edits
v1/images/variations
v1/images/data
Flux.1-Dev hanseware/FastFusion -
flux.1-kontext v1/images/edits
v1/images/variations
v1/images/data
Flux.1-Kontext hanseware/FastFusion -
qwen3-embedding-4b v1/embeddings qwen3-embedding-4b Huggingface TEI -