Docs CHAT DEMO Neue Session

Verbinde dich mit deinem lokalen LLM

Wähle ein Modell links, optional einen Demo-Prompt, und stelle deine erste Frage. Die Anfragen gehen direkt per fetch() an deinen lokalen Ollama-Service.

Wenn keine Modelle erscheinen — CORS prüfen. Ollama erlaubt per default nur Anfragen vom selben Origin. Setze OLLAMA_ORIGINS=* am Service-Wrapper:
launchctl setenv OLLAMA_ORIGINS '*' && brew services restart ollama (macOS)
Oder via systemd-Drop-In Environment="OLLAMA_ORIGINS=*" (Linux).
Wenn keine Modelle installiert sind: ollama pull mistral:7b-instruct-q4_K_M, dann Modelle neu laden klicken.