Verbinde dich mit deinem lokalen LLM
Wähle ein Modell links, optional einen Demo-Prompt, und stelle deine erste Frage.
Die Anfragen gehen direkt per fetch() an deinen lokalen Ollama-Service.
Wenn keine Modelle erscheinen — CORS prüfen. Ollama erlaubt
per default nur Anfragen vom selben Origin. Setze
Oder via systemd-Drop-In
OLLAMA_ORIGINS=* am Service-Wrapper:launchctl setenv OLLAMA_ORIGINS '*' && brew services restart ollama (macOS)Oder via systemd-Drop-In
Environment="OLLAMA_ORIGINS=*" (Linux).
Wenn keine Modelle installiert sind:
ollama pull mistral:7b-instruct-q4_K_M, dann
Modelle neu laden klicken.