Schnellanleitung um Code Demon in 5 Minuten zum Laufen zu bringen.
- Python 3.10+ installiert
- Ollama installiert und laufend (oder Text Generation WebUI)
- Ein LLM Model geladen (z.B.
gpt-oss:20b)
cd code-demon
pip install -e .Falls noch nicht installiert:
# Ollama installieren (macOS)
curl -fsSL https://ollama.com/install.sh | sh
# Model laden (empfohlen)
ollama pull gpt-oss:20b
# Ollama starten (falls nicht automatisch gestartet)
ollama serveDie .env Datei ist bereits vorkonfiguriert. Anpassen falls nötig:
# Standard Config (bereits gesetzt)
LLM_PROVIDER=ollama
OLLAMA_MODEL=gpt-oss:20b
PERSONALITY=cynical# Als "demon" Command
demon
# Oder mit Python
python -m code_demon
# Mit Optionen
demon --model llama3.1:8b
demon --personality professionalIm Chat kannst du direkt loslegen:
You: Lies die README.md Datei
You: Zeig mir git status
You: Schreib eine neue Datei test.py mit einem Hello World
You: Führe die Tests aus
You: help # Zeigt alle Commands
You: stats # Zeigt Statistiken
You: achievements # Zeigt deine Achievements
You: exit # Beenden
You: Was ist in diesem Projekt?
Code Demon: [liest package.json und README]
Das ist ein Python-Projekt namens "code-demon" - ein AI Coding Assistant.
Ich sehe TypeScript Dependencies, aber das Projekt ist in Python...
interessante Wahl. Soll ich die Struktur analysieren?
You: Ja, zeig mir die Projektstruktur
Code Demon: [nutzt list_directory rekursiv]
Ok, hier die Struktur... [zeigt Ordner und Files]
# Check Ollama
curl http://localhost:11434/api/tags
# Ollama starten
ollama serve# Models auflisten
ollama list
# Model herunterladen
ollama pull gpt-oss:20bpip install -e .
# Oder manuell
pip install -r requirements.txt- Lies die komplette README.md für alle Features
- Schau dir die Achievements an
- Customize die Personality
- Probiere verschiedene Models aus
Bei Problemen:
- Check Ollama Status:
ollama list - Check Python Version:
python --version(muss 3.10+) - Check Dependencies:
pip list - Check Logs:
~/.code-demon/logs/demon.log
Happy Coding! 🔥