Dieses Projekt ist eine selbst entwickelte Webanwendung, mit der man über den Browser mit einer lokalen KI kommunizieren kann.
Die Anwendung basiert auf HTML, CSS und JavaScript und nutzt die Ollama API, um das Sprachmodell Qwen 2.5 lokal auszuführen.
- Chat mit einer lokalen KI (Ollama)
- Mehrere Chats speichern (localStorage)
- Automatische Umbenennung von Chats basierend auf Inhalt
- Bearbeitung von Nachrichten (Modal-Fenster)
- Rechtsklick-Menü für Chat-Verwaltung (löschen / umbenennen)
- Enter = senden, Shift + Enter = neue Zeile
- Einfache und übersichtliche Benutzeroberfläche
- HTML5
- CSS3
- JavaScript (Vanilla)
- REST API (fetch)
- Ollama (lokale KI)
- Docker (optional für Setup)
- Ollama installiert und gestartet
oder - Docker + docker-compose (optional)
- Ollama starten
- Modell laden:
ollama pull qwen2.5:7b
- docker-compose up -d
- Danach ist die API unter folgendem Endpoint erreichbar: http://localhost:11434/api/generate
Sidebar mit Chat-Liste Chat-Bereich mit Nachrichten (User rechts / KI links) Eingabefeld mit Senden-Funktion Modal-Fenster zur Bearbeitung von Nachrichten
Ziel war es, eine funktionale Webanwendung zu entwickeln, die zeigt:
Verständnis von Frontend-Entwicklung Arbeit mit APIs Nutzung lokaler KI-Systeme Grundkenntnisse in Docker