Skip to content

yelyzaveta91/Local-AI

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 

Repository files navigation

Local AI Chat (Ollama + Qwen)

Dieses Projekt ist eine selbst entwickelte Webanwendung, mit der man über den Browser mit einer lokalen KI kommunizieren kann.

Die Anwendung basiert auf HTML, CSS und JavaScript und nutzt die Ollama API, um das Sprachmodell Qwen 2.5 lokal auszuführen.

Funktionen

  • Chat mit einer lokalen KI (Ollama)
  • Mehrere Chats speichern (localStorage)
  • Automatische Umbenennung von Chats basierend auf Inhalt
  • Bearbeitung von Nachrichten (Modal-Fenster)
  • Rechtsklick-Menü für Chat-Verwaltung (löschen / umbenennen)
  • Enter = senden, Shift + Enter = neue Zeile
  • Einfache und übersichtliche Benutzeroberfläche

Technologien

  • HTML5
  • CSS3
  • JavaScript (Vanilla)
  • REST API (fetch)
  • Ollama (lokale KI)
  • Docker (optional für Setup)

Voraussetzungen

  • Ollama installiert und gestartet
    oder
  • Docker + docker-compose (optional)

Projekt starten

Variante 1

  1. Ollama starten
  2. Modell laden:
    ollama pull qwen2.5:7b
    

Variante 2 mit Docker

  1. docker-compose up -d
  2. Danach ist die API unter folgendem Endpoint erreichbar: http://localhost:11434/api/generate

Benutzeroberfläche

Sidebar mit Chat-Liste Chat-Bereich mit Nachrichten (User rechts / KI links) Eingabefeld mit Senden-Funktion Modal-Fenster zur Bearbeitung von Nachrichten

Ziel des Projekts

Ziel war es, eine funktionale Webanwendung zu entwickeln, die zeigt:

Verständnis von Frontend-Entwicklung Arbeit mit APIs Nutzung lokaler KI-Systeme Grundkenntnisse in Docker

About

Frontend-Chat-App mit lokaler KI (Ollama, Qwen 2.5) inkl. REST API, Docker und Chat-Verwaltung.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors