🐾 Chaton - Assistant IA
Assistant conversationnel intelligent avec support RAG (Retrieval-Augmented Generation), multi-modal et export de documents.
- Mode OpenAI : Connexion à une API compatible OpenAI (Albert, OpenAI, etc.). C'est son mode de fonctionnement nominal, vous devez posséder une clé pour l'API Albert de la DiNum.
- Mode Ollama : Utilisation de modèles locaux via Ollama (GPU fortement recommandé)
- Support multi-modal : texte, images, code
- Streaming des réponses
- Collections locales : Via Qdrant (base vectorielle locale)
- Collections distantes : Via API Albert
- Recherche avancée
- Reranking avec modèle BGE
- Extension automatique du contexte avec chunks adjacents
- Upload multiple de PDFs
- Extraction de contenu web (URLs)
- Upload d'images pour analyse visuelle
- Support LaTeX dans les réponses
- Word (DOCX) : Export formaté des conversations
- Excel (XLSX) : Export de tableaux et données structurées (version préliminaire alpha)
- PowerPoint (PPTX) : Génération de présentations à partir d'un prompt, d'un document PDF ou du RAG
- Plusieurs profils (rôles) intégrés via un fichier de configuration des prompts systèmes pour s'adapter au contexte ou à la mission de l'assistant.
- Interface Streamlit responsive
- Affichage des sources RAG
- Configuration avancée dans la sidebar
- Python 3.9+ (testé avec 3.12.8)
- (Optionnel) Qdrant pour les collections locales
- (Optionnel) Ollama pour les modèles locaux
python -m venv venv
source venv/bin/activate # Linux/Mac
# ou
venv\Scripts\activate # WindowsImportant : L'installation dépend de votre configuration matérielle.
Option A : GPU NVIDIA avec CUDA 11.8 (typiquement pour architecture Pascal, non supportée par les versions de CUDA > 11.8)
# Installer les dépendances de base
pip install -r requirements.txt
# Installer PyTorch avec CUDA 11.8
pip install -r requirements-cuda11.txt# Installer les dépendances de base
pip install -r requirements.txt
# Installer PyTorch avec CUDA 12.x
pip install -r requirements-cuda12.txtOption C : CPU uniquement (sans GPU, adapté au fonctionnement Albert API, sinon bonne chance si vous utilisez des LLM locaux)
# Installer les dépendances de base
pip install -r requirements.txt
# Installer PyTorch CPU
pip install -r requirements-cpu.txt# Vérifier la version CUDA disponible
python -c "import torch; print(f'CUDA disponible: {torch.cuda.is_available()}'); print(f'Version CUDA: {torch.version.cuda}')"Copiez le fichier d'exemple et configurez vos paramètres :
cp .env.example .envÉditez .env avec vos paramètres :