Lâagence spĂ©cialisĂ©e en media monitoring souhaite automatiser lâanalyse de centaines dâarticles de presse reçus chaque jour.
Actuellement, le traitement est entiĂšrement manuel, ce qui est :
- Lent
- Coûteux
- Difficile à fiabiliser à grande échelle
- DĂ©pendant de lâexpertise humaine pour catĂ©goriser et synthĂ©tiser les contenus
Pour industrialiser ce processus, la direction souhaite mettre en place une application fullstack interne, sĂ©curisĂ©e et maintenable, capable dâorchestrer deux services dâIA externes :
-
Classification Zero-Shot (Hugging Face)
- ModĂšle :
facebook/bart-large-mnli - UtilisĂ© pour dĂ©terminer la catĂ©gorie probable dâun texte (Finance, RH, IT, OpĂ©rations, etc.)
- ModĂšle :
-
Analyse et SynthĂšse Contextuelle (API Gemini)
- GĂ©nĂ©ration dâun rĂ©sumĂ© ciblĂ©
- Ăvaluation du ton (positif, nĂ©gatif, neutre)
- Gemini reçoit la catégorie issue de Hugging Face comme contexte dans son prompt
La direction confie Ă votre Ă©quipe la conception et le dĂ©veloppement de lâapplication Hybrid-Analyzer, qui doit garantir :
- Sécurité
- Qualité du code
- Orchestrations fiables
- Logs exploitables
- Tests automatisés
Lâentreprise souhaite une plateforme fullstack qui :
- Reçoit un texte brut (article, paragraphe, note)
- Envoie ce texte Ă Hugging Face pour une classification Zero-Shot
- Transmet ensuite la classification Ă Gemini pour une synthĂšse contextuelle
- Retourne au frontend un JSON structuré contenant :
- La catégorie prédite
- Le score associé
- Le résumé généré
- Le ton détecté
- GĂšre lâensemble du workflow de façon sĂ©curisĂ©e (authentification + gestion dâerreurs)
- Fournisse une interface web claire permettant :
- Lâenvoi de texte
- Lâaffichage de la classification et de la synthĂšse
- Un retour visuel (loading / success / erreurs)
Fonctionnalités à implémenter :
- Endpoint
/analyzerecevant un texte Ă analyser - Appel au service Hugging Face :
- ModĂšle :
facebook/bart-large-mnli - Gestion des scores faibles, timeouts, erreurs réseau, réponses invalides
- ModĂšle :
- Transmission du résultat à Gemini via un prompt contextualisé
- Agrégation des réponses HF + Gemini
- Retour dâun JSON structurĂ© au frontend
- Sécurisation du backend (JWT)
Endpoints obligatoires :
POST /register- Enregistrer un utilisateur dans PostgreSQL
- Stockage du mot de passe hashé (bcrypt recommandé)
POST /login- Renvoie un token JWT signé
POST /analyze- Protégé par JWT
- Table
users:
| id | username | passwordhash | createdat |
- Utilisation de lâAPI Inference
- Header dâauthentification (token HF)
- Prompt Engineering incluant :
- Le texte source
- La catégorie prédite par Hugging Face
- Les contraintes de synthĂšse (longueur, ton, structure)
- Détection du ton : positif / neutre / négatif
- Gestion des erreurs Gemini (réponses mal formées, API down)
Pages attendues :
/analyze/auth: Inscription / Connexion- Gestion du token JWT cÎté client
- Mock complet de lâAPI :
- Mock Hugging Face
- Mock Gemini
- Backend : Python, FastAPI
- Frontend : React / Next.js / HTML, CSS, JS
- Base de données : PostgreSQL
- IA externes : Hugging Face, API Gemini
- Sécurité : JWT, bcrypt
{
"category": "Finance",
"score": 0.87,
"summary": "Résumé synthétique du texte fourni...",
"tone": "positif"
}