Consultant IA - Développeur & Référent IA H/F - GutiLab
- Paris - 75
- CDI
- GutiLab
Les missions du poste
Vous cherchez un poste où l'IA ne se limite pas à des expérimentations mais à des livrables solides et souverains ?
Chez GutiLab, vous concevez, déployez et maintenez une stack IA complète, autohébergée et documentée, utilisée à la fois en interne et chez nos clients. Vous évoluez aux côtés d'équipes techniques exigeantes, dans un environnement qui valorise la qualité du code et la clarté des architectures.
Votre objectif : construire et livrer notre offre IA souveraine, capable de rivaliser avec les grands modèles hébergés, tout en garantissant la maîtrise totale des données.
Vos responsabilités s'articulent autour des activités suivantes :
- Concevoir et développer des pipelines RAG complets, du traitement à la génération
- Déployer et gérer des agents IA (ReAct, Tool Use, AutoGen, CrewAI)
- Intégrer des LLM souverains (Mistral, Ollama, Hugging Face) en production
- Définir des architectures IA selfhosted conformes RGPD et NIS2
- Maintenir et documenter la stack IA interne de GutiLab
- Accompagner les équipes clientes sur la conception et la présentation de POC
- Former les consultants internes sur le RAG, les agents IA et l'intégration de modèles
Vous participez également à notre Labs, où vous testez de nouveaux outils et automatisez les tâches récurrentes liées à l'IA. Chaque projet est livré avec une exigence de reproductibilité, d'auditabilité et de performance.
Le profil recherché
Ce poste s'adresse à une personne qui maîtrise les briques IA de bout en bout et qui aime construire des systèmes robustes et maintenables.
Les compétences attendues sont les suivantes :
- Maîtrise avancée de Python (développement de production)
- Bonne connaissance de TypeScript / Node.js pour les intégrations API
- Pratique de Git / GitLab et CI/CD
- Maîtrise de Docker et des déploiements selfhosted
- Expérience démontrée sur le RAG, avec pipeline complet opérationnel
- Connaissance des bases vectorielles (Chroma, Weaviate, Pinecone, Qdrant)
- Utilisation d'embeddings (sentencetransformers, Mistral, OpenAI)
- Pratique de LangChain ou LlamaIndex sur des cas réels
- Mise en oeuvre d'agents IA fonctionnels
- Connaissance d'Ollama et Mistral (API, déploiement, prompt engineering)
- Expérience en finetuning de modèles (LoRA, QLoRA, PEFT)
- Préparation de datasets et évaluation de modèles (BLEU, ROUGE, perplexité)
Des compétences en Rust ou Go, vLLM, Whisper, PostgreSQL + pgvector ou automatisation avec n8n sont un vrai plus.