CONTEXTE :
Experience : 6 ans et plus
Métiers Fonctions : Etudes & Développement,Expert
Spécialités technologiques : Intelligence artificielle, Open Source,MLOps,AI,IA generative
Cette mission stratégique s’inscrit dans un programme de sécurisation et d’industrialisation des solutions d’intelligence artificielle générative et agentique.
L’objectif principal est de tester, évaluer et intégrer des garde-fous (AI guardrails) dans les pipelines d’IA et environnements MLOps, afin d’assurer la robustesse, la conformité et la sécurité des applications basées sur des LLMs (Large Language Models).
Le poste s’adresse à un profil senior en ingénierie IA / sécurité ML, capable d’évoluer dans un contexte international et de collaborer avec des équipes pluridisciplinaires (sécurité, conformité, data science, développement).
MISSIONS
Responsabilités principales
1. Évaluation et test des solutions de garde-fous IA
– Identifier, tester et comparer des solutions de sécurité applicables aux LLMs et aux applications agentiques (open source et commerciales).
– Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous.
– Concevoir des scénarios d’attaque avancés (prompt injection, exfiltration de données, jailbreaks) pour évaluer la résilience des modèles.
– Analyser les résultats et produire des rapports d’évaluation détaillés (accuracy, intégrabilité, impact sur la performance).
2. Intégration et industrialisation
– Définir des blueprints d’intégration pour l’implémentation des garde-fous dans les pipelines d’IA et environnements MLOps.
– Travailler à l’intégration de ces solutions dans les workflows LLM, RAG (Retrieval-Augmented Generation) et agentiques.
– Collaborer avec les équipes IA et sécurité pour assurer la cohérence technique, la scalabilité et la conformité réglementaire.
– Participer à la conception de workflows sécurisés pour les environnements cloud (Azure, AWS, GCP) et hybrides.
3. Conception de scénarios d’attaque et d’évaluation
– Élaborer des batteries de tests adversariaux simulant des menaces réelles.
– Documenter les résultats et proposer des mécanismes de mitigation.
– Contribuer à la définition d’indicateurs de sécurité mesurables pour le suivi de la performance des garde-fous.
4. Partage de connaissances et contribution stratégique
– Conduire des ateliers internes et former les équipes aux meilleures pratiques de sécurité IA.
– Rédiger des whitepapers techniques sur la sécurité des systèmes IA et les approches de défense proactive.
– Participer à la diffusion des bonnes pratiques au sein de la communauté interne IA et sécurité.
Livrables attendus
– Framework de test des garde-fous IA – outils et scripts pour évaluer la performance et la robustesse des solutions.
– Rapports d’évaluation détaillés – comparatifs techniques entre outils (open source / commerciaux).
– Blueprints d’intégration – recommandations d’architecture pour l’intégration dans les pipelines LLM, RAG et agents.
– Livrables de knowledge sharing – supports d’ateliers, documentation technique et contribution à la base de connaissances IA Sécurité.
Expertise souhaitée
Expertise technique
– Excellente compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents.
– Solide expérience en IA générative et sécurité des modèles : guardrails, content filtering, prompt validation, data leakage prevention.
-Maîtrise des outils et langages : Python, Docker, CI/CD, APIs cloud AI (Azure, AWS, GCP).
– Connaissance approfondie des environnements MLOps et des pipelines de déploiement IA sécurisés.
– Expérience en vulnerability testing, tests adversariaux et robustesse des modèles.
– Bonne connaissance des principes de Responsible AI, des cadres de gouvernance et du AI Act européen.
– Expérience avec les workflows Asiantech AI ou similaires (design d’architectures agentiques et intégration cloud).
Compétences transverses
– Solides capacités de communication et de rédaction technique (en anglais et français).
– Capacité à interagir avec des équipes multiculturelles et à vulgariser des concepts techniques complexes.
– Sens de la rigueur scientifique, esprit d’analyse et orientation résultats.
– Capacité à travailler dans des environnements complexes et soumis à des contraintes réglementaires.
Profil recherché
– Senior Engineer / Expert IA Sécurité ayant déjà conduit des projets de test et d’intégration de garde-fous IA.
– Expérience confirmée dans l’évaluation de systèmes GenAI, la simulation d’attaques et l’analyse de performance de modèles.
– Aisance à la fois sur les aspects techniques (codage, MLOps, cloud) et gouvernance (risques, conformité, sécurité).
– Expérience dans le secteur de l’assurance ou autre domaine à forte contrainte réglementaire appréciée.
* Champs obligatoires
Compétences
Technologies et Outils
Docker AWS genai Azure CI/CD genai Python GCP
Soft skills
Rigueur
Langues
Français Anglais
Bénin Digital est une Entreprise de Services du Numérique (ESN) spécialisée dans la digitalisation des processus métiers et accompagne les clients issus des secteurs de l’industrie, de la Banque & assurance, de l’industrie, de la Grande distribution & e-commerce et des Médias & communication. Nous interagissons avec nos clients et consultants autour de compétences « tech » pour l’essentiel et les accompagnons aussi avec des talents Data, Produit, Design et Marketing Digital. Bénin Digital accompagne ses clienats dans la chaine de valeur de leurs activités en leur mettant à disposition son expertise à travers des consultants hautement qualifiés pour des projets et des missions diversifiées en Afrique et en Europe