Intelligence artificielle
et pratique judiciaire :
la preuve numérique
Votre ressource de référence
Ce document interactif accompagne l'intervention au CFJ du 14 avril 2026. Il compile l'intégralité des supports, outils et références pour une utilisation autonome par les magistrats.
Présentation complète
Les 27 slides de l'intervention, avec résumés et repères pédagogiques. Navigation slide par slide.
Grille de prudence interactive
Évaluez une preuve numérique en 6 critères. L'outil génère une appréciation structurée adaptée à votre dossier.
Glossaire forensique
12 termes techniques expliqués avec définitions, analogies juridiques et valeur probatoire. Filtrable par catégorie.
Jurisprudence commentée
Les deux affaires fondatrices : US v. Lizarraga-Tirado (2015) et State v. Puloka (2024). Commentaires et leçons pour le juge sénégalais.
Cas pratiques interactifs
3 cas — WhatsApp, enregistrement audio, vidéo IA — avec questions guidées et corrections détaillées. Révélation progressive.
« À l'ère de l'IA générative, à quelles conditions le juge peut-il encore se fier à ce qu'il voit, entend et lit ? »
Le propos n'est pas de méfiance systématique — c'est l'exigence d'une méthode plus rigoureuse.
Présentation — 27 slides
Naviguez entre les slides de l'intervention.
Grille de prudence judiciaire
Cet outil vous aide à structurer votre raisonnement face à une preuve numérique. Répondez aux six questions, puis obtenez une appréciation.
La grille ci-dessous est inspirée du droit sénégalais de la preuve et des exigences procédurales. Elle n'est pas un texte de loi, mais un repère méthodologique. Le cinquième critère — l'intelligibilité — est celui que l'ère de l'intelligence artificielle impose d'ajouter. Il est directement issu de l'affaire State of Washington v. Puloka (2024).
Appréciation de la preuve numérique
Glossaire forensique
Terminologie technique expliquée pour les juristes. Cliquez sur chaque terme pour en voir la définition, l'analogie juridique et la valeur probatoire.
Jurisprudence commentée
Deux affaires fondatrices de la jurisprudence internationale sur la preuve générée par IA. Commentaires adaptés au contexte du juge sénégalais.
Cas pratiques interactifs
Trois scénarios issus de la formation. Lisez les faits, réfléchissez aux questions, puis révélez les réponses. La correction complète apparaît en bas de chaque cas.
Politique de confidentialité
Dernière mise à jour : avril 2026
1. Éditeur du site
Ce portail est édité par BRIO Academy, représentée par Gora Ngom. Contact : gora.ngom@brio-academy.com.
2. Finalité du site
Ce portail est un support pédagogique conçu exclusivement pour accompagner la formation dispensée au Centre de Formation Judiciaire (CFJ) du Sénégal le 14 avril 2026. Il est destiné aux magistrats, auditeurs de justice et formateurs judiciaires participant à cette session.
3. Données collectées
Ce site ne collecte aucune donnée personnelle. En particulier :
- Aucun formulaire de saisie de données personnelles n'est présent.
- Aucun cookie de traçage ou de mesure d'audience n'est utilisé.
- Aucune donnée n'est transmise à un serveur tiers.
- Les interactions avec la grille de prudence et les cas pratiques sont traitées localement dans votre navigateur et ne sont pas conservées.
4. Cookies
Ce site n'utilise aucun cookie, qu'il soit technique, analytique ou publicitaire.
5. Hébergement
Ce portail est un fichier HTML statique. Il ne dispose d'aucune base de données ni d'aucun traitement côté serveur. Les fichiers sont servis tel quels depuis la plateforme d'hébergement sans journalisation des utilisateurs par BRIO Academy.
6. Propriété intellectuelle
L'ensemble du contenu de ce portail — textes, structures, grilles d'analyse, cas pratiques, commentaires jurisprudentiels — est la propriété exclusive de BRIO Academy. Toute reproduction, même partielle, sans autorisation écrite préalable est interdite. Les références doctrinales et jurisprudentielles citées restent la propriété de leurs auteurs respectifs.
7. Limitation de responsabilité
Le contenu de ce portail est fourni à titre pédagogique. Il ne constitue pas un avis juridique et ne saurait se substituer à une consultation professionnelle. BRIO Academy ne saurait être tenu responsable de décisions prises sur la seule base des informations présentées ici.
8. Contact
Pour toute question relative à ce portail ou à son contenu : gora.ngom@brio-academy.com.
Évaluer une preuve dont l'origine IA est suspectée
Questions à poser lorsqu'une partie soutient que la preuve produite par l'adversaire a pu être générée, altérée ou manipulée par IA, sans que cela soit reconnu.
1. Source et acquisition
Orientation
Établir un registre clair de l'origine de la preuve. Traiter avec une vigilance accrue si elle semble « trop belle pour être vraie », si la source est douteuse (plateforme anonyme) et si l'original n'est pas disponible. Si la preuve n'est pas dans sa forme d'origine (impression, PDF converti), explorer comment et pourquoi elle a été convertie.
2. Accès à la preuve
Orientation
Conserver une preuve d'une façon permettant à plusieurs personnes d'y accéder augmente le risque de falsification ou de fabrication. Si la chaîne de conservation ne peut être justifiée, envisager une vigilance accrue ou une analyse d'expert, si disponible, pour garantir l'intégrité.
3. Préservation
Orientation
Les données doivent être préservées dans leur format d'origine (natif) autant que possible. Si les méthodes de préservation sont insuffisantes, envisager de désigner un expert neutre pour examiner le support numérique. Selon les circonstances, il peut être nécessaire de demander à la partie de soumettre le dispositif (ex. téléphone mobile) contenant les preuves numériques pour une analyse d'authentification appropriée.
4. Chaîne de conservation
Orientation
Il doit s'agir d'un registre chronologique, idéalement avec dates, heures, lieux et personnes responsables. En cas de lacunes dans la chaîne de conservation, envisager d'exiger la communication de pièces ou des éléments de corroboration.
5. Altérations
Orientation
Même de petites modifications peuvent affecter l'authenticité. Exiger la divulgation de toutes les altérations, y compris le logiciel ou le processus utilisé, et si des versions antérieures sont encore disponibles. Si des altérations sont inexpliquées ou suspectes, solliciter une analyse d'expert ou envisager l'exclusion de la preuve.
6. Corroboration
Orientation
Encourager la soumission de preuves corroborantes, notamment de sources indépendantes. Si la preuve est un fil de messages, demander à la partie adverse de fournir son fil correspondant aux fins de comparaison. En l'absence de corroboration, envisager une validation externe. Y a-t-il une incohérence entre la preuve numérique représentant un individu et les caractéristiques réelles de cet individu (traits du visage, voix) ?
7. Vérification forensique
Orientation
Envisager la nécessité d'une analyse forensique experte, surtout si la preuve est techniquement complexe ou s'il existe des préoccupations quant à une possible manipulation. Si aucune analyse forensique n'a été conduite, envisager d'ordonner un examen par un expert neutre qualifié, si disponible.
8. Métadonnées
Orientation
Les métadonnées peuvent offrir des indices précieux sur la date de création, l'heure et le logiciel utilisé pour créer ou modifier la preuve. Des incohérences inexpliquées constituent des signaux d'alerte (ex. métadonnées indiquant une création par un autre détenteur, ou dates incohérentes). Si les métadonnées ne sont pas fournies ou semblent incohérentes, demander une explication détaillée. Attention : les juges doivent être prudents avant de tirer eux-mêmes des conclusions des métadonnées sans formation spécialisée.
9. Témoignage d'expert
Orientation
Le témoignage d'expert peut être essentiel pour que le tribunal comprenne les aspects techniques de la preuve et évalue sa fiabilité. Si les parties ne désignent pas d'expert, et que la preuve est complexe ou cruciale, envisager de désigner un expert neutre approuvé par le tribunal, si disponible.
• Tenir compte des capacités techniques des parties, notamment en cas de parties non représentées.
• Demander des informations complémentaires si les réponses sont incomplètes ou soulèvent des préoccupations.
• Émettre des ordonnances de préservation pour empêcher toute altération ou suppression ultérieure.
• Désigner un expert neutre pour les preuves complexes ou cruciales.
• Peser l'authenticité avec prudence face au double risque : admettre une preuve inauthentique ou exclure une preuve authentique.
• Déterminer la recevabilité en tenant compte de la valeur probante par rapport à l'impact préjudiciable.
• Documenter le raisonnement en indiquant clairement les motifs d'admission ou d'exclusion.
• Se tenir informé des évolutions de l'IA générative et de son impact sur les preuves numériques.
Évaluer une preuve générée par IA de façon reconnue
Questions à poser lorsque la partie qui produit la preuve reconnaît l'usage de l'IA : amélioration d'image, simulation, animation, synthèse ou support démonstratif.
Reconstructions d'accidents, plans de scène de crime, procédures médicales en 3D ou en réalité virtuelle.
Identification de tendances dans des jeux de données volumineux, présentées en tableaux ou graphiques.
Précision de pixels, suppression de flou, clarification d'images ou d'audio — dont la fiabilité du procédé doit être établie.
Reconnaissance biométrique (voix, visage, iris). Fiabilité et biais éventuels doivent être vérifiés.
1. Nature de l'objet
Orientation
L'IA peut servir à créer une animation prétendant montrer comment un accident s'est produit, ou une analyse de données résumant des informations financières complexes. La preuve démonstrative est une aide visuelle ou sonore qui aide à expliquer un témoignage — elle n'est pas soumise au jury comme preuve à part entière. La qualification de l'objet conditionne le niveau de contrôle applicable.
2. Création et données d'entrée
Orientation
La preuve générée par IA doit être démontrablement valide, fiable, non biaisée et non manipulée de façon inappropriée. La qualité des résultats générés dépend fortement de la qualité des données en entrée. Des témoins ayant une connaissance directe des informations sous-jacentes doivent être disponibles pour témoigner.
Si l'exhibit est présenté devant un jury, envisager une instruction limitée adaptée indiquant la nature et le processus de création de l'exhibit, et précisant que le jury reste libre d'en apprécier la crédibilité comme pour toute autre preuve.
3. Vérification et corroboration
Orientation
Des experts ou témoins peuvent-ils examiner l'objet pour s'assurer qu'il constitue une représentation fidèle et exacte de la preuve sous-jacente ? Quels sont les marqueurs de validité et de fiabilité de cet élément ? L'IA peut générer des visuels (animations, modèles 3D, simulations) aidant les jurés à mieux comprendre une situation — mais les préoccupations relatives à l'authenticité, à l'impact cognitif et au risque de deepfake doivent être soigneusement pesées.
4. Risque de deepfake
Orientation
Le fait qu'une partie reconnaisse l'usage de l'IA n'exclut pas le risque de deepfake. Le tribunal doit examiner sérieusement les objections soulevées par une partie. Dans ce cas, se référer à la fiche sur les preuves IA non reconnues, tout en distinguant les simples désaccords sur des reconstructions d'experts (qui ne constituent pas nécessairement des deepfakes) des contestations sérieuses d'authenticité.
5. Impact excessif sur le juge des faits
Orientation
Un jury peut trouver une preuve créée par IA plus crédible que d'autres formes de preuve en raison de la richesse du média. Quelle est la relation entre l'exhibit soumis et l'expérience du juge des faits ? L'impact préjudiciable potentiel de la preuve générée par IA soulève-t-il des préoccupations au regard du rapport valeur probante / préjudice (équivalent de la règle 403 des Federal Rules of Evidence) ?
6. Théorie du « témoin silencieux »
Orientation
La théorie du « témoin silencieux » désigne l'idée qu'une preuve photographique ou vidéo peut être admise comme preuve fiable de ce qu'elle représente, sans témoin pour en vérifier l'exactitude, à condition que le processus qui l'a créée soit prouvé fiable — la preuve « parle d'elle-même ». Si l'IA a été utilisée pour améliorer la preuve, une seconde étape d'évaluation de la fiabilité du processus IA est nécessaire avant l'admission.
7. Expert qualifié
Orientation
Dans les cas complexes, envisager de désigner un expert indépendant pour examiner la preuve et fournir une évaluation impartiale. Le témoignage d'expert peut être essentiel pour que le tribunal comprenne les aspects techniques et évalue la fiabilité du procédé utilisé.
• Peser la valeur probante par rapport au risque de préjudice injuste : équilibre entre utilité et influence excessive.
• Tenir compte des capacités techniques des parties, notamment en l'absence de représentation ou d'expertise.
• Demander des informations complémentaires si les réponses sont incomplètes ou soulèvent des préoccupations.
• Émettre des ordonnances de préservation de la preuve dans son état actuel et, le cas échéant, d'origine.
• Désigner un expert neutre dans les cas complexes pour une évaluation impartiale.
• Aborder le contenu généré par IA avec un scepticisme accru, en tenant compte de son potentiel de manipulation et du poids que les jurés pourraient lui accorder.
• Déterminer la recevabilité au regard des règles de preuve applicables et des avis d'experts le cas échéant.
• Documenter le raisonnement en indiquant clairement les motifs d'admission ou d'exclusion.
• Se tenir informé des évolutions de l'IA et de leur impact potentiel sur les preuves numériques.