Centre de Formation Judiciaire — Sénégal
IA & Preuve Numérique
Centre de Formation Judiciaire du Sénégal — 14 avril 2026

Intelligence artificielle
et pratique judiciaire :
la preuve numérique

Repères méthodologiques pour le magistrat à l'ère de l'IA générative
Formateur — Gora Ngom | BRIO Academy
Contact — gora.ngom@brio-academy.com
45 min d'intervention 3 cas pratiques Grille interactive Jurisprudence commentée
⬇ Télécharger la présentation (.pptx)
Ce portail

Votre ressource de référence

Ce document interactif accompagne l'intervention au CFJ du 14 avril 2026. Il compile l'intégralité des supports, outils et références pour une utilisation autonome par les magistrats.

Module 1

Présentation complète

Les 27 slides de l'intervention, avec résumés et repères pédagogiques. Navigation slide par slide.

Module 2

Grille de prudence interactive

Évaluez une preuve numérique en 6 critères. L'outil génère une appréciation structurée adaptée à votre dossier.

Module 3

Glossaire forensique

12 termes techniques expliqués avec définitions, analogies juridiques et valeur probatoire. Filtrable par catégorie.

Module 4

Jurisprudence commentée

Les deux affaires fondatrices : US v. Lizarraga-Tirado (2015) et State v. Puloka (2024). Commentaires et leçons pour le juge sénégalais.

Module 5

Cas pratiques interactifs

3 cas — WhatsApp, enregistrement audio, vidéo IA — avec questions guidées et corrections détaillées. Révélation progressive.

Problématique centrale

« À l'ère de l'IA générative, à quelles conditions le juge peut-il encore se fier à ce qu'il voit, entend et lit ? »

Le propos n'est pas de méfiance systématique — c'est l'exigence d'une méthode plus rigoureuse.

Module 1

Présentation — 27 slides

Naviguez entre les slides de l'intervention.

⬇ Télécharger la présentation (.pptx)
1 / 27
Module 2

Grille de prudence judiciaire

Cet outil vous aide à structurer votre raisonnement face à une preuve numérique. Répondez aux six questions, puis obtenez une appréciation.

La grille ci-dessous est inspirée du droit sénégalais de la preuve et des exigences procédurales. Elle n'est pas un texte de loi, mais un repère méthodologique. Le cinquième critère — l'intelligibilité — est celui que l'ère de l'intelligence artificielle impose d'ajouter. Il est directement issu de l'affaire State of Washington v. Puloka (2024).

Appréciation de la preuve numérique

Module 3

Glossaire forensique

Terminologie technique expliquée pour les juristes. Cliquez sur chaque terme pour en voir la définition, l'analogie juridique et la valeur probatoire.

Module 4

Jurisprudence commentée

Deux affaires fondatrices de la jurisprudence internationale sur la preuve générée par IA. Commentaires adaptés au contexte du juge sénégalais.

Note de méthode — Ces décisions sont américaines. Elles ne s'imposent pas au juge sénégalais, mais offrent des repères intellectuels utiles sur la question de la validité des preuves générées par IA. Source : Carbonell et al., 2026.
Module 5

Cas pratiques interactifs

Trois scénarios issus de la formation. Lisez les faits, réfléchissez aux questions, puis révélez les réponses. La correction complète apparaît en bas de chaque cas.

Mentions légales

Politique de confidentialité

Dernière mise à jour : avril 2026

1. Éditeur du site

Ce portail est édité par BRIO Academy, représentée par Gora Ngom. Contact : gora.ngom@brio-academy.com.

2. Finalité du site

Ce portail est un support pédagogique conçu exclusivement pour accompagner la formation dispensée au Centre de Formation Judiciaire (CFJ) du Sénégal le 14 avril 2026. Il est destiné aux magistrats, auditeurs de justice et formateurs judiciaires participant à cette session.

3. Données collectées

Ce site ne collecte aucune donnée personnelle. En particulier :

  • Aucun formulaire de saisie de données personnelles n'est présent.
  • Aucun cookie de traçage ou de mesure d'audience n'est utilisé.
  • Aucune donnée n'est transmise à un serveur tiers.
  • Les interactions avec la grille de prudence et les cas pratiques sont traitées localement dans votre navigateur et ne sont pas conservées.

4. Cookies

Ce site n'utilise aucun cookie, qu'il soit technique, analytique ou publicitaire.

5. Hébergement

Ce portail est un fichier HTML statique. Il ne dispose d'aucune base de données ni d'aucun traitement côté serveur. Les fichiers sont servis tel quels depuis la plateforme d'hébergement sans journalisation des utilisateurs par BRIO Academy.

6. Propriété intellectuelle

L'ensemble du contenu de ce portail — textes, structures, grilles d'analyse, cas pratiques, commentaires jurisprudentiels — est la propriété exclusive de BRIO Academy. Toute reproduction, même partielle, sans autorisation écrite préalable est interdite. Les références doctrinales et jurisprudentielles citées restent la propriété de leurs auteurs respectifs.

7. Limitation de responsabilité

Le contenu de ce portail est fourni à titre pédagogique. Il ne constitue pas un avis juridique et ne saurait se substituer à une consultation professionnelle. BRIO Academy ne saurait être tenu responsable de décisions prises sur la seule base des informations présentées ici.

8. Contact

Pour toute question relative à ce portail ou à son contenu : gora.ngom@brio-academy.com.

© 2026 BRIO Academy. Tous droits réservés.
Bench Card — NCSC / Thomson Reuters, avril 2025

Évaluer une preuve dont l'origine IA est suspectée

Questions à poser lorsqu'une partie soutient que la preuve produite par l'adversaire a pu être générée, altérée ou manipulée par IA, sans que cela soit reconnu.

Note comparative — Fiche publiée par le National Center for State Courts (NCSC) et le Thomson Reuters Institute (avril 2025). Destinée aux juridictions américaines, elle offre des repères méthodologiques utiles à tout praticien. Elle ne constitue pas du droit sénégalais positif.
Contexte d'usage — Si les preuves falsifiées ne sont pas un problème nouveau pour les tribunaux, l'accessibilité croissante de l'IA a rendu plus facile la création de fausses preuves numériques d'apparence convaincante. Cette fiche aide le juge à poser les bonnes questions lorsque l'authenticité d'une preuve numérique est contestée au motif d'une possible manipulation par IA.
Double risque à éviter : (1) admettre à tort une preuve inauthentique ; (2) exclure à tort une preuve authentique. La vigilance doit protéger contre les deux erreurs.
Questions à poser à la partie qui produit la preuve

1. Source et acquisition

Quelle est la source de cette preuve, et comment, quand et où a-t-elle été obtenue ?
Q1

Orientation

Établir un registre clair de l'origine de la preuve. Traiter avec une vigilance accrue si elle semble « trop belle pour être vraie », si la source est douteuse (plateforme anonyme) et si l'original n'est pas disponible. Si la preuve n'est pas dans sa forme d'origine (impression, PDF converti), explorer comment et pourquoi elle a été convertie.

2. Accès à la preuve

Qui a eu accès à cette preuve depuis sa création ou sa capture jusqu'à aujourd'hui ?
Q2

Orientation

Conserver une preuve d'une façon permettant à plusieurs personnes d'y accéder augmente le risque de falsification ou de fabrication. Si la chaîne de conservation ne peut être justifiée, envisager une vigilance accrue ou une analyse d'expert, si disponible, pour garantir l'intégrité.

3. Préservation

Quelles mesures ont été prises pour préserver les données d'origine et prévenir toute altération ?
Q3

Orientation

Les données doivent être préservées dans leur format d'origine (natif) autant que possible. Si les méthodes de préservation sont insuffisantes, envisager de désigner un expert neutre pour examiner le support numérique. Selon les circonstances, il peut être nécessaire de demander à la partie de soumettre le dispositif (ex. téléphone mobile) contenant les preuves numériques pour une analyse d'authentification appropriée.

4. Chaîne de conservation

Qui a eu la garde de cette preuve depuis sa création ou sa capture jusqu'à aujourd'hui, y compris tout partage ou transfert ?
Q4

Orientation

Il doit s'agir d'un registre chronologique, idéalement avec dates, heures, lieux et personnes responsables. En cas de lacunes dans la chaîne de conservation, envisager d'exiger la communication de pièces ou des éléments de corroboration.

5. Altérations

La preuve a-t-elle été altérée, éditée, convertie dans un autre format ou traitée d'une quelconque façon depuis sa création ?
Q5

Orientation

Même de petites modifications peuvent affecter l'authenticité. Exiger la divulgation de toutes les altérations, y compris le logiciel ou le processus utilisé, et si des versions antérieures sont encore disponibles. Si des altérations sont inexpliquées ou suspectes, solliciter une analyse d'expert ou envisager l'exclusion de la preuve.

6. Corroboration

Existe-t-il d'autres données ou sources pouvant confirmer l'authenticité de cette preuve ?
Q6

Orientation

Encourager la soumission de preuves corroborantes, notamment de sources indépendantes. Si la preuve est un fil de messages, demander à la partie adverse de fournir son fil correspondant aux fins de comparaison. En l'absence de corroboration, envisager une validation externe. Y a-t-il une incohérence entre la preuve numérique représentant un individu et les caractéristiques réelles de cet individu (traits du visage, voix) ?

Questions supplémentaires (pouvant nécessiter l'assistance d'un expert)

7. Vérification forensique

Des outils ou méthodes forensiques ont-ils été utilisés pour vérifier l'intégrité de la preuve ?
Expert

Orientation

Envisager la nécessité d'une analyse forensique experte, surtout si la preuve est techniquement complexe ou s'il existe des préoccupations quant à une possible manipulation. Si aucune analyse forensique n'a été conduite, envisager d'ordonner un examen par un expert neutre qualifié, si disponible.

8. Métadonnées

Pouvez-vous fournir des métadonnées ou d'autres informations techniques corroborant l'authenticité de ce fichier numérique ?
Expert

Orientation

Les métadonnées peuvent offrir des indices précieux sur la date de création, l'heure et le logiciel utilisé pour créer ou modifier la preuve. Des incohérences inexpliquées constituent des signaux d'alerte (ex. métadonnées indiquant une création par un autre détenteur, ou dates incohérentes). Si les métadonnées ne sont pas fournies ou semblent incohérentes, demander une explication détaillée. Attention : les juges doivent être prudents avant de tirer eux-mêmes des conclusions des métadonnées sans formation spécialisée.

9. Témoignage d'expert

Un expert qualifié peut-il expliquer les processus utilisés pour traiter et vérifier cette preuve numérique ?
Expert

Orientation

Le témoignage d'expert peut être essentiel pour que le tribunal comprenne les aspects techniques de la preuve et évalue sa fiabilité. Si les parties ne désignent pas d'expert, et que la preuve est complexe ou cruciale, envisager de désigner un expert neutre approuvé par le tribunal, si disponible.

Actions judiciaires recommandées

Tenir compte des capacités techniques des parties, notamment en cas de parties non représentées.

Demander des informations complémentaires si les réponses sont incomplètes ou soulèvent des préoccupations.

Émettre des ordonnances de préservation pour empêcher toute altération ou suppression ultérieure.

Désigner un expert neutre pour les preuves complexes ou cruciales.

Peser l'authenticité avec prudence face au double risque : admettre une preuve inauthentique ou exclure une preuve authentique.

Déterminer la recevabilité en tenant compte de la valeur probante par rapport à l'impact préjudiciable.

Documenter le raisonnement en indiquant clairement les motifs d'admission ou d'exclusion.

Se tenir informé des évolutions de l'IA générative et de son impact sur les preuves numériques.

Bench Card — NCSC / Thomson Reuters, avril 2025

Évaluer une preuve générée par IA de façon reconnue

Questions à poser lorsque la partie qui produit la preuve reconnaît l'usage de l'IA : amélioration d'image, simulation, animation, synthèse ou support démonstratif.

Note comparative — Fiche publiée par le National Center for State Courts (NCSC) et le Thomson Reuters Institute (avril 2025). Destinée aux juridictions américaines, elle offre des repères méthodologiques utiles à tout praticien. Elle ne constitue pas du droit sénégalais positif.
Contexte d'usage — Lorsque l'usage de l'IA est admis, la difficulté n'est pas l'authenticité mais la fiabilité du procédé, la représentativité fidèle et le risque d'influence excessive sur le juge ou le jury. La preuve générée par IA peut aller du document texte à l'animation 3D, en passant par la vidéo améliorée ou la simulation d'accident.
Principe fondamental — Tout exhibit généré par IA, qu'il soit démonstratif ou constitutif de preuve, doit être clairement étiqueté comme tel pour le juge des faits à tout moment.
Usages typiques que peut rencontrer le tribunal
Visualisation de scénarios complexes
Reconstructions d'accidents, plans de scène de crime, procédures médicales en 3D ou en réalité virtuelle.
Analyse et visualisation de données
Identification de tendances dans des jeux de données volumineux, présentées en tableaux ou graphiques.
Amélioration de preuves numériques
Précision de pixels, suppression de flou, clarification d'images ou d'audio — dont la fiabilité du procédé doit être établie.
Outils d'identification par IA
Reconnaissance biométrique (voix, visage, iris). Fiabilité et biais éventuels doivent être vérifiés.
Questions à poser à la partie qui produit la preuve

1. Nature de l'objet

Qu'est-ce qui est soumis ? S'agit-il d'une preuve de fond ou d'un support démonstratif ?
Q1

Orientation

L'IA peut servir à créer une animation prétendant montrer comment un accident s'est produit, ou une analyse de données résumant des informations financières complexes. La preuve démonstrative est une aide visuelle ou sonore qui aide à expliquer un témoignage — elle n'est pas soumise au jury comme preuve à part entière. La qualification de l'objet conditionne le niveau de contrôle applicable.

2. Création et données d'entrée

Quelles données, instructions (prompt) ou paramètres ont été fournis à l'outil IA ? Des données ont-elles été exclues, et par qui ?
Q2

Orientation

La preuve générée par IA doit être démontrablement valide, fiable, non biaisée et non manipulée de façon inappropriée. La qualité des résultats générés dépend fortement de la qualité des données en entrée. Des témoins ayant une connaissance directe des informations sous-jacentes doivent être disponibles pour témoigner.

Si l'exhibit est présenté devant un jury, envisager une instruction limitée adaptée indiquant la nature et le processus de création de l'exhibit, et précisant que le jury reste libre d'en apprécier la crédibilité comme pour toute autre preuve.

3. Vérification et corroboration

L'exhibit est-il une représentation fidèle et exacte de la preuve sous-jacente ? Le processus est-il réplicable ? Y a-t-il eu un contrôle humain ?
Q3

Orientation

Des experts ou témoins peuvent-ils examiner l'objet pour s'assurer qu'il constitue une représentation fidèle et exacte de la preuve sous-jacente ? Quels sont les marqueurs de validité et de fiabilité de cet élément ? L'IA peut générer des visuels (animations, modèles 3D, simulations) aidant les jurés à mieux comprendre une situation — mais les préoccupations relatives à l'authenticité, à l'impact cognitif et au risque de deepfake doivent être soigneusement pesées.

4. Risque de deepfake

Une partie a-t-elle soulevé une préoccupation relative à un deepfake ?
Q4

Orientation

Le fait qu'une partie reconnaisse l'usage de l'IA n'exclut pas le risque de deepfake. Le tribunal doit examiner sérieusement les objections soulevées par une partie. Dans ce cas, se référer à la fiche sur les preuves IA non reconnues, tout en distinguant les simples désaccords sur des reconstructions d'experts (qui ne constituent pas nécessairement des deepfakes) des contestations sérieuses d'authenticité.

5. Impact excessif sur le juge des faits

La représentation numérique pourrait-elle influencer indûment la perception ou la mémoire du juge des faits ?
Q5

Orientation

Un jury peut trouver une preuve créée par IA plus crédible que d'autres formes de preuve en raison de la richesse du média. Quelle est la relation entre l'exhibit soumis et l'expérience du juge des faits ? L'impact préjudiciable potentiel de la preuve générée par IA soulève-t-il des préoccupations au regard du rapport valeur probante / préjudice (équivalent de la règle 403 des Federal Rules of Evidence) ?

6. Théorie du « témoin silencieux »

L'exhibit se rattache-t-il à la théorie du témoin silencieux ? La preuve a-t-elle été altérée, et si l'IA a été utilisée, comment l'a-t-elle été ?
Q6

Orientation

La théorie du « témoin silencieux » désigne l'idée qu'une preuve photographique ou vidéo peut être admise comme preuve fiable de ce qu'elle représente, sans témoin pour en vérifier l'exactitude, à condition que le processus qui l'a créée soit prouvé fiable — la preuve « parle d'elle-même ». Si l'IA a été utilisée pour améliorer la preuve, une seconde étape d'évaluation de la fiabilité du processus IA est nécessaire avant l'admission.

7. Expert qualifié

Un expert qualifié peut-il expliquer les processus utilisés pour traiter et vérifier cette preuve générée par IA ?
Expert

Orientation

Dans les cas complexes, envisager de désigner un expert indépendant pour examiner la preuve et fournir une évaluation impartiale. Le témoignage d'expert peut être essentiel pour que le tribunal comprenne les aspects techniques et évalue la fiabilité du procédé utilisé.

Actions judiciaires recommandées

Peser la valeur probante par rapport au risque de préjudice injuste : équilibre entre utilité et influence excessive.

Tenir compte des capacités techniques des parties, notamment en l'absence de représentation ou d'expertise.

Demander des informations complémentaires si les réponses sont incomplètes ou soulèvent des préoccupations.

Émettre des ordonnances de préservation de la preuve dans son état actuel et, le cas échéant, d'origine.

Désigner un expert neutre dans les cas complexes pour une évaluation impartiale.

Aborder le contenu généré par IA avec un scepticisme accru, en tenant compte de son potentiel de manipulation et du poids que les jurés pourraient lui accorder.

Déterminer la recevabilité au regard des règles de preuve applicables et des avis d'experts le cas échéant.

Documenter le raisonnement en indiquant clairement les motifs d'admission ou d'exclusion.

Se tenir informé des évolutions de l'IA et de leur impact potentiel sur les preuves numériques.