Intelligence artificielle
et pratique judiciaire :
la preuve numérique
Votre ressource de référence
Ce document interactif accompagne l'intervention au CFJ du 14 avril 2026. Il compile l'intégralité des supports, outils et références pour une utilisation autonome par les magistrats.
Présentation complète
Les 32 slides de l'intervention, avec résumés et repères pédagogiques. Navigation slide par slide.
Grille de prudence interactive
Évaluez une preuve numérique en 6 critères. L'outil génère une appréciation structurée adaptée à votre dossier.
Glossaire forensique
12 termes techniques expliqués avec définitions, analogies juridiques et valeur probatoire. Filtrable par catégorie.
Jurisprudence commentée
Les deux affaires fondatrices : US v. Lizarraga-Tirado (2015) et State v. Puloka (2024). Commentaires et leçons pour le juge sénégalais.
Cas pratiques interactifs
3 cas — WhatsApp, enregistrement audio, vidéo IA — avec questions guidées et corrections détaillées. Révélation progressive.
« À l'ère de l'IA générative, à quelles conditions le juge peut-il encore se fier à ce qu'il voit, entend et lit ? »
Le propos n'est pas de méfiance systématique — c'est l'exigence d'une méthode plus rigoureuse.
Présentation — 32 slides
Naviguez entre les slides de l'intervention.
Grille de prudence judiciaire
Cet outil vous aide à structurer votre raisonnement face à une preuve numérique. Répondez aux six questions, puis obtenez une appréciation.
La grille ci-dessous est inspirée du droit sénégalais de la preuve et des exigences procédurales. Elle n'est pas un texte de loi, mais un repère méthodologique. Le cinquième critère — l'intelligibilité — est celui que l'ère de l'intelligence artificielle impose d'ajouter. Il est directement issu de l'affaire State of Washington v. Puloka (2024).
Appréciation de la preuve numérique
Glossaire forensique
Terminologie technique expliquée pour les juristes. Cliquez sur chaque terme pour en voir la définition, l'analogie juridique et la valeur probatoire.
Jurisprudence commentée
Deux affaires fondatrices de la jurisprudence internationale sur la preuve générée par IA. Commentaires adaptés au contexte du juge sénégalais.
Cas pratiques interactifs
Trois scénarios issus de la formation. Lisez les faits, réfléchissez aux questions, puis révélez les réponses. La correction complète apparaît en bas de chaque cas.
Politique de confidentialité
Dernière mise à jour : avril 2026
1. Éditeur du site
Ce portail est édité par BRIO Academy, représentée par Gora Ngom. Contact : gora.ngom@brio-academy.com.
2. Finalité du site
Ce portail est un support pédagogique conçu exclusivement pour accompagner la formation dispensée au Centre de Formation Judiciaire (CFJ) du Sénégal le 14 avril 2026. Il est destiné aux magistrats, auditeurs de justice et formateurs judiciaires participant à cette session.
3. Données collectées
Ce site ne collecte aucune donnée personnelle. En particulier :
- Aucun formulaire de saisie de données personnelles n'est présent.
- Aucun cookie de traçage ou de mesure d'audience n'est utilisé.
- Aucune donnée n'est transmise à un serveur tiers.
- Les interactions avec la grille de prudence et les cas pratiques sont traitées localement dans votre navigateur et ne sont pas conservées.
4. Cookies
Ce site n'utilise aucun cookie, qu'il soit technique, analytique ou publicitaire.
5. Hébergement
Ce portail est un fichier HTML statique. Il ne dispose d'aucune base de données ni d'aucun traitement côté serveur. Les fichiers sont servis tel quels depuis la plateforme d'hébergement sans journalisation des utilisateurs par BRIO Academy.
6. Propriété intellectuelle
L'ensemble du contenu de ce portail — textes, structures, grilles d'analyse, cas pratiques, commentaires jurisprudentiels — est la propriété exclusive de BRIO Academy. Toute reproduction, même partielle, sans autorisation écrite préalable est interdite. Les références doctrinales et jurisprudentielles citées restent la propriété de leurs auteurs respectifs.
7. Limitation de responsabilité
Le contenu de ce portail est fourni à titre pédagogique. Il ne constitue pas un avis juridique et ne saurait se substituer à une consultation professionnelle. BRIO Academy ne saurait être tenu responsable de décisions prises sur la seule base des informations présentées ici.
8. Contact
Pour toute question relative à ce portail ou à son contenu : gora.ngom@brio-academy.com.
Évaluation des preuves générées par IA
Deux situations distinctes : lorsque l'origine IA est suspectée (preuve non déclarée) ou reconnue (preuve déclarée). Questions structurées à poser dans chaque cas.
Évaluer une preuve dont l'origine IA est suspectée
Questions à poser lorsqu'une partie soutient que la preuve produite par l'adversaire a pu être générée, altérée ou manipulée par IA, sans que cela soit reconnu.
1. Source et acquisition
Orientation
Établir un registre clair de l'origine de la preuve. Traiter avec une vigilance accrue si elle semble « trop belle pour être vraie », si la source est douteuse (plateforme anonyme) et si l'original n'est pas disponible. Si la preuve n'est pas dans sa forme d'origine (impression, PDF converti), explorer comment et pourquoi elle a été convertie.
2. Accès à la preuve
Orientation
Conserver une preuve d'une façon permettant à plusieurs personnes d'y accéder augmente le risque de falsification ou de fabrication. Si la chaîne de conservation ne peut être justifiée, envisager une vigilance accrue ou une analyse d'expert, si disponible, pour garantir l'intégrité.
3. Préservation
Orientation
Les données doivent être préservées dans leur format d'origine (natif) autant que possible. Si les méthodes de préservation sont insuffisantes, envisager de désigner un expert neutre pour examiner le support numérique. Selon les circonstances, il peut être nécessaire de demander à la partie de soumettre le dispositif (ex. téléphone mobile) contenant les preuves numériques pour une analyse d'authentification appropriée.
4. Chaîne de conservation
Orientation
Il doit s'agir d'un registre chronologique, idéalement avec dates, heures, lieux et personnes responsables. En cas de lacunes dans la chaîne de conservation, envisager d'exiger la communication de pièces ou des éléments de corroboration.
5. Altérations
Orientation
Même de petites modifications peuvent affecter l'authenticité. Exiger la divulgation de toutes les altérations, y compris le logiciel ou le processus utilisé, et si des versions antérieures sont encore disponibles. Si des altérations sont inexpliquées ou suspectes, solliciter une analyse d'expert ou envisager l'exclusion de la preuve.
6. Corroboration
Orientation
Encourager la soumission de preuves corroborantes, notamment de sources indépendantes. Si la preuve est un fil de messages, demander à la partie adverse de fournir son fil correspondant aux fins de comparaison. En l'absence de corroboration, envisager une validation externe. Y a-t-il une incohérence entre la preuve numérique représentant un individu et les caractéristiques réelles de cet individu (traits du visage, voix) ?
7. Vérification forensique
Orientation
Envisager la nécessité d'une analyse forensique experte, surtout si la preuve est techniquement complexe ou s'il existe des préoccupations quant à une possible manipulation. Si aucune analyse forensique n'a été conduite, envisager d'ordonner un examen par un expert neutre qualifié, si disponible.
8. Métadonnées
Orientation
Les métadonnées peuvent offrir des indices précieux sur la date de création, l'heure et le logiciel utilisé pour créer ou modifier la preuve. Des incohérences inexpliquées constituent des signaux d'alerte (ex. métadonnées indiquant une création par un autre détenteur, ou dates incohérentes). Si les métadonnées ne sont pas fournies ou semblent incohérentes, demander une explication détaillée. Attention : les juges doivent être prudents avant de tirer eux-mêmes des conclusions des métadonnées sans formation spécialisée.
9. Témoignage d'expert
Orientation
Le témoignage d'expert peut être essentiel pour que le tribunal comprenne les aspects techniques de la preuve et évalue sa fiabilité. Si les parties ne désignent pas d'expert, et que la preuve est complexe ou cruciale, envisager de désigner un expert neutre approuvé par le tribunal, si disponible.
• Tenir compte des capacités techniques des parties, notamment en cas de parties non représentées.
• Demander des informations complémentaires si les réponses sont incomplètes ou soulèvent des préoccupations.
• Émettre des ordonnances de préservation pour empêcher toute altération ou suppression ultérieure.
• Désigner un expert neutre pour les preuves complexes ou cruciales.
• Peser l'authenticité avec prudence face au double risque : admettre une preuve inauthentique ou exclure une preuve authentique.
• Déterminer la recevabilité en tenant compte de la valeur probante par rapport à l'impact préjudiciable.
• Documenter le raisonnement en indiquant clairement les motifs d'admission ou d'exclusion.
• Se tenir informé des évolutions de l'IA générative et de son impact sur les preuves numériques.