IA en droit : avertissement de la part des tribunaux


Par

Usage de l’IA en justice: des mises en garde aux sanctions pécuniaires

Dès 2023, les tribunaux québécois, par la voix de la juge en chef de la Cour supérieure, lançaient un appel à la prudence destiné à la communauté juridique et aux justiciables concernant l’utilisation de l’intelligence artificielle générative (ci-après «IA»). Cette mise en garde anticipait les risques liés à la véracité de l’information juridique générée par l’IA.

En 2025, la Cour supérieure a été contrainte de trancher sur l’usage inadéquat de l’IA dans le cadre de procédures judiciaires. La décision rendue dans l’affaire Specter Aviation Limited c. Laprade1 pose désormais les jalons de la responsabilité des plaideurs face aux contenus générés par l’intelligence artificielle.

 

L’Affaire Specter Aviation : L’exigence de véracité

L’essor de l’intelligence artificielle générative incite de nombreux citoyens à se tourner vers ces technologies pour obtenir des réponses d’ordre légal. C’est dans ce contexte que s’inscrit le litige opposant Specter Aviation Limited à Monsieur Laprade.

Se représentant seul, le défendeur a eu recours à un modèle d’intelligence artificielle pour rédiger sa contestation. Toutefois, le document soumis à la Cour référençait plusieurs jugements inexistants, c’est-à-dire qu’ils étaient fabriqués de toute pièce par l’IA. En effet, il n’est pas rare qu’en l’absence de réponses complètes, l’IA “hallucine” du contenu juridique, tout en le présentant comme étant parfaitement authentique.

La position de la Cour supérieure face à l’IA

Dans son jugement, la Cour a formulé une opinion ferme. Bien que les tribunaux fassent preuve d’une certaine flexibilité envers les parties non représentées, ils ne sauraient tolérer l’introduction de faussetés, fussent-elles involontaires.

Le tribunal a établi que le fait de soumettre des autorités juridiques fictives constitue un manquement grave au bon déroulement de l’instance et porte atteinte à l’intégrité du système judiciaire.

La sanction : En conséquence, Monsieur Laprade a été condamné au paiement d’une somme de 5 000 $.

 

Réitération du principe : L’Affaire Bourse de Immobilier Multilogements

Ce principe de responsabilité face aux « hallucinations » de l’IA a été confirmé dans la décision Bourse de Immobilier Multilogements inc. c. Lanthier2.

Dans cette affaire, le mis en cause, Monsieur Bordeleau, a produit un document juridique étayé par des citations jurisprudentielles erronées générées par l’IA. S’appuyant sur les propos émis par le juge Luc Morin dans l’affaire Specter Aviation, la Cour a réitéré que l’utilisation non vérifiée de l’IA est proscrite.

La sanction : La Cour a condamné Monsieur Bordeleau à une sanction pécuniaire de 750 $.

 

Conclusion : Devoir de vigilance face à l’IA et expertise juridique

Si l’intelligence artificielle peut constituer un outil de recherche intéressant, elle impose un devoir de vigilance accru. Ces décisions québécoises démontrent qu’une intervention humaine est indispensable pour valider l’exactitude de l’information juridique. L’absence de vérification rigoureuse expose le justiciable à des sanctions financières significatives.

L’importance d’une représentation adéquate

Pour naviguer efficacement dans le système judiciaire et éviter les écueils technologiques, l’assistance d’un professionnel du droit demeure la solution la plus prudente. L’équipe de Bernier Fournier est à votre disposition pour vous conseiller et vous accompagner, assurant ainsi que votre dossier repose sur des fondements juridiques vérifiés et solides.

 

Rédigé avec la collaboration d’Alexia Lefebvre, stagiaire en droit.

1 2025 QCCS 3521.
2 2025 QCCS 4135.
Au moment de la publication, ces décisions n’ont pas été portées en appel.