Dans l’affaire Bégin-Létourneau c. Syndicat des spécialistes et professionnels d’Hydro-Québec[1], une employée dépose une plainte contre son Syndicat en vertu de l’article 47.2 du Code du travail, alléguant avoir été mal représentée par celui-ci.

Elle lui reproche essentiellement de lui avoir bafoué son droit de parole lors d’une assemblée syndicale. 

Au soutien de ses allégations, elle mentionne au Tribunal administratif du travail (le « TAT ») que le devoir de représentation du Syndicat à son égard « ne se limite pas aux griefs ou à la convention », mais qu’« il s’étend également à la défense des droits démocratiques internes lorsqu’un syndicat agit de manière abusive, arbitraire ou discriminatoire à l’endroit d’un membre », en s’appuyant sur deux références jurisprudentielles.

Or, il appert que les affaires auxquelles la plaignante réfère n’existent pas « et ont probablement été inventées par l’intelligence artificielle », indique le TAT. Dans tous les cas, soutient le TAT, elles n’ont manifestement pas été vérifiées par la plaignante avant d’être soumises au Tribunal. 

Le TAT ne tient donc pas compte de ces références et rejette la plainte, concluant notamment que les agissements reprochés sont du ressort de la régie interne du Syndicat, comportements non visés par l’article 47.2 du Code.

Quoi retenir ?

Cette affaire met en lumière, encore une fois, les dangers des outils d’IA qui peuvent générer des informations fausses ou fictives. Il y a de plus en plus de cas similaires devant les tribunaux et nous continuerons certainement d’être confrontés à cette réalité. 

Tout récemment, en novembre 2025, la Cour du Québec a émis les commentaires suivants quant aux risques d’utiliser l’IA à des fins de recherches juridiques, dans un cas de vices cachés où l’acheteuse avait soumis des références jurisprudentielles inexistantes[2]. La Cour se prononce en ces termes :

39. Or, ces quatre décisions sont des hallucinations générées par l’intelligence artificielle : elles n’existent tout simplement pas. Les références neutres mentionnées (2012 QCCQ 7854[20], 2009 QCCQ 3249[21] et 2018 QCCQ 1649[22]) renvoient à d’autres jugements sans lien avec des ventes d’animaux infertiles.

40. L’objectif du présent commentaire n’est pas de reprocher quoi que ce soit à l’Acheteuse, qui a informé le Tribunal que la liste provenait de ChatGPT. Le Tribunal saisit plutôt l’occasion pour mettre en garde contre l’utilisation de l’intelligence artificielle à des fins de recherche juridique. En plus de fournir des informations erronées, ces outils peuvent, comme en l’espèce, laisser croire à un justiciable que des cas similaires ont été jugés en sa faveur, ce qui est de nature à induire en erreur.

41. En définitive, si l’intelligence artificielle peut constituer un outil d’appoint, elle ne saurait remplacer la rigueur et la fiabilité des sources officielles. La justice repose sur la preuve et sur le droit applicable, non sur des réponses générées par un algorithme. Un outil conversationnel d’intelligence artificielle ne crée pas de jurisprudence et ne peut, en aucun cas, servir de fondement à une décision judiciaire.”

L’IA est certes utile dans certaines circonstances. Par ailleurs, les illustrations ci-dessus nous rappellent de demeurer prudents lorsque nous l’utilisons pour des questions juridiques.


[1] 2025 QCTAT 5208

[2] Lessard c. Longueépée, 2025 QCCQ 8285