1 points par GN⁺ 2026-03-05 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Il a été révélé qu’un juge d’un tribunal de première instance dans l’État indien de l’Andhra Pradesh a cité des décisions fictives générées par l’IA dans une affaire de litige immobilier
  • La Cour suprême a qualifié l’affaire de “préoccupation institutionnelle” et l’a considérée non comme une simple erreur de jugement, mais comme une « faute professionnelle » (misconduct)
  • Le juge concerné a déclaré qu’il utilisait un outil d’IA pour la première fois et qu’il croyait que les citations étaient authentiques, mais la Cour suprême a suspendu les effets de la décision de première instance
  • La Haute Cour indienne avait maintenu la décision en reconnaissant la bonne foi du juge à l’époque, mais la Cour suprême met l’accent sur les problèmes de procédure liés à l’usage de l’IA
  • Cette affaire met en lumière l’impact de l’IA sur la procédure judiciaire et des cas similaires ont été signalés non seulement en Inde, mais aussi aux États-Unis et au Royaume-Uni

Aperçu de l’affaire

  • La Cour suprême indienne enquête sur une affaire dans laquelle un juge d’un tribunal civil de première instance à Vijayawada, dans l’État de l’Andhra Pradesh, a tranché un litige immobilier en citant de faux précédents générés par l’IA
    • L’affaire a été portée devant la Cour suprême après l’appel de la partie défenderesse
    • La Cour suprême l’a qualifiée de « question affectant directement la fiabilité et l’intégrité de la procédure judiciaire »
  • Les faits remontent à août 2025, et le juge a cité quatre décisions antérieures, toutes identifiées comme de faux documents générés par l’IA

Décisions de première instance et de la Haute Cour

  • Le défendeur a fait appel devant la Haute Cour en faisant valoir que les précédents cités étaient faux
    • La Haute Cour a reconnu que le juge avait commis une « erreur de bonne foi » et a maintenu la décision elle-même
    • Elle a précisé que « même si les citations n’existent pas, il n’y a pas lieu d’annuler la décision si l’application du droit est correcte »
  • La Haute Cour a demandé au juge de remettre un rapport, et celui-ci a déclaré qu’il utilisait un outil d’IA pour la première fois et avait fait confiance à des documents générés automatiquement
    • Il a expliqué qu’« il n’avait aucune intention de mal citer ou de déformer les références, et que l’erreur résultait de sa dépendance à une source automatisée »
  • La Haute Cour a ajouté qu’« il faut faire appel à l’intelligence réelle plutôt qu’à l’intelligence artificielle »

Réaction de la Cour suprême

  • La Cour suprême a immédiatement suspendu (stay) la décision de première instance et a qualifié l’usage de l’IA non de simple erreur, mais de « faute professionnelle »
    • Elle a souligné que « cette affaire porte moins sur le contenu de la décision que sur la procédure judiciaire et le processus même de décision »
  • La Cour suprême a informé le procureur général, le conseiller juridique et le Bar Council of India et a décidé de poursuivre l’examen de l’affaire

Le choc entre l’IA et la procédure judiciaire

  • La Cour suprême indienne a récemment exprimé son inquiétude concernant les cas où des avocats rédigent des requêtes à l’aide d’outils d’IA
    • Selon le média juridique spécialisé LiveLaw, la Cour suprême a déclaré qu’« une telle pratique ne peut en aucun cas être justifiée »
  • Des erreurs judiciaires liées à l’usage de l’IA ont été signalées non seulement en Inde, mais aussi aux États-Unis et au Royaume-Uni
    • En octobre 2025, il a été révélé que deux juges fédéraux américains avaient rédigé des décisions erronées à cause de l’usage de l’IA
    • En juin 2025, la Haute Cour d’Angleterre et du Pays de Galles a adressé aux avocats un avertissement interdisant l’usage de précédents générés par l’IA

Réponse de la justice indienne face à l’IA

  • En 2025, la Cour suprême indienne a publié un livre blanc (white paper) sur l’usage de l’IA dans le système judiciaire
    • Ce document comprend des directives d’usage de l’IA et des bonnes pratiques
  • La Cour suprême souligne l’importance de la supervision humaine (human oversight) et du maintien de garde-fous institutionnels
  • Cette affaire montre que le système judiciaire indien est en quête d’un équilibre entre adoption et contrôle de l’IA

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.