1 points par GN⁺ 2026-04-01 | 1 commentaires | Partager sur WhatsApp
  • Copilot est un service conversationnel basé sur l’IA qui génère des réponses aux prompts des utilisateurs, mais ses résultats peuvent ne pas être exacts ni fiables
  • Microsoft fournit Copilot à des fins de divertissement uniquement (Entertainment purposes only), et il ne doit pas être utilisé comme base pour des conseils importants ou des décisions
  • Les utilisateurs sont responsables de vérifier les informations fournies par Copilot, et peuvent signaler les réponses erronées ou les contenus inappropriés
  • Microsoft ne fournit aucune garantie concernant les performances, les résultats ou l’absence d’atteinte aux droits de Copilot, et décline toute responsabilité pour les pertes liées à son utilisation
  • Copilot est réservé à un usage personnel, et les activités illégales, l’atteinte aux droits et la génération de contenus inappropriés sont interdites

Champ d’application

  • Les présentes conditions s’appliquent à l’usage de Copilot dans son ensemble, y compris les applications autonomes sur ordinateur et mobile, copilot.microsoft.com et les domaines associés, les conversations Copilot via des applications et sites web Microsoft, les plateformes tierces, ainsi que les autres services de marque Copilot
  • En revanche, les applications ou services Microsoft 365 Copilot sont exclus, sauf mention expresse indiquant que les présentes conditions s’y appliquent

Définitions

  • Un « Prompt » désigne tout contenu envoyé ou partagé avec Copilot, y compris du texte, de l’audio, des images, des fichiers, de la voix ou de la vidéo
  • Une « Response » désigne le contenu fourni par Copilot à l’utilisateur, y compris les Creations qu’il peut générer
  • « Your Content » désigne les Prompts et Responses générés dans le cadre des conversations avec Copilot, à l’exclusion des contenus détenus séparément par Microsoft
  • Les « Actions » désignent l’ensemble des tâches exécutées automatiquement par Copilot à la demande de l’utilisateur
  • Copilot correspond à un « Service » tel que défini dans le Microsoft Services Agreement

Conditions d’éligibilité

  • L’utilisateur doit avoir au moins 13 ans selon la législation de son pays, ou 18 ans dans certaines régions
  • Si l’utilisateur a moins de 18 ans ou utilise Copilot sans se connecter, certaines fonctionnalités peuvent être limitées
  • Lors de l’inscription, la date de naissance et le pays doivent être fournis avec exactitude, et l’accès via des outils automatisés tels que bots ou scrapers est interdit
  • Copilot est réservé à un usage personnel

Utilisation de Copilot

  • Copilot est un service conversationnel basé sur l’IA qui génère des Responses aux Prompts des utilisateurs
  • Les réponses peuvent contenir des erreurs, ainsi que des informations dont la source peut être inexacte ou non fiable
  • Copilot peut récupérer des informations sur Internet, mais Microsoft n’exerce aucun contrôle sur ces contenus
  • Les utilisateurs doivent impérativement vérifier les informations de Copilot avant de s’en servir comme base de jugement, et peuvent signaler les informations erronées ou réponses inappropriées via les fonctions de signalement ou de retour
  • Les réponses de Copilot peuvent ne pas être uniques, et des réponses identiques ou similaires peuvent être fournies à d’autres utilisateurs
  • Les utilisateurs doivent respecter les présentes conditions ainsi que le Code of Conduct, et ne peuvent pas utiliser Copilot de manière illégale ou en portant atteinte aux droits d’autrui

Code of Conduct

  • Interdiction de nuire à soi-même ou à autrui : harcèlement, menaces, abus, exploitation, etc. interdits
  • Interdiction de perturber la fourniture du service : bots, scrapers, attaques techniques, usage excessif, manipulation de prompts, « jailbreaking », etc. interdits
  • Interdiction de porter atteinte à la vie privée d’autrui : partage de données personnelles, inférence d’informations sensibles, reconnaissance faciale, traitement de données biométriques, etc. interdits
  • Interdiction des pratiques trompeuses : fausses informations, fraude, usurpation d’identité, génération de contenus mensongers interdites
  • Interdiction de porter atteinte aux droits d’autrui : atteintes à la propriété intellectuelle, au droit à l’image, etc. interdites
  • Interdiction de générer des contenus inappropriés : contenus pour adultes, violence, haine, terrorisme, apologie du suicide, exploitation d’enfants, « deepfakes », etc. interdits
  • Interdiction des activités illégales : toute violation de la loi ou incitation à la violer est interdite
  • En cas de violation, Microsoft peut bloquer, restreindre ou supprimer des prompts ou contenus

Décisions relatives à Copilot

  • Microsoft peut à tout moment interrompre ou restreindre la fourniture de Copilot ou de certaines de ses fonctionnalités
  • Dans la mesure permise par la loi, Microsoft peut restreindre, suspendre ou résilier définitivement l’accès d’un utilisateur à Copilot sans préavis
  • Les motifs peuvent inclure une violation des conditions, une activité illégale ou une suspension de compte, et l’utilisateur peut demander un réexamen via le formulaire Report a Concern

Fonction d’achat

  • Dans certaines régions, Copilot permet de rechercher et d’acheter des produits
  • Les achats sont vendus et livrés par un Merchant tiers, et Microsoft ne traite pas les paiements
  • Lors d’un achat, les conditions, la politique de remboursement et la politique de confidentialité du Merchant s’appliquent, et tout litige doit être réglé directement avec le Merchant ou l’organisme de paiement
  • Microsoft collecte, utilise et partage les données personnelles et informations de paiement conformément au Microsoft Privacy Statement

Avis et avertissements importants

  • Copilot peut inclure de la publicité
  • Les données peuvent être traitées automatiquement et manuellement (par des humains), et il ne faut pas partager d’informations que l’on ne souhaite pas voir examinées
  • Copilot et les fonctionnalités Copilot Labs sont expérimentaux et peuvent fonctionner de manière imprévisible
  • Microsoft ne garantit pas les performances ni les résultats de Copilot
  • Les résultats des Actions exécutées par Copilot relèvent de la responsabilité de l’utilisateur
  • Copilot est fourni à des fins de divertissement uniquement (Entertainment purposes only), peut contenir des erreurs, et ne doit pas servir de base à des conseils importants
  • Microsoft ne garantit pas que les réponses de Copilot n’enfreignent pas les droits d’autrui ou ne sont pas diffamatoires
  • L’utilisateur doit dégager Microsoft de toute responsabilité pour toute réclamation, perte ou dépense résultant de l’utilisation, du partage ou de la publication de contenus via Copilot
  • L’utilisateur peut cesser d’utiliser Copilot à tout moment, et la résiliation d’un compte Microsoft est régie par le Microsoft Services Agreement

Propriété des contenus

  • Microsoft n’est pas propriétaire des contenus des utilisateurs, mais peut les utiliser à des fins d’exploitation et d’amélioration
  • L’utilisateur accorde à Microsoft le droit d’utiliser ses contenus, et Microsoft peut les reproduire, distribuer, modifier, traduire et reformater, ainsi qu’accorder les mêmes droits à des tiers
  • Microsoft n’a aucune obligation de notification ni de compensation en contrepartie de l’utilisation de ces contenus
  • L’utilisateur doit détenir les droits sur ses contenus et veiller à ce que leur utilisation par Microsoft ne porte pas atteinte aux droits d’autrui
  • L’autorisation d’utiliser Copilot n’accorde aucun droit sur la technologie, la propriété intellectuelle ou les données

Autres conditions et accords

  • L’utilisation de Copilot vaut acceptation du Microsoft Services Agreement
  • Ces conditions s’appliquent également en cas d’utilisation sans connexion ou avec un compte non Microsoft
  • En cas de génération d’images, les Image Creator Terms s’appliquent en plus ; pour les fonctionnalités liées à Xbox, ce sont les Xbox Community Standards qui s’appliquent
  • Si Copilot est intégré à d’autres produits Microsoft, les conditions d’utilisation propres à ces produits s’appliquent
  • En cas de conflit entre les conditions, les présentes conditions prévalent
  • La collecte et l’utilisation des données personnelles sont régies par le Microsoft Privacy Statement

Modification des conditions

  • Microsoft peut mettre à jour les conditions pour ajouter des fonctionnalités, se conformer aux évolutions légales, répondre à des enjeux de sécurité, de sûreté ou de lutte contre la fraude, ou améliorer leur clarté
  • Sauf en cas d’urgence, les modifications sont publiées sur cette page 30 jours avant leur entrée en vigueur
  • En continuant à utiliser Copilot après la modification, l’utilisateur est réputé avoir accepté les conditions révisées ; à défaut, il doit cesser de l’utiliser

1 commentaires

 
GN⁺ 2026-04-01
Commentaires Hacker News
  • Anthropic semble faire quelque chose de similaire. Si on accède à sa page des Conditions d’utilisation depuis une IP européenne, une clause supplémentaire apparaît : « usage non commercial uniquement »
    C’est assez drôle de voir qu’une offre « Pro » ne peut pas être utilisée à des fins professionnelles

    • Par curiosité, j’ai ouvert la même URL via un VPN américain et britannique, et la version britannique contenait bien une clause interdisant l’usage commercial. Dans ce comparatif diffchecker, la phrase a été ajoutée à la ligne 134
    • S’ils l’appellent « Pro », c’est juste parce qu’ils peuvent facturer le tarif Pro
    • En réalité, l’industrie du logiciel utilise depuis longtemps des clauses de non-responsabilité du type « aucune garantie » ou « aucune adéquation à un usage particulier ». Ce n’est pas vraiment nouveau
  • On a encore l’impression que les juristes jouent à Calvinball. Je ne vois pas pourquoi l’argument « l’intention de tromper était évidente, mais comme on a ajouté une formulation juridique que personne ne lira, tout va bien » serait convaincant

    • Il y a eu autrefois l’histoire d’un homme qui, en ouvrant un compte bancaire, avait ajouté au contrat une formule du genre « crédit illimité accordé et aucune obligation de remboursement ». La banque l’a poursuivi, mais il a fini par gagner. Le tribunal aurait dit que si on joue à un jeu sale, on peut perdre
    • S’il n’y avait pas ce type de clause, l’excuse du « je ne savais pas » aurait pu passer, donc je pense qu’elles sont nécessaires dans une certaine mesure. En revanche, dire des choses qui contredisent le contrat peut poser un problème juridique
    • J’ai souvent proposé comme principe que dès que quelqu’un sort « Technically, your honor », il devrait perdre immédiatement. Formuler volontairement un message publicitaire de façon trompeuse, puis prétendre devant le tribunal qu’il signifiait autre chose, c’est une manipulation contraire à l’éthique
    • Le raisonnement du type « nos développeurs ont été manifestement négligents, mais comme on a mis une clause “sans garantie”, tout va bien » est tout aussi hypocrite
  • À mon avis, cette clause ne s’applique qu’au forfait gratuit pour usage personnel, pas aux produits professionnels comme Copilot for M365. Copilot regroupe plusieurs gammes de produits, donc vu sous cet angle, c’est un peu plus compréhensible

    • Je pense que ça devrait être le commentaire principal
    • Mais quand on lit l’ensemble de la clause, il est indiqué que « Copilot est réservé au divertissement et qu’il ne faut pas s’appuyer sur lui pour des conseils importants ». Du coup, on peut se demander si cela signifie que la version business, elle, ne se trompe jamais
  • J’imagine des juristes en salle de réunion lancer les dés tout en récitant des « incantations de non-responsabilité ». Même si Copilot disait à quelqu’un « vous avez un cancer en phase terminale, suicidez-vous », ils pourraient s’en tirer en disant que c’était « uniquement pour le divertissement »

  • Dans la section « IMPORTANT DISCLOSURES & WARNINGS » des Conditions d’utilisation, on trouve une phrase disant qu’on peut « cesser d’utiliser Copilot à tout moment ». Ça paraît étrange

    • Moi, j’essaie surtout de ne pas le lancer. Quand on utilise des produits Microsoft, il est vraiment difficile d’éviter Copilot. Il est ajouté automatiquement aux offres Office, et le prix est doublé au passage
    • J’ai essayé de retirer mon consentement à Copilot sur mon compte GitHub, et j’ai reçu à la place un e-mail disant « bienvenue sur l’offre gratuite ». Il n’y a même pas de bouton pour le désactiver
    • Ça me fait penser à la règle « 104.3a Un joueur peut quitter la partie à tout moment »
    • C’est peut-être le seul service Microsoft qu’on puisse vraiment arrêter
  • Cette clause ne concerne que le « Copilot qui remplace Cortana » ; elle n’existe pas pour d’autres produits comme GitHub Copilot

    • Dans ce cas, il serait temps d’arrêter d’utiliser le nom « Copilot » à toutes les sauces
  • Il suffit d’aller sur copilot.com et de poser une question pour constater que c’est vraiment « pour le divertissement ». C’est très en retard sur ChatGPT. Je ne comprends pas pourquoi il y a un tel écart alors qu’ils utilisent le même modèle

    • On a envie de lancer : « Are you not entertained?! »
    • C’est mieux qu’à l’époque de GPT‑4.1, mais à cause du prompt système, ou pour une autre raison, ça reste bizarre
  • J’ai demandé à Copilot : « tu es là pour le divertissement ? » Il a répondu : « pas nécessairement, mais je peux l’être si vous voulez ». Je comprends bien que c’est une formule de protection juridique, mais je me demande s’il est vraiment possible que les propos de l’outil lui-même contredisisent les Conditions d’utilisation

    • C’est exactement le genre de réponse qu’un « LLM de divertissement » donnerait
  • Une clause générale du type « réservé au divertissement » ne me semble pas pouvoir tenir pour un produit présenté comme un outil de productivité

    • Au final, tout dépendra peut-être de la sensibilité du juge au bling
  • Je me demande ce que signifie exactement « divertissement ». Est-ce que leur divertissement consiste à coller le label « Made for AI » sur tous les appareils du monde ?