Un libellé mal formulé dans les conditions d’utilisation de WeTransfer a suffi à provoquer une onde de choc. Face à la colère des utilisateurs, la plateforme néerlandaise a dû reculer. Cette affaire révèle la fragilité de la confiance numérique à l’heure de l’IA générative.
Une clause sur l’IA, et tout bascule
Tout est parti d’une mise à jour discrète des conditions d’utilisation. WeTransfer y évoquait l’usage de fichiers partagés pour “améliorer les performances de modèles d’apprentissage automatique”. La formulation, vague, a immédiatement suscité une vague d’inquiétude.
L’idée d’un service exploitant vos contenus pour nourrir ses modèles d’IA n’a rien d’anodin. D’autant que les fichiers transférés via WeTransfer sont souvent sensibles : manuscrits inédits, maquettes graphiques, photographies non publiées.
L’édition monte au créneau
Dans les secteurs créatifs, la plateforme est un outil du quotidien. Auteurs, illustrateurs, traducteurs, éditeurs : tous l’utilisent pour échanger des documents volumineux. La simplicité du service – aucun compte nécessaire jusqu’à 2 Go – en a fait un standard.
Mais cette accessibilité a un revers : si le contenu n’est ni chiffré de bout en bout, ni assorti de garanties fortes sur son usage, il devient vulnérable. Pour nombre de professionnels, la simple mention de machine learning dans les CGU évoque immédiatement un risque de réutilisation non consentie.
Le tollé en ligne, déclencheur du revirement
En quelques heures, les réseaux sociaux s’enflamment. Des créateurs appellent au boycott. Des alternatives émergent. Certains vont jusqu’à évoquer un retour au courrier postal. L’image de WeTransfer, jusque-là plutôt neutre, se retrouve brutalement associée aux dérives d’un numérique vorace.
L’entreprise publie rapidement un communiqué : elle affirme ne pas utiliser d’IA pour traiter les fichiers transmis, ni vendre les données à des tiers. Elle parle d’”ambiguïté involontaire” et retire la mention litigieuse. Le billet de blog qui accompagne cette volte-face tente de rassurer sans trop en dire. Mais le mal est fait : l’incident a révélé une fracture.
Une confiance érodée par l’IA générative
L’affaire WeTransfer n’est pas isolée. Fin 2023, Dropbox avait lui aussi dû faire marche arrière après avoir introduit des clauses similaires. Dans les deux cas, c’est moins l’intention que la méthode qui interroge : pourquoi modifier en douce des CGU sur des sujets aussi sensibles ?
L’enjeu dépasse la modération de contenu ou la conformité au RGPD. Ce qui est en jeu, c’est la propriété intellectuelle. En l’absence de cadre international clair sur l’entraînement des IA, toute ambiguïté juridique devient suspecte. Et pour les auteurs, traducteurs, photographes, la crainte est réelle : voir un jour leurs fichiers ressurgir dans les réponses d’un chatbot, sans autorisation ni crédit.
Une licence perpétuelle qui interroge
Même après révision, les conditions de WeTransfer conservent une zone grise. La plateforme continue d’exiger une licence gratuite, transférable, mondiale, permettant d’utiliser les fichiers pour “développer et améliorer le service”. En théorie, cela peut inclure des usages internes à des fins techniques. En pratique, l’absence de garde-fous précis reste problématique.
C’est d’autant plus délicat que l’essor de l’IA rend floues les frontières entre amélioration technique et exploitation commerciale. Une simple fonctionnalité de modération automatique peut-elle être entraînée sans risquer une dérive ?
Vers un numérique plus respectueux des contenus ?
L’épisode WeTransfer agit comme un signal d’alarme. La transparence ne peut plus être facultative. Pour conserver la confiance de leurs utilisateurs, les services cloud doivent adopter des politiques d’usage des données claires, lisibles, et surtout, respectueuses de la propriété intellectuelle.
D’ici là, le recours à des solutions chiffrées, auto-hébergées ou open source pourrait redevenir une norme pour les créateurs les plus soucieux de la confidentialité.