Stop à la dictature des détecteurs d’IA ! – Light Agency

En septembre 2024, j’ai perdu une collaboration avec une agence de communication bien installée. Pourquoi ? Parce qu’elle a décidé de soumettre tous les textes à Originality.ai, un de ces fameux détecteurs d’IA qui prétendent faire la différence entre ce qui est « humain » et ce qui ne l’est pas. Résultat ? Malgré mon travail soigné, validé, pertinent, j’ai été évincée sur la base d’un score, du jour au lendemain et surtout sans courriel explicatif.
Et voilà que ce cauchemar recommence. Un autre de mes clients, avec qui je bosse depuis 2023, qui connaît mon style, qui est satisfait de mes textes, veut maintenant soumettre tout ce que j’écris au même outil. Pas parce qu’il doute de ma qualité. Pas parce qu’il n’est pas content. Non : juste par peur de « l’IA ».
Nous y sommes. Nous avons laissé entrer l’IA dans nos vies et voilà qu’à présent, nous autres rédacteurs web et SEO nous nous faisons fliquer même lorsque nous ne l’avons pas utilisée. Les « détecteurs d’IA » pullulent partout : dans les écoles, chez les recruteurs, dans les médias. Les concepteurs les vendent comme des juges neutres, capables de distinguer l’humain du robot. En vrai ? Ce sont des oracles foireux, biaisés et bien plus dangereux que vous le croyez. Combien de mes collègues ont mis la clé sous la porte, car leur réputation avait été ternie dans notre milieu à cause d’un simple score !
Détecteurs d’IA : une technologie bancale devenue standard !
Il y a encore deux ans, personne ne connaissait ces outils. Ils sont aujourd’hui partout. En quelques mois, les détecteurs d’IA comme Originality.ai, GPTZero ou Copyleaks sont devenus des arbitres autoproclamés de ce qui est « vraiment humain » sans que personne ait voté pour eux, ni validé leur fiabilité. Le pire ? Ils sont bancals. Les créateurs eux-mêmes le reconnaissent : ces outils peuvent se tromper. Beaucoup. Ils sont sensibles au style, à la structure, au vocabulaire. Écris trop clairement, trop logiquement, trop « propre » et hop, vous passez régulièrement, comme moi, pour une IA. Un vrai texte généré par une IA un peu retravaillée, inversement, peut très bien passer à travers.
Nous sommes donc face à une technologie floue, statistique, biaisée… mais utilisée comme une preuve. Cela, à mon sens, c’est une dérive grave. Pourquoi ? Parce que ce qui était censé être un outil est devenu un filtre. Une barrière. Un juge. Ce dernier est désormais la norme.
Dans les écoles, les agences, les rédactions : si votre texte ne passe pas le scan, il est suspect. Peu importe que vous soyez compétent. Que vous soyez expérimenté. Que vous soyez honnête et que vous apportiez noir sur blanc toutes les preuves d’une rédaction 100 % humaine.
La standardisation de cette technologie, sans débat ni garde-fou, c’est l’aveu d’une société préférant l’automatisme au discernement. Pour les rédacteurs comme moi, cela signifie une chose : la méfiance d’abord, la confiance ensuite si le score le permet.
Quand la parano remplace la confiance !
C’est un fait, dans le milieu de la rédaction et du SEO, nombre de clients ne jugent plus un texte sur sa qualité, sa pertinence, ni même sur sa valeur informative. Ils le scannent et, par malheur, si le score fait peur, peu importe que le texte soit bon : il devient soupçonné, voire jeté à la poubelle. C’est le climat dans lequel nous évoluons aujourd’hui.
Personnellement, je n’ai plus l’impression d’écrire pour informer, pour convaincre, pour émouvoir. Je passe mes journées à rédiger pour échapper au soupçon. J’adapte mes tournures, j’évite au maximum les phrases trop nettes, trop bien construites. Je cherche à paraître… moins « IA », moi qui écris encore tous mes articles à la main dans mes carnets.
Tu écris trop bien ? C’est suspect !
Tu écris trop vite ? C’est louche !
Tu es juste bon ? C’est douteux !
La parano est installée. Elle remplace peu à peu la confiance, même dans des relations de travail durables. Même quand le client est satisfait, ou lorsque tu prouves que c’est toi qui écris. Ce n’est plus une question de compétence, mais uniquement de conformité à un score. Un outil défaillant impose sa loi, et le bénéfice du doute s’est volatilisé. Je n’ai rien contre l’IA (même si j’en viens à la détester tant elle pourrit ma vie). Je n’ai rien à cacher. Je refuse néanmoins qu’un algorithme opaque décide seul de la crédibilité de mon travail. Ce n’est pas de l’éthique. Ce n’est pas du professionnalisme, c’est juste de la peur mal placée.
Des vies pro mises en danger à cause d’une confiance aveugle dans des outils auto-proclamés !
Combien de rédacteurs, journalistes, copywriters, freelances se sont déjà vus écartés, déclassés ou même évincés (comme cela a été mon cas il y a quelques mois) sur la simple base d’un score généré par un détecteur d’IA ? Combien ont vu leur crédibilité mise en doute alors qu’ils avaient livré un contenu solide, original et 100 % humain ?
Ces outils ne sont pas des normes officielles. Ils ne sont pas infaillibles. Ils n’ont été validés par aucune autorité indépendante. On leur confie pourtant le pouvoir de briser une carrière, de faire sauter un contrat, de ternir une réputation. Pourquoi ? Parce qu’ils affichent un pourcentage et donnent l’impression de contrôler, de rassurer. Ce n’est toutefois qu’une illusion de fiabilité.
Derrière cette illusion, ce sont de vraies personnes qui en paient le prix : celles qui écrivent, qui s’appliquent, qui respectent les délais, qui bossent à la main dans leurs carnets, qui s’améliorent chaque jour et qui se retrouvent blacklistées, humiliées, étiquetées « IA » sans avoir triché. Un faux positif peut suffire. Personne ne prend le temps de vérifier, de questionner, de discuter. Le verdict tombe.
Pendant que certains se battent pour défendre leur nom, d’autres abandonnent le métier. Tout cela à cause d’une confiance aveugle dans des outils auto-proclamés juges du « vrai » et du « faux ».
Rédacteurs : écrire bien n’est pas un crime !
Ce que les clients nous poussent à faire aujourd’hui, c’est douter de notre propre plume. À ralentir, à simplifier, à écrire « moins bien » pour ne pas éveiller les soupçons. Absurde. Inacceptable. Dangereux.
Nous ne devrions pas avoir à nous justifier d’avoir un style fluide, une syntaxe maîtrisée, des phrases claires. Nous ne devrions pas avoir à prouver que nous sommes humains à chaque paragraphe. Ce n’est pas cela, créer du contenu. Ce n’est pas cela, écrire. Notre travail, c’est de produire du sens, pas de passer des tests.
Notre valeur, c’est notre expérience, notre voix, notre capacité à toucher juste – et pas un foutu pourcentage généré en une demi-seconde par un algorithme douteux.
Alors non, je ne vais pas m’excuser d’écrire bien. Je ne vais pas baisser mon niveau pour satisfaire une machine incapable de comprendre ce que j’exprime. Je continuerai à écrire avec méthode, cohérence, intention – et oui, avec parfois des tournures que l’IA imite, parce que je suis formée pour bien écrire.
N’est-ce pas pour cela qu’à la base, je suis payée ?
Écrivons. Signons nos textes. Défendons-les, car le jour où les IA gagneront… ce sera la médiocrité généralisée.




Laisser un commentaire