Définir sa posture face aux IA génératives en formation
Impact Formation - 36e édition
Temps de lecture : environ 18 minutes (une édition estivale plus longue, surtout au vu du thème)
Bonjour et bienvenue dans cette 36e édition de l’infolettre Impact Formation !
Actualités
Si vous n’avez pas (encore) complètement déconnecté, n’oubliez pas que la 4e édition de L’évaluation de la formation (Dunod) est disponible depuis le 4 juin 2025. C’est le livre à avoir pour impressionner les gens sur la plage (ou pas).
De mon côté, je mets cette infolettre en pause, au moins jusqu’à la mi-août. J’ai une pile de livres à lire qui menace sérieusement de s’effondrer. 😄
Définir sa posture face aux IA génératives en formation
Que faire des IA génératives ?
C’est probablement LA question qui anime le plus les débats, notamment sur LinkedIn. Et pour cause : elle impacte nos pratiques et… notre avenir. Rien que ça !
Celles et ceux qui me suivent sur LinkedIn savent que je suis plutôt “technosceptique” ou “technocritique”. Cela ne m’empêche pas d’exercer deux activités dans le monde de la formation, dont une au sein d’une ESN.
Ce scepticisme signifie simplement que je n’ai jamais accueilli une technologie les bras ouverts sans avoir pris un minimum de recul. Je me demande toujours : est-ce vraiment utile ?
(Je me suis assez moqué de “feu le métavers” dans une vidéo parodique.)
Concernant l’IA, j’ai pris le temps d’étudier la question en profondeur avant d’affirmer ma position. Je vous la partage dans cette édition. Libre à vous de l’adopter ou non, mais j’espère qu’elle nourrira votre réflexion et vous aidera à clarifier la vôtre.
De quelle IA est-il question ?
La meilleure définition que j’ai entendue de l’intelligence artificielle vient du mathématicien et ancien député Cédric Villani :
"L'IA, ce sont tous les développements informatiques non encore aboutis qui sont porteurs de fantasmes et permettent de faire le buzz." — Cédric Villani
Le ton est donné. 🙂
Dans cette édition, je me concentrerai uniquement sur les IA génératives, c’est-à-dire celles capables de produire du texte, des images, des vidéos ou du code à partir d’une simple consigne. Cela inclut notamment les grands modèles de langage (Large Language Models - LLM), comme ChatGPT, Copilot ou Gemini. Ces modèles sont entraînés sur des milliards de textes pour prédire le mot suivant dans une phrase. Cela leur donne une apparence d’intelligence… sans compréhension réelle.
Je ne nie pas l’intérêt potentiel d’autres formes d’IA, notamment dans le domaine médical (p. ex., pour analyser des milliers de radios et détecter des anomalies). Mais il me semble essentiel de rester vigilant face à ce que certains appellent le technosolutionnisme : cette croyance selon laquelle la technologie résoudra tous nos problèmes — y compris ceux qu’elle a elle-même contribué à créer.
Comme le soulignait Jacques Ellul, la technique engendre souvent les problèmes qu’elle prétend ensuite résoudre. Cette logique circulaire est au cœur de ma réflexion sur les IA génératives et leur place dans nos pratiques de formation.
Les promesses de l’IA générative
Si vous êtes sur LinkedIn, vous n’avez pas pu passer à côté de l’avalanche de publications vantant les prouesses de telle ou telle application “boostée à l’IA” (traduction : une application avec des algorithmes un peu plus sophistiqués que la moyenne).
Mais, comme pour le métavers il y a quelques années, j’attends toujours que l’on me démontre concrètement l’impact réel de ces outils sur l’apprentissage. J’ai toujours appris qu’apprendre demandait un effort — parfois même une forme de souffrance productive. Or, à l’image de l’apprentissage adaptatif (Adaptive Learning), qui tend parfois à lisser les difficultés, je crains que l’IA ne favorise une posture d’apprenant passif, voire paresseux.
Et même si l’on me présente des études prometteuses, elles portent souvent sur l’acquisition de connaissances, rarement sur le transfert des apprentissages — ce qui, à mes yeux, reste le véritable défi des professionnels de la formation.
Alors, oui, parfois j’observe des usages intéressants, car poussés (comme lorsque l’on demande à l’IA de porter un regard critique sur ses productions, en se plaçant dans la peau d’un expert reconnu). Mais cela reste des cas d’exception, au milieu d’une majorité d’usages accessoires — ou franchement anecdotiques. (Vous n’en avez pas marre, vous, de ces images de synthèse qui défilent devant nos yeux toute la journée ?).
Oui, les possibilités semblent infinies. Mais comme le rappelle Jean-Marc Jancovici à propos de l’énergie :
“Avec une énergie infinie, on peut faire des conneries infinies.”
C’est pourquoi il est essentiel de mettre les promesses de l’IA en regard de ses effets collatéraux.
Les impacts négatifs
Je passe rapidement sur les bénéfices — souvent exagérés — pour m’attarder sur ce qui me semble plus urgent : les impacts négatifs de l’IA générative. Et là, c’est une autre paire de manches.
Alors que je rédigeais cette édition, je suis tombé sur une excellente synthèse de Marion Rébier : “IA un problème !” — une lecture incontournable, riche en chiffres et en faits. Rien à ajouter.
Vous trouverez également dans ce billet du blog de Tristan Nitot des nouvelles plus récentes… et pas franchement réjouissantes.
Maintenant, si vous avez envier de plonger avec moi dans quelques autres ressources qui m’ont particulièrement marqué (et ce n’est qu’un tout petit échantillon de ce que j’ai consulté), suivez le guide.
Les impacts économiques
L’IA générative soulève de nombreuses questions économiques — bien au-delà de sa supposée magie technologique.
Premièrement, il y a la question de l’emploi. Contrairement aux discours rassurants, certains métiers sont bel et bien menacés, notamment ceux qui reposent sur des tâches répétitives ou standardisées. Par ailleurs, l’IA ne remplace pas seulement des postes, elle redéfinit les contours mêmes de certaines fonctions, en particulier dans les domaines du support, de la rédaction ou de la relation client.
Deuxièmement, la viabilité économique de ces technologies reste incertaine. Les coûts d’exploitation des IA génératives sont tels que leur pérennité n’est pas garantie. Entre les infrastructures colossales, la consommation énergétique et des modèles économiques encore flous, certains experts évoquent une disparition partielle ou une concentration extrême du marché.
Enfin, il est essentiel de rappeler que ces outils ne sont pas gratuits – ni pour les utilisateurs, ni pour la planète. Les coûts cachés sont nombreux : abonnements, dépendance à des plateformes, exploitation de données… sans parler de l’impact environnemental. La question devient alors : qui va payer, et pour quoi exactement ?
Les impacts sociaux
Au-delà des enjeux économiques, l’IA générative soulève des questions sociales majeures, souvent passées sous silence dans les discours dominants.
Le documentaire de France 2 Les sacrifiés de l’IA (disponible sur Peertube)1 met en lumière une réalité peu connue : celle des travailleurs précaires qui entraînent, modèrent ou corrigent les productions de l’IA. Derrière chaque image ou texte généré, il y a souvent des heures de travail humain, mal rémunéré, effectué dans des conditions parfois indignes — notamment dans les pays du Sud.
Ces “travailleurs fantômes” sont essentiels au bon fonctionnement des IA génératives, mais restent largement invisibilisés. Leur exploitation soulève une question éthique centrale : peut-on vraiment parler de progrès technologique quand il repose sur une forme de néo-taylorisme numérique ?
Par ailleurs, l’IA générative risque aussi de renforcer certaines inégalités sociales : accès inégal aux outils, biais dans les données, standardisation des contenus… Autant de dérives possibles qui exigent une vigilance accrue, notamment dans le champ de la formation.
Les impacts écologiques
Vous avez probablement déjà entendu dire que nous vivons dans un monde VICA (ou VUCA en anglais) : volatile, incertain, complexe et ambigü. Lors d’un séminaire de recherche en Suisse, Charles-Henri Russon a proposé une variante intéressante : VICAL (ou VUCAL) — en y ajoutant un “L” pour “limité” (limited). Car notre monde n’est pas seulement incertain ou complexe : il est aussi limité.
“Celui qui croit qu’une croissance infinie peut continuer indéfiniment dans un monde fini est soit un fou, soit un économiste.” — Kenneth Boulding
Certaines ressources sont renouvelables (bien que le jour du dépassement recule chaque année), mais d’autres ne le sont tout simplement pas : énergies fossiles, métaux, terres rares, etc.
Or, l’IA générative — comme le numérique en général — consomme énormément : énergie, eau, puissance de calcul, infrastructures… Elle ne vit pas d’amour et d’eau fraîche. Comme le rappelle Aurore Stéphant dans son interview sur Thinkerview, l’extraction des ressources nécessaires à ces technologies a un coût humain et environnemental majeur.
Même si l’on faisait abstraction des impacts sociaux ou économiques, l’IA générative repose sur un modèle énergivore, dans un monde où l’énergie devient de plus en plus rare et chère. Miser massivement sur cette technologie sans plan B, comme le recommandent certains consultants, relève d’une forme d’aveuglement stratégique.
En tant que décideur, et sachant cela, miseriez-vous un euro sur une technologie aussi mal partie ?
Si vous n’avez que 20 minutes à consacrer à ce sujet, je vous recommande vivement la conférence de Tristan Nitot : L’humanité peut-elle s’offrir l’IA ? [Spoiler/Divulgâchage : non]. Il y explique très clairement pourquoi il faudra faire des choix — et pourquoi nos ressources limitées devraient être réservées à des usages réellement utiles… plutôt qu’à générer des “Starter Packs” sur les réseaux sociaux.
Même Jean-Marc Jancovici, dans son interview sur la chaîne HugoDécrypte, commence à alerter sur les dérives de l’IA. Je n’ai pas sa notoriété, mais je me réjouis de voir ces évidences enfin relayées dans le débat public — des évidences que j’évoquais déjà en mars 2023 dans notre podcast.
Les impacts psychologiques et cognitifs
Le numérique transforme nos cerveaux. Et ses effets sont loin d’être neutres.
Dans cette vidéo percutante de Cal Newport, l’auteur et chercheur partage les résultats d’études récentes sur l’impact des smartphones et des réseaux sociaux — notamment chez les jeunes. [Spoiler/Divulgâchage : cela dépasse l’entendement.]
Les effets sur l’attention, la mémoire de travail, l’anxiété et la capacité à se concentrer sont tels qu’il devient urgent d’en faire un enjeu de santé publique — et pas seulement pour les adolescents.
Le risque est clair : à force de déléguer nos tâches cognitives aux machines, nous désentraînons notre cerveau. Moins de mémoire, moins de concentration, moins d’esprit critique.
Et si l’on pousse la réflexion, il faut aussi parler de déclin cognitif. À trop s’appuyer sur des outils qui pensent à notre place, on risque de perdre ce qui fait notre singularité : notre capacité à raisonner, à douter, à apprendre lentement.
Les impacts sécuritaires
L’IA générative n’est pas seulement une question de productivité ou de créativité. Elle pose aussi des problèmes de sécurité majeurs, souvent sous-estimés.
Le collectif Pause IA, soutenu par des chercheurs, ingénieurs et experts en cybersécurité, appelle à un moratoire sur le développement des IA les plus puissantes. Leur message est clair : nous allons trop vite, sans garde-fous suffisants. Maxime Fournes, porte-voix de cette initiative, résume la situation sans détour : “Il est urgent de mettre l’IA en pause.”
Pourquoi ? Parce que tout est fait pour nous contraindre à utiliser l’IA, souvent sans même en avoir conscience. Les grandes entreprises de la tech l’intègrent partout : outils bureautiques, moteurs de recherche, CRM, plateformes de formation… jusqu’à ce qu’il devienne difficile de s’en passer.
Mais cette dépendance croissante s’accompagne de risques systémiques : fuites de données, manipulations de masse, attaques automatisées, perte de contrôle sur les décisions critiques…
La dynamique systémique : hypothèse de la Reine Rouge
Et si nous étions en train de scier la branche sur laquelle nous sommes assis ?
L’hypothèse de la Reine Rouge, inspirée du roman De l’autre côté du miroir de Lewis Carroll, suggère qu’il faut courir de plus en plus vite… simplement pour rester à la même place.
C’est exactement ce qui se passe dans notre métier.
Toujours plus vite.
Toujours plus standardisé.
Toujours plus automatisé.
L’IA générative nous permet de produire en masse, à moindre coût. Tentant, non ?
Mais à force d’industrialiser notre métier, on le vide de sa substance :
Moins de personnalisation, plus de formats génériques.
Moins de réflexion pédagogique, plus de copier-coller d’outils prêts à l’emploi.
Moins d’accompagnement humain, plus d’automatisation.
Résultat : notre propre métier devient simplifiable, donc automatisable.
Si nous jouons le jeu du “toujours plus”, nous rendons notre rôle non seulement remplaçable, mais obsolète.
À la prochaine évolution technologique — au hasard, des électrodes dans le cerveau pour augmenter nos capacités cognitives — nous pourrions être tentés de l’adopter, non pas pour courir plus vite que les autres, mais juste pour ne pas nous faire dépasser.
Nous sommes tels des hamsters, courant dans une roue qui fait du surplace, sans avoir vraiment le choix de nous arrêter.
L’IA est une drogue
Pas au sens de l’addiction.
Pas au sens de la perte de contrôle.
Mais au sens de l’EPO pour les cyclistes : une substance qui permet de tenir la cadence dans un monde productiviste, où il faut toujours faire plus, aller plus vite, livrer mieux.
L’IA, ce n’est pas une révolution magique.
C’est un soutien de performance, un moyen de rester dans la course, d’absorber des charges de travail toujours plus lourdes… sans craquer.
Mais si l’IA devient notre EPO…
Qui fixe le rythme ?
Et surtout : pourquoi faut-il aller si vite ?
Dans la conférence de Tristan Nitot, déjà citée, il partage une citation que j’adore et qui éclaire bien notre difficulté à voir clair dans ce débat :
“Il est très difficile d'expliquer quelque chose à quelqu’un quand il est payé pour ne pas le comprendre.” — Upton Sinclair
Même si nous savons.
Même si nous doutons.
Même si nous sommes dans le déni…
La course continue.
Et elle risque de s’accélérer encore.
Et force est d’avouer qu’il est difficile de s’arrêter — au risque d’être dépassé, de perdre son emploi ou ses clients, et plus encore.
Ma prédiction : nous allons subir deux vagues
Bref, en tentant de prendre de la hauteur et en combinant toutes ces données et faits, je me demande : où allons-nous ? Nous, professionnels de la formation et, surtout… nous, les humains, en général.
L’une des meilleures vidéos que j’ai vues sur ce qui se trame, notamment en termes d’impact sur les entreprises et l’emploi, est celle d’Eliott Meunier : “L’âge d’or des polymathes”.
Je suis sincèrement d’accord avec lui : la grande majorité des professions du tertiaire seront remplacées par l’IA et ses dérivés. La mienne y compris — ou plutôt mes activités, si je compte mon activité de conseil.
On pourrait arguer qu’il faut “monter en compétences”, développer son expertise, avoir plus de valeur ajoutée… En théorie, cela se tient.
Mais je pense, comme Rémi Garcia sur LinkedIn (qui partage une prédiction très proche de la mienne), que la logique de notre système — capitalisme, productivisme, peu importe le nom —, qui consiste à se satisfaire d’un travail de qualité inférieure quand cela coûte beaucoup moins cher, aura notre peau.
Je le cite à deux reprises :
“Les entreprises préfèreront toujours une production moyenne et foireuse générée en 10 secondes à une production de qualité qui prend plusieurs jours. C'est une simple question de rentabilité et de productivité.”
“À terme, le médiocre deviendra la norme. Parce qu’il suffit. Parce que les attentes sont déjà faibles. Parce qu’à force d’être exposés à des productions pauvres, elles deviennent acceptables.”
L’exemple des traducteurs en est une preuve : le marché s’est effondré, les prix ont chuté drastiquement, et ceux qui conservent des missions ne sont plus que des correcteurs d’IA. Fini le travail de compréhension profonde, de réflexion sur le choix des mots…
Je pense donc que chacun devrait se poser de sérieuses questions sur les années à venir et ce qu’il souhaite faire de sa vie professionnelle.
Ma prédiction ?
Nous allons traverser deux vagues successives : une vague de destruction, puis une vague de reconstruction.
La vague de destruction
Je parle ici prioritairement de destruction des emplois, mais en lisant les lignes précédentes, vous aurez bien compris que d’autres choses auront été détruites.
La cause majeure est la croissance exponentielle de l’IA. Ne pensons pas à l’IA telle qu’elle existe en 2025. Pensons à l’IA telle qu’elle est bien partie pour être d’ici 2030.
Nous n’en sommes qu’au début. La vitesse de progression est impressionnante, et d’ici 2030, on peut s’attendre à des capacités bien plus avancées, capables de prendre en charge des tâches complexes, créatives ou décisionnelles. Ce sont les risques que dénonce, entre autres, l’Association française contre l’intelligence artificielle (AFCIA).
Cette vague causerait donc beaucoup de “casse” sur le plan économique et social. Perte d’emploi, inégalités qui se creusent, stress psychologique, besoin urgent de réinventer des filets sociaux…
La vague de reconstruction
J’espère vous avoir convaincu que l’IA n’était pas durable. Les coûts qu’elle induits (économiques, sociaux, environnementaux, énergétiques, psychologiques, etc.) sont tels qu’elle sera amenée à être utilisée, au mieux, pour des applications bien spécifiques, notamment dans la recherche ou la santé (à nouveau : voir la conférence de Tristan Nitot précédemment citée).
Quand ces coûts ne seront plus supportables pour la société, il sera alors temps de recourir à nouveau aux humains pour “faire le job”. Mais il y aura eu énormément de casse. En auront-ils envie ? Et auront-ils encore l’énergie et les compétences pour le faire ?
Le retour des humains dans certains rôles ou domaines pourrait avoir lieu, mais ce sera plus compliqué qu’avant. Les compétences auront évolué, les attentes aussi, et tout le monde n’aura pas la capacité ou la volonté de s’adapter.
Bonne nouvelle pour les professionnels de la formation encore en activité (ou qui voudront reprendre du service) : il faudra (re)former massivement !
Vous voyez qu’il y a quand même du positif dans cette histoire. 🙂
Ma posture personnelle : un pied dans le monde actuel, un pied dans le monde d’après
Si cette prédiction se confirme, que faire ?
La réponse vous appartient, bien sûr. Je peux simplement partager comment j’envisage les choses, pour ma part.
Un pied dans le monde actuel
Je ne vais pas “jeter le bébé avec l’eau du bain” ni tourner définitivement le dos à ma carrière dans la formation. Pas tout de suite, en tout cas. Je continue à avancer sur des sujets essentiels comme l’évaluation des formations, le transfert des apprentissages, ou encore le Knowledge Management (KM).
Je fais un pari, un peu osé : préserver mes capacités cognitives coûte que coûte, en n’utilisant pas l’IA générative, ou en limitant son usage à des cas très ciblés — par exemple pour l’exploitation et la synthèse documentaire. D’ailleurs, peut-on vraiment parler d’IA quand il s’agit simplement d’un moteur de recherche performant et d’une simple application servant à résumer des documents ?
Pour qui souhaite vraiment l’utiliser, même ponctuellement, je retiens la recommandation de Denis Cristol : utiliser l’IA comme une orthèse, et non comme une prothèse. Cela signifie concrètement :
Faire soi-même, ne pas tout déléguer à l’IA. Avant tout, garder la main, comme l’explique régulièrement le philosophe Éric Sadin.
Considérer, au mieux, l’IA comme un(e) collègue, un outil d’aide, pas comme son remplaçant.
Le cas échéant, s’appuyer sur des petites IA locales, optimisées et peu énergivores (nous en sommes encore très loin). Une sorte de NotebookLM mais installé sur son ordinateur et limité à aux contenus que l’on voudra bien lui donner. Je construis jour après jour mon “second cerveau” (numérique) avec Obsidian et j’avoue ne pas avoir besoin de l’IA pour cela…
Un pied dans le monde d’après
Ce monde d’après ressemblera probablement à un retour aux compétences manuelles et locales, bien plus qu’à de l’expertise ultra-pointue vendue via Internet — du moins durant la phase de “vague de destruction”.
J’ai donc en tête un plan B — voire plusieurs — pour occuper mes journées pendant cette période. Je reprendrai du service dans la formation lors de la deuxième vague. Ou pas.
Pour les Français(es), n’oubliez pas que le CPF peut être un allié précieux pour envisager une reconversion (notamment le CPF de transition).
Je recommande aussi chaudement la lecture de l’essai Éloge du carburateur, une réflexion stimulante sur ce que signifie vraiment “travailler”. Il nous aide aussi à identifier les métiers vraiment essentiels (un indice : ceux qui restaient en activité pendant les confinements des dernières années…). Ce sont probablement ces métiers qui sont les vrais “métiers du futur” (et pas ceux que l’on nous présente dans les études délirantes qui ne tiennent pas compte des limites planétaires évoquées précédemment).
Passez à l’action
Bien sûr, je peux me tromper. D’ailleurs, sur certains points, j’aimerais me tromper. Mais malgré mes recherches, je n’ai trouvé aucune source solide pour contredire l’ensemble des éléments exposés ici.
Si mon propos vous parle, je vous invite à agir en conscience et avec lucidité :
(Re)consultez les ressources proposées ici et continuez à vous informer : ce sujet est complexe et évolutif. Il faut du temps pour admettre que nous allons droit dans le mur et la lecture de cette seule édition ne suffira peut-être pas à vous convaincre.
Stoppez ou modérez l’utilisation de l’IA générative : dans le cas où vous décideriez de l’utiliser (notamment parce que vous y êtes contraints professionnellement), privilégiez une approche raisonnée, mesurée, et consciente de ses limites. Surtout, gardez la main sur vos capacités cognitives : entraînez-vous à faire sans IA, un peu comme on cherche parfois sa route sans GPS, pour ne pas perdre votre autonomie intellectuelle.
Préparez un plan B pour votre emploi : anticiper, explorer d’autres pistes, se former à d’autres compétences, c’est prendre votre avenir en main.
Votre posture face à l’IA aura des impacts multiples : à court terme, des opportunités ou des risques pour votre carrière et rémunération ; à moyen et long terme, des conséquences économiques, sociales, écologiques et sociétales. Il est donc vital de choisir votre position en connaissance de cause — et surtout de l’assumer pleinement.
Je vous ai livré la mienne, fidèle à mon manifeste, sans prétendre être un modèle à suivre. J’espère simplement vous avoir offert matière à réflexion.
Ce sujet peut paraître anxiogène — et je vous avoue que moi-même, il me travaille. Mais c’est en en parlant, en partageant, et surtout en agissant, que nous avançons. L’action est le meilleur remède contre l’angoisse.
N’hésitez pas à me contacter pour prolonger la discussion. Je ne construirai rien seul. Et vous non plus. Personne ne le fera à votre place.
Bonne réflexion et à dans quelques semaines pour une nouvelle édition,
Jonathan
P.S. : si vous avez apprécié cette édition, n’hésitez pas à cliquer sur le cœur et à la partager avec votre entourage professionnel.
Quand vous le souhaiterez, je peux vous aider de cinq manières :
Le livre L’évaluation de la formation : qualifié d’utile et pragmatique par les lecteurs des trois premières éditions (plus de 6 000 exemplaires vendus). La quatrième édition, coécrite avec Jean-Luc Gilles, présente une refonte de 80 % du texte.
Programmes de certification : le moyen le plus efficace pour monter en compétences sur l’évaluation de l’impact des formations (Kirkpatrick) ou le transfert des apprentissages (Learning Transfer Designer). Vos formations prendront une nouvelle dimension. Et vous aussi.
Conseil sur demande : le moyen le plus simple et accessible pour avancer sur l’une de vos problématiques. D’autres prestations sont également possibles.
Parrainage de l’infolettre : vous pouvez soutenir sa diffusion et gagner en visibilité auprès d’un public engagé dans la formation.
Formations numériques : outils collaboratifs (Microsoft 365), cybersécurité, administration systèmes… Sur ces sujets, les experts de l’Académie Agesys vous aideront à adopter les meilleures pratiques.
Dans ce documentaire, l’une des intervenantes tient aussi des propos forts au sujet des impacts environnementaux :
“Je ne pense pas qu’il soit possible de développer des technologies sans nuire à la nature et à la planète. Les technologies sont basées sur l’exploitation des ressources naturelles et du travail. La question, c’est de savoir jusqu’où nous sommes prêts à nuire à la planète et à quelle fin. Si l’on se préoccupe du coût écologique d’une question qu’on pose à ChatGPT, il faut se demander si cette question est si importante que ça. Avons-nous vraiment besoin de ChatGPT pour y répondre ? On pourrait peut-être réfléchir nous-mêmes.”

Il y a une trentaine d'années, à l'apparition de Photoshop, des débats similaires ont eu lieu dans le monde graphique. On a assisté effectivement dans un premier temps à une baisse de qualité. Puis, les professionnels en ont fait un de leurs outils tandis que les non-professionnels ont vite compris les limites des filtres et ont pâti de la piètre qualité de leurs productions visuelles.
Un équilibre a été trouvé. Merci pour cete article!
Un grand merci pour ton propos, je tire les mêmes constats, m'implique à ma petite échelle de colibri en rejoignant PauseIA, en ayant la volonté de parler d'IA u sein d'une asso : le sujet "perturbe" en profondeur, il est important, comme tu le dis, de partager... Emmanuelle.