Après la postvérité, le postplagiat ?

Une fois par mois, Le Devoir lance à des passionnés de philosophie le défi de décrypter une question d’actualité à partir des thèses d’un penseur marquant.
Le déploiement massif de l’intelligence artificielle (IA) générative par la mise en ligne du grand modèle de langage (GLM) d’OpenAI, en novembre 2022, a eu l’effet d’une bombe dans le monde de l’éducation, plus particulièrement en éducation supérieure. Autopsie du paradigme de l’évaluation des connaissances et des compétences à l’aube de l’ère postplagiaire.
Comme l’éducation supérieure vise à former des étudiants de plus en plus autonomes intellectuellement et, progressivement, capables de contribuer à l’avancement des connaissances dans leurs domaines de spécialisation, dès le cégep, les enseignants se font un point d’honneur de transmettre les valeurs d’intégrité intellectuelle et les méthodes qui la promeuvent. De fait, dans un univers pédagogique où l’accent est mis sur le produit final des apprentissages, sans l’authenticité et la transparence de la démarche, il deviendrait impossible d’évaluer le processus intellectuel ayant permis à l’étudiante ou à l’étudiant d’arriver aux conclusions présentées.
Cet état de fait persiste depuis des siècles dans les cercles intellectuels où l’omission de citer une source d’inspiration, surtout depuis le siècle des Lumières, était susceptible de faire sourciller la communauté entière. Le caractère élitiste et donc restreint de ces groupuscules scientifiques jumelé aux occasions d’édition tout aussi limitées faisait en sorte que toute omission était susceptible d’être aisément pointée du doigt.
Plus encore, la dialectique qui s’est naturellement instituée entre les porte-étendards des divers courants philosophiques et scientifiques fait qu’il était de coutume de répondre à l’œuvre d’un adversaire idéologique en publiant à son tour des critiques dans un ouvrage lui étant même parfois directement adressé. Ainsi, c’est un peu à la manière d’un roman épistolaire entre ces figures de proue que la science moderne s’est construite.
Toutefois, plus le nombre de scientifiques participant activement à cette joute dialectique a augmenté, plus les possibilités de publication se sont démocratisées — notamment par la mise sur pied de revues scientifiques consacrées à des champs d’études précis —, plus il est devenu urgent de développer un système de référencement efficace. C’est ainsi que la science est, en quelque sorte, sortie du paradigme épistolaire pour entrer dans un paradigme de référencement plus étendu qui permettait à tout un chacun de prendre un ouvrage et d’en découvrir les sources d’inspiration au fil de sa lecture — un peu comme si on pouvait maintenant entrer dans une conversation qui dure depuis des siècles et tout de même en suivre le fil… pourvu que l’on fasse les efforts nécessaires pour en retrouver et en comprendre les sources.
Transparence
Or, le fait même de considérer que nos idées ont été influencées par telle ou telle autre personne et de pouvoir, en apparence du moins, en retrouver la genèse est fondamentalement problématique. Plusieurs découvertes scientifiques majeures comportèrent une bonne part de hasard, comme si c’était du contexte scientifique général qu’émergeaient les nouvelles connaissances et que celles-ci venaient au monde par un processus plus près de celui de la génération spontanée que d’un éclair de génie attribuable à un seul individu.
Thomas S. Kuhn, dans son ouvrage majeur La structure des révolutions scientifiques (1962), exemplifie ce phénomène en relatant l’histoire de quelques changements de paradigme scientifiques.
Il nous rappelle notamment que le paradigme normal de la science physique fut bouleversé lorsque les physiciens durent abandonner la physique mécaniste de Newton au profit de la théorie de la relativité restreinte d’Einstein ; ou encore que le paradigme normal en chimie des gaz le fut tout autant lorsque les chimistes durent laisser de côté la théorie de la « calorique » (jusqu’alors considérée comme un élément constituant de la chaleur) pour se rallier à Lavoisier dans ses explications relatives à la combustion de l’oxygène.
D’ailleurs, Kuhn ne prétend pas qu’il fut même facile de déterminer à qui revient, et à quel moment, la paternité de la découverte de l’oxygène : faut-il remonter jusqu’à Scheele, un apothicaire suédois qui avait déjà partagé une intuition au sujet d’un mystérieux gaz (qu’il avait poétiquement baptisé l’« air de feu ») à un certain Lavoisier dans une lettre datée de 1774 ? Ou encore à Priestley, qui identifia le gaz libéré par de l’oxyde rouge de mercure lorsqu’il est chauffé comme étant du « protoxyde de carbone » ?
Finalement, puisque ni l’un ni l’autre des précurseurs de Lavoisier n’avaient abandonné d’autres concepts erronés du phlogistique moderne, les historiens attribuent souvent la découverte de l’oxygène à Lavoisier, mais ne s’entendent pas sur le moment où celle-ci se serait produite puisque ses expérimentations sur le sujet s’échelonnèrent de 1775 à 1777. Même si cette attribution est la plus généralement acceptée, il n’en reste pas moins que le principal intéressé a toujours décrit l’oxygène comme un « principe atomique d’acidité » et non comme un nouvel élément du tableau périodique… Ce qui en pousse quelques-uns à douter de la réelle compréhension qu’avait Lavoisier de la nature de sa propre « découverte ».
En effet, peut-on raisonnablement attribuer à un chercheur, aussi importantes ses expériences fussent-elles a posteriori, le crédit d’une découverte sur laquelle lui-même se trompait ? Cela dépend bien sûr des critères que l’on choisira de mettre de l’avant pour justifier une telle attribution, mais le simple fait que les experts ne s’entendent toujours pas sur cette question montre bien à quel point le développement de la science, même dans le cadre normal de son paradigme, n’est pas linéaire. Et que l’histoire des sciences est, comme tout autre domaine d’étude, fondamentalement sujette aux interprétations et aux controverses.
Ainsi, se pourrait-il que l’opacité tant reprochée aux GLM qui sont, encore à ce jour, souvent incapables de retrouver avec précision les origines de leurs réponses, soit simplement à l’image de la nôtre, sans le fard flatteur de la construction sociale qu’est l’histoire ?
Boîte noire
Force est de constater que l’avènement de l’IA générative et de ses capacités surhumaines à traiter de l’information sans toutefois être en mesure d’exposer le processus qui a mené de la requête (prompt) au résultat mine sérieusement la transparence avec laquelle nous nous sommes habitués à travailler. Embêtées devant le statut à octroyer à l’IA dans leurs propres recherches (allant du simple outil de traitement de données indigne de mention à celui de cochercheur), les communautés scientifiques et les institutions qui les soutiennent multiplient les guides de référence et autres tentatives d’encadrement de ce qui ressemble de plus en plus à une révolution scientifique qui est en train d’enclencher, plus rapidement que jamais dans l’histoire des sciences, un changement de paradigme qui serait non pas disciplinaire — tel que ceux déclenchés par les découvertes de Newton ou de Lavoisier exposés précédemment —, mais transdisciplinaire.
En effet, il semble évident que l’avènement de l’IA bouleverse non pas un paradigme scientifique, mais philosophique : notre conception de la connaissance comme étant le fruit d’une série d’opérations entièrement transparentes et isolables qui mènent à une explication valide de phénomènes naturels.
Alors que nous avions collectivement pris l’habitude de considérer qu’une personne a réellement compris quelque chose lorsqu’elle peut offrir des explications détaillées, rationnelles et cohérentes de sa genèse, il convient de se demander s’il ne vaudrait pas mieux se tourner vers une conception collectiviste de la connaissance où toutes les intelligences — naturelles comme artificielles — sont mises à contribution pour élucider les plus grands mystères de l’Univers, et ce, sans s’embourber dans des guerres de clochers interminables qui contribuent peu à l’avancement des connaissances, mais qui sont nécessaires à la mécanique universitaire qui veut que plus un article est cité, plus les scientifiques qui en sont les auteurs reçoivent de la reconnaissance — sécurité d’emploi, prix et distinctions de toutes sortes, invitations à des symposiums internationaux, etc.
Pour en revenir aux effets très concrets d’un tel changement de paradigme pour les personnes chargées d’évaluer le degré d’atteinte d’une connaissance ou d’une compétence par leurs étudiants, cela impliquerait des changements pédagogiques de fond tels que l’évaluation de leurs processus cognitifs et de leurs propos — incluant les erreurs et les solutions pour y remédier — plutôt que du simple résultat final.
Ainsi, je suis d’avis qu’il est grand temps de valoriser la créativité, l’esprit critique et la tolérance à l’ambiguïté chez nos étudiants, quitte à sacrifier, pour ce faire, une certaine conception rigide de l’intégrité intellectuelle en leur permettant l’usage encadré de l’IA dans le cadre de leurs évaluations.
Au-delà de la crainte de tricherie qui hante les pédagogues, si l’on demande à nos étudiants d’aller plus loin que ce que peut remâcher la machine, on dégagera du temps pour qu’ils expriment leurs apprentissages de manière créative, individuelle, voire subjective. Nous continuerons ainsi à promouvoir ce qui est fondamentalement beau dans toute réalisation authentique : la présence d’imperfections, d’essais et d’erreurs, qui témoignent de l’acte profondément humain qu’est celui d’apprendre.
Pour proposer un texte ou pour faire des commentaires et des suggestions, écrivez à Dave Noël à dnoel@ledevoir.com.