Usage de l'intelligence artificielle - Université Bordeaux Montaigne

Engagement collectif sur l’usage de l’intelligence artificielle dans la recherche à l’Université Bordeaux Montaigne

Parvis de l'Université Bordeaux Montaigne ©Gautier Dufau

Cet engagement collectif a été adopté à l’unanimité par la commission de la recherche de l’Université Bordeaux Montaigne. Il propose une approche différente, même si, comme nombre d’autres chartes, il commence par prendre acte des critiques adressés à ces outils – biais invisibles, origine des corpus, empreinte environnementale, etc.

Focalisé sur la seule activité de recherche – comprise comme allant du master à l’exercice quotidien des chercheurs et enseignants-chercheurs –  ce texte ne constitue tout d’abord ni une charte ni un règlement : l’absence de tout outil de vérification opposable implique de construire au sein de notre communauté non un cadre contraignant mais un principe d’adhésion.

Ce texte s’efforce ensuite de produire un crible efficace, adapté aux Arts, Lettres, Langues, Sciences humaines et sociales, avec trois grandes lignes directrices pour l’utilisation de ces systèmes :

  • aucun usage relevant de la création ou de l’écriture proprement dites ;
  • un usage raisonné pour des tâches d’assistances, avec trois tests simples pour le vérifier ;
  • enfin, un usage documenté et évalué pour des situations de recherche émergentes rendues possibles par ces outils.

Destiné à être révisé périodiquement, ce document se veut bref, utilisable et convaincant en s’appuyant sur une approche éthiques et pragmatique partagée, formulée après un long dialogue avec de multiples acteurs de l'établissement. Il ne cherche ni à épuiser les situations concrètes, ni à nier la complexité des usages (où commence l’« écriture », ou finit l’assistance ?) ni à proscrire l’invérifiable, mais il entend offrir plus que des principes généraux et plus qu’une liste vouée à l’obsolescence immédiate par l’évolution des outils.

Objectif du document

Ce texte s’adresse à toutes celles et ceux qui pratiquent la recherche à l’Université Bordeaux Montaigne, étudiants en master ou en doctorat, chercheurs ou enseignants-chercheurs et personnels d’appui. Il vise à poser des principes partagés sur l’usage de l’intelligence artificielle (IA)[1] et plus particulièrement des IA génératives dans les pratiques de recherche à l’Université Bordeaux Montaigne.

L’IA représente à la fois une opportunité — en facilitant certaines opérations techniques ou analytiques, en permettant l’émergence de résultats inatteignables jusqu’alors, en obligeant à expliciter les normes, attendus et compétences mobilisés en recherche — et une menace — d’abord parce qu’elle permet une production abondante et frauduleuse venant saturer les mécanismes d’évaluation de la recherche, ensuite parce qu’elle affecte l’intégrité scientifique et la fiabilité des travaux pour lesquels elle est mobilisée. Elle semble pouvoir produire une transformation des cadres de production du savoir, des hiérarchies entre disciplines, des normes de scientificité et même les régimes de visibilité des objets et des voix étudiées (biais culturels des modèles, effacement des voix minoritaires, etc.)

Ces questions propres à la recherche s’articulent à des doutes plus larges en termes de soutenabilité économique, d’impact environnemental, de contournement du droit d’auteur ou encore de souveraineté géopolitique. Ces questions ne sont pas traitées directement dans ce document, mais les critiques adressées à ces modèles sous-tendent bien entendu les principes exposés ici.

[1] Le terme IA désigne principalement ici les systèmes d’IA génératives fondés sur des modèles de langage LLM et des modèles de génération d’images, capable de produire textes, image ou représentations symboliques. Les outils numériques classiques (gestion bibliographique, par exemple) ne sont pas concernés, sauf lorsqu’ils intègrent explicitement des fonctions d’IA génératives. 

  1. Il importe que l’écriture — étape essentielle de la formulation et de la portée d’une pensée scientifique, notamment en ALLSHS — appartienne en propre à celui ou celle qui en revendique la paternité et qui en accepte la responsabilité. De là découle un principe que nous devons nous imposer : rien de ce qui est produit dans le cadre de la recherche — qu’il s’agisse d’un mémoire de master, d’une thèse ou d’un article — ne doit avoir été écrit par une IA.

    Au-delà d’une logique de traçabilité et de responsabilité, le fonctionnement actuellement opaque des IA génératives ne permet pas de savoir si le texte produit est une imitation de textes antérieurs ayant servi à l’entraîner, ou une reproduction de parties de ceux-ci, qui confine au plagiat. Les modèles produisent par ailleurs des formes de discours normées, dominantes, reproduisant une pensée moyenne, qui peuvent qu’appauvrir la pluralité des styles, des cadres théoriques et des voix, en particulier dans nos disciplines. Cette double incertitude suffit à elle seule à motiver cette prohibition.

    Des cas apparemment marginaux ou ambigus peuvent cependant se présenter, notamment l’usage de l’IA pour la traduction automatique, la correction ortho-typographique ou la remédiation face à des troubles avérés. Ces usages sont couverts par le deuxième principe.

    L’université se positionne donc pour interdire tout usage de l’IA comme production verbale originale, et étend également cette interdiction à la production d’images, de vidéos ou de documents sonores : qu’il s’agisse de simples illustrations, dont la place en recherche est déjà discutable, de document promotionnels (affiche, etc.) ou à plus forte raison de documents probants.

    Là encore, certains cas marginaux peuvent être ambigus, comme l’utilisation de filtres dans des logiciels de retouche d’image. L’appréciation de ces situations sera laissée à la responsabilité des collègues et des étudiants concernés, dans le cadre du deuxième principe.

  2. Cette catégorie est vaste et englobe un ensemble d’outils qui peuvent être utilisés en arrière-plan de la recherche, sans apparaître dans le travail final. Ces outils ne sont pas neutres, pas plus que n’importe quel traitement algorithmique, mais ils peuvent servir à consolider des compétences et à gagner en efficacité.

    Cette catégorie inclut, par exemple, les fonctions de correction orthotypographique ou l’usage d’une IA pour détecter des répétitions gênantes. De même, l’usage d’un assistant IA pour améliorer un système de classement de fichiers sur un disque dur ne semble pas poser de problème fondamental.

    Dans un autre registre, l’interaction avec ces outils conversationnels peut aider à réfléchir à une structure ou au cheminement d’une idée, ne serait-ce qu’en obligeant à formuler explicitement les paramètres d’une recherche. Cet usage doit cependant rester centré sur les compétences propres du chercheur ou de la chercheuse, lui permettant de ne pas reproduire les parti-pris invisibles de modèles entraînés sur des corpus historiquement situés, socialement structurés et politiquement orientés.

    Ces usages incluent aussi, et de façon plus fondamentale, des fonctions de conversion d’un type de données en un autre. La transcription de données audio, la conversion d’éléments textuels en données organisées dans un tableau ou dans une base, le « nettoyage » d’une base de données mal renseignée, sont autant d’exemples de ces utilisations.

    Avant d’utiliser un outil d’IA, il est proposé de se poser les questions suivantes :

    • Est-ce que je fais traiter à l’IA des données ou documents sans le consentement de leurs auteurs ou propriétaires ?

    Il est en effet impossible de partager sur une IA publique des documents de recherche sans consentement explicite des auteurs et autrices. Sans accord de ce type, il est par exemple impossible d’utiliser une IA publique pour expertiser un article de recherche ou pour vérifier si les articles soumis à une revue sont conformes à sa feuille de style.

    Le partage des documents de recherche et de données personnelles – issues d’entretiens, d’enquêtes ou de dossiers administratifs, par exemple – doit être strictement encadré, en fonction du type d’outil utilisé (solution publique commerciale, solution institutionnelle, modèle local, outil spécialisé), du cadre juridique applicable (droit d’auteur, licences, RGPD) et des garanties offertes en matière de confidentialité et de traçabilité.

    • Cet outil remplace-t-il une compétence que je devrais développer ?

    Si oui, son usage ne peut être que ponctuel et accompagné d’une démarche d’apprentissage. La délégation à une boîte noire sans disposer des compétences techniques, critiques et théoriques permettant d’évaluer et de corriger éventuellement les résultats ne peut devenir une situation récurrente.

    • Existe-t-il une alternative moins énergivore ou moins vulnérable aux biais invisibles ?

    Si oui, il convient de privilégier cette option (outil local, IA spécialisée, etc.). Par exemple, il est tout à fait possible de demander à un LLM de convertir un article afin qu’il adopte une norme de citation donnée, mais Zotero permet de réaliser cette opération de façon plus précise et plus sobre. Ainsi encore, une IA ne peut et ne doit remplacer un moteur de recherche, plus sobre sur le plan énergétique et offrant des biais ou zones d’ombres moins difficiles à détecter.

    Si la réponse est négative à ces trois questions, l’usage de l’IA peut être considéré comme acceptable dans le cadre de la recherche, et selon sa centralité dans le travail, il doit être documenté dans une note ou une section méthodologique dédiée (précisant le modèle utilisé, ses paramètres, les prompts et les données traitées en intégrant aussi une réflexion sur les biais possibles de ces traitements). Il ne peut en aucun cas servir à générer des données ou des principes d’organisation de la pensée ; ces usages travaillent sur des données et des mots entièrement contrôlés par le chercheur ou la chercheuse. Ils soulèvent donc des questions éthiques moins pressantes (même si les données sur lesquelles le modèle a été entraîné peuvent induire des biais conséquents) et minimisent les risques d’invention ou d’hallucination de la part de l’IA.

    À titre d’exemple : la génération d’une frise chronologique dans un document historique est une opération que les outils de bureautique classiques gèrent mal. Elle est coûteuse en temps et difficile à automatiser. Utiliser ponctuellement une IA pour générer une frise peut s’avérer acceptable.

  3. Ce troisième principe recouvre l’ensemble des usages pour lesquels l’IA permet de faire apparaître des résultats impossibles à produire jusqu’alors, généralement parce qu’ils auraient nécessité une force de travail impossible à mobiliser dans les faits. Elle concerne donc en particulier les corpus volumineux ou les masses de données importantes. Dans ces cas, un traitement automatisé réalisé par l’IA peut aider à rendre ces données lisibles et à modéliser des relations complexes, offrant une perspective nouvelle pour la recherche ou pour sa diffusion ; l’établissement encourage les expérimentations en ce sens (en gardant à l’esprit les réserves sur la propriété des données), en invitant aussi au partage des méthodes, à la traçabilité et à la transparence scientifique.

    Il convient cependant d’évaluer soigneusement la qualité et la fiabilité des résultats produits. Par définition, ces traitements à grande échelle ne permettent pas une relecture exhaustive et introduisent donc une part d’imprécision, voire d’erreur ou “d’hallucination”, qui sont en réalité des résultats purement probabilistes, déconnectés de toute base de connaissance.

    Des tests réalisés sur une fraction du corpus doivent alors établir un indice de confiance (par exemple, une indexation automatique fiable dans 95 cas sur 100). Il faut ensuite déterminer si ce niveau de fiabilité est suffisant : 95% de fiabilité est certainement utile s’il s’agit de produire des résumés automatiques dans une base de données grand public, mais absolument inacceptable pour un traitement de données médicales. Il convient également, et, dans tous les cas, d’afficher explicitement cette marge d’erreur dans les résultats, qu’ils soient destinés au public ou à un usage de recherche.

footer-script