ChatGPT et les devoirs : les dangers que vous devez connaître
ChatGPT est le dernier et le plus important modèle de grand langage (LLM) d'OpenAI, et il excelle dans les conversations en langage naturel. Le chatbot aux capacités surprenantes fait la une des journaux depuis sa première révélation en novembre 2022. À ce jour, nous avons tous vu de nombreux cas où le modèle a produit un texte plausible et cohérent. Naturellement, les gens ont commencé à l'utiliser pour aider à faire le travail et comme un moyen d'essayer de gagner de l'argent, par exemple en générant du contenu pour se faire passer pour le leur. L'adoption rapide de ChatGPT est due au fait que tout le monde peut utiliser l'outil AI gratuitement, et il existe désormais un plan Plus de 20 $ par mois qui offre encore plus de fonctionnalités.
En tant que tel, il n'est pas surprenant que les étudiants aient commencé à tirer parti de ChatGPT pour faire leurs devoirs. Cela a suscité un débat considérable autour de l'IA et de son rôle dans l'écriture et l'éducation dans son ensemble. Certaines écoles et universités ont déjà annoncé des interdictions strictes d'utilisation de cette technologie, et certains éducateurs ont signalé avoir attrapé des étudiants qui utilisaient ChatGPT pour tricher. Si vous envisagez de prendre le risque vous-même, il y a quelques bonnes raisons de reconsidérer qu'une IA fasse vos devoirs pour vous.
Il existe des outils qui peuvent repérer le texte généré par l'IA
Vous pouvez dire qu'il est extrêmement difficile de déterminer si un morceau de texte est généré par des modèles de type ChatGPT, mais ce n'est pas le cas. La croissance rapide de l'outil d'IA et d'autres similaires a stimulé le développement d'outils similaires conçus pour repérer le texte généré par l'IA, et la science derrière cette détection ne fait que commencer. Par exemple, une étude soumise en janvier 2023 a affirmé une précision de 79 % lors de l'utilisation d'un modèle d'apprentissage automatique pour repérer le texte créé par des humains par rapport au texte généré par un chatbot comme ChatGPT.
Les enseignants et les professeurs ont accès à plusieurs outils capables d'analyser rapidement la dissertation d'un étudiant et de fournir une estimation fiable indiquant si elle a été générée par l'IA. L'un de ces outils s'appelle GPTZero, qui compte déjà plus d'un million d'utilisateurs. Un autre outil s'appelle OpenAI Detector, qui a été conçu pour repérer le contenu généré par GPT-2, qui a été publié par OpenAI en 2019. Une fois que la malhonnêteté académique est signalée à l'aide de ces outils, elle peut entraîner l'expulsion ou d'autres sanctions sévères, selon sur les politiques de votre école.
AI peut vous donner des informations incorrectes
OpenAI affirme que son travail avec des modèles antérieurs a conduit à une génération de contenu de meilleure qualité, y compris une diminution des fausses données. Malgré cela, ChatGPT est toujours enclin à présenter des informations incorrectes d'une manière qui semble fiable. La raison derrière cela est qu'à la base, ChatGPT n'est qu'un modèle autorégressif qui apprend à prédire le mot suivant dans un certain contexte. En termes simples, il n'y a pas de raisonnement ou de base de connaissances bien définie qu'il exploite pour générer du texte. Par conséquent, le modèle n'est pas fiable, à tout le moins, par rapport à une recherche Google traditionnelle. Ce problème intrinsèque avec ChatGPT pourrait se retourner contre lui lorsqu'il est déployé dans des contextes professionnels et universitaires.
Par exemple, Bing Chat de Microsoft et le chatbot Bard de Google ont tous deux présenté des informations incorrectes lors de leurs dévoilements respectifs - et dans le cas de Microsoft, son IA a même généré des détails entièrement inventés, mais les a présentés d'une manière qui semblait autoritaire et digne de confiance. La question des erreurs générées par l'IA a déjà mis certains étudiants dans l'eau chaude.
Business Insider rapporte un professeur, par exemple, qui a compris que son élève utilisait l'IA pour tricher parce que son essai présentait des erreurs factuelles d'une manière bien écrite. Un autre éducateur a expliqué que même si les essais générés par l'IA peuvent être raffinés, ils ont tendance à être "duveteux" et manquent de toute sorte de substance réelle. Ces indicateurs évidents combinés aux outils de détection de l'IA rendent l'utilisation de ChatGPT pour les devoirs particulièrement risquée, et il est peu probable que cela change de si tôt.