NB : Conversation publiée par ZDNET

PROMPT : Montrez-moi au moins trois façons de détecter que ChatGPT a été utilisé pour produire un morceau de texte

Il existe plusieurs façons de détecter si ChatGPT ou un autre modèle de langage a été utilisé pour produire un morceau de texte. 


Voici trois approches possibles que vous pourriez utiliser :


  1. Recherchez les motifs répétitifs ou inhabituels dans le texte : Une façon de détecter si un modèle de langage a été utilisé pour générer un morceau de texte est de rechercher des modèles répétitifs ou inhabituels dans l’écriture. Par exemple, les modèles linguistiques peuvent répéter certaines phrases ou combinaisons de mots, ou utiliser des structures de phrases inhabituelles ou incohérentes.


  1. Vérifiez le manque d’originalité : Une autre façon de détecter si un modèle de langage a été utilisé pour générer un morceau de texte est de vérifier un manque d’originalité dans l’écriture. Si un texte semble être copié à partir d’une autre source, ou s’il contient des informations largement disponibles sur Internet ou dans d’autres sources, cela pourrait être un signe qu’il a été généré par un modèle de langage.


  1. Utilisez un vérificateur de plagiat : Enfin, vous pouvez utiliser un vérificateur de plagiat pour vérifier si un morceau de texte semble avoir été copié à partir d’une autre source. Bien qu’un vérificateur de plagiat puisse ne pas être en mesure de déterminer définitivement si un modèle de langage a été utilisé pour générer un morceau de texte, il peut vous aider à identifier les cas de copie ou de paraphrase à partir d’autres sources.

  • NB : Note de ZDNET
    'Notez quand la réponse est manifestement fausse : J’en ai parlé dans ma revue Notion AI, où j’ai mis en lumière un texte que l’IA a écrit avec une autorité apparente, mais qui était manifestement faux. Si un étudiant ou un écrivain ne maîtrise pas pleinement le sujet discuté, il se peut qu’il ne repère pas les inexactitudes et les laisse simplement dans la réponse générée par l’IA. Bien sûr, les déclarations incorrectes ne sont pas seulement du ressort d’un outil d’écriture d’IA. De nombreux blogueurs et commentateurs, par exemple, répètent simplement des déclarations faites par d’autres blogueurs, créant une chambre d’écho de « faits complètement faux », montrant que si l’intelligence peut être artificielle, la stupidité est un trait universel.'


Gardez à l’esprit qu’il peut être difficile de déterminer avec certitude si un modèle de langage a été utilisé pour générer un morceau de texte, et ces méthodes peuvent ne pas toujours être efficaces. Toutefois, ils peuvent être des outils utiles pour vous aider à identifier les instances potentielles de texte généré par un modèle de langue.