Dans un monde où la technologie de l’IA évolue rapidement, il est de plus en plus difficile de faire la différence entre le contenu produit par l’homme et celui produit par la machine. OpenAI, la société à l’origine du populaire ChatGPT, a révélé qu’elle travaillait à l’ajout d’une “signature secrète invisible” à son contenu généré par l’IA afin de l’identifier et de détecter toute fraude. Cette signature pourrait être utilisée pour identifier les tricheries aux tests ou les contenus nuisibles légitimes. Toutefois, des universitaires et des spécialistes ont émis des réserves quant à son utilité, affirmant qu’elle ne fonctionnerait pas partout et qu’il serait facile d’y échapper en utilisant des synonymes. Comment les gens peuvent-ils être certains que les informations qu’ils obtiennent sont exactes dans cette situation ? Quelles sont les options encore disponibles pour identifier les contenus générés par l’IA ? Dans cet article nous allons tenter de répondre à ces préoccupations et de mieux comprendre les défis entourant la distinction entre le travail humain et le travail de la machine.

OpenAI élabore une signature pour ChatGPT

La startup à l’origine de ChatGPT, OpenAI, a déclaré qu’elle travaillait à l’ajout d’une “signature secrète invisible” à son contenu généré par l’IA.

Cette signature pourrait être utilisée pour identifier les tricheries lors des tests ou les éléments nuisibles légitimes. Le prototype de cet outil est déjà terminé.

Toutefois, des universitaires et des spécialistes ont émis des réserves quant à son utilité, affirmant qu’il ne fonctionnerait pas partout et qu’il pourrait être facilement contourné en utilisant des synonymes.

Pourquoi cette signature est-elle nécessaire ?

ChatGPT, disponible depuis décembre 2022, peut créer un texte à partir de diverses requêtes et l’ajuster en temps réel.

Cette fonctionnalité peut être utilisée pour créer un essai dans un certain style ou pour localiser un bug dans un code.

Le ChatGPT, quant à lui, peut être utilisé pour créer du matériel nuisible ou pour dissimuler la véritable origine des mots générés.

Les universités sont particulièrement préoccupées par la fraude académique, c’est pourquoi OpenAI étudie des techniques permettant de reconnaître le contenu produit par ChatGPT.

Quels sont les limites de cette signature ?

Scott Aaronson, chercheur invité à OpenAI, a refusé de révéler les spécificités de cette signature, et OpenAI a seulement révélé que cette signature, qui fonctionne de manière similaire à un filigrane pour les images, fait partie d’un “ensemble de solutions” en cours de développement de leur côté pour identifier le contenu généré par ChatGPT ou d’autres générateurs de texte basés sur l’IA.

Cependant, Jack Hessel, chercheur à l’Allen Institute for Artificial Intelligence, a fait remarquer que l’ajout d’une signature ne résoudrait pas le problème de la reconnaissance du matériel généré par l’IA, puisque celle-ci serait toujours capable de “falsifier” la signature.

Quelles sont les autres options pour identifier le contenu généré par l’IA ?

Plusieurs universitaires et spécialistes ont proposé différentes méthodes pour identifier le contenu généré par l’IA du contenu humain. En voici quelques exemples :

  1. L’utilisation des modèles de langage : Cette approche pourrait être utilisée pour repérer du contenu généré par l’IA se faisant passer pour du contenu humain. Cette stratégie a toutefois des limites, car les modèles de langage ne sont peut-être pas assez sophistiqués pour reconnaître toutes les distinctions entre le langage humain et celui généré par l’IA.
  2. L’utilisation des tests de Turing : Ces tests, conçus dans les années 1950, visent à évaluer la capacité d’une machine à se faire passer pour un être humain. Toutefois, cette stratégie n’est pas sans restriction, car du matériel de haute qualité généré par l’IA peut tromper les tests de Turing.

Il est essentiel de souligner qu’aucune de ces méthodes n’est idéale à l’heure actuelle et qu’il est possible que le contenu généré par l’IA reste difficile à reconnaître dans un avenir proche (par Google mais aussi par tout humain).  

Cependant, à mesure que la technologie progresse, il est possible que de nouvelles solutions soient créées pour aider à l’identification de ces informations produites de manière autonome.

 

You may also like

Leave a reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *