Le chatbotsils sont devenus de plus en plus populaires et pourraient bientôt adopter
watermarker, pour répondre aux questions éthiques et juridiques soulevées par leur utilisation, en relation avec la propriété intellectuelle.
Voici les problèmes posés par l'utilisation des chatbots dans les domaines académiques, alors que des outils pour détecter si un texte ou un autre contenu est le résultat de leur utilisation font leur entrée. Mais à l'avenirmême la cryptographie et la blockchain pourraient prendre le dessus contre la contrefaçon.
La prolifération croissante des outils d'intelligence artificielle (IA) spécialement conçus pour générer du texte de type humain a déclenché unevéritable guerre des chatbots dans la Silicon Valley. Ils sont populaires en raison de leur capacité à automatiser les conversations et à améliorer l'efficacité des processus. Le chatbot IA le plus utilisé estChat GPT. Créé par la start-upai ouvert. Il se vante déjàplus de 100 millions d'utilisateurs actifs en janvier, deux mois seulement après son lancement.
Mais il suffit de taper "utilisation des chatbots" sur Google pour se rendre compte de la quantité d'entreprises qui les parrainent et proposent leur utilisation pour améliorer la productivité des entreprises.
Les chatbots ou projets similaires des géants de l'industrie technologique sont nombreux. Google a publié en janvier un article décrivant un modèle capable de générer de la nouvelle musique à partir d'une description textuelle d'une chanson. En attendant, il travaille sur la création d'un anti ChatGPT appeléApprenti barde.
Baidu, le géant chinois de la recherche, a l'intention d'intégrer unchatbotsdans son moteur de recherche en mars. Réplika est un chatbot qui se présente avec le slogan "le compagnon qui s'occupe de vous": il a été, à juste titre, terrassé par les commentaires du
Garant de la confidentialité. Mais même ce cas montre à quel point l'attention est portée aux chatbots.
Depuis le lancement de ChatGPT en novembre,les étudiants ont commencé à tricher en l'utilisant pour écrire leurs essais. Le site d'actualités Cnet a également utilisé ChatGPT pour écrire des articles, pour être obligé d'apporter des corrections plus tardallégations de plagiat.
De nombreux étudiants ont utilisé les chatbots comme outil d'aide à l'étude, en particulier pour apprendre des concepts difficiles ou résoudre des tâches complexes. Cependant, cela soulèvela question éthique de l'utilisation des chatbots.
Si les élèves utilisent des chatbots pour faire leurs devoirs, on se demandes'ils sont toujours le résultat de leur travail. Ou on se demande si les étudiants qui utilisent des chatbots dessinent unavantage injuste sur leurs camarades de classe qui ne les utilisent pas.
Les enseignants, en particulier, essaient de s'adapterdisponibilité de logiciels capables de produire un essai modérément acceptable sur n'importe quel sujet en un instant. Peut-être reviendrons-nous àévaluations avec stylo et papier. Ou cela augmentera lesurveillancedes examens. Il y a aussi ceux qui proposent deinterdire complètement l'utilisation de l'intelligence artificielle.
Cette question est particulièrement pertinente dans le milieu universitaire, où les étudiants sont évalués sur la base de leurs connaissances et de leurs compétences. L'utilisation de chatbots peut représenter unmenace pour l'intégrité académique.
L'utilisation de chatbots pourrait être considérée comme unforme de plagiat. En fait, les étudiants utilisent des réponses générées automatiquement pour répondre à des tâches qui nécessitent leurs connaissances personnelles.
Un autre problème lié à l'utilisation des chatbots est lié àpropriété intellectuelle. Les chatbots peuvent générer des réponses ou des solutions à des problèmes. Mais qui détient la propriété intellectuelle de ces réponses ? Les étudiants utilisant des chatbots pourraient être accusés devioler les droits de propriété intellectuelle des propriétaires du chatbot.
Pendant ce temps, les propriétaires de chatbots reçoivent des allégations de violation de propriété intellectuelle de la part de ceux donttextes, documents, photos ou autres, servent justement à "alimenter" les algorithmes du chatbot.
Mi-janvier, le site d'images Getty a annoncé le début du procès contre Stability AI : « Cette semaine, Getty Images a entamé une procédure judiciaire devant la Haute Cour de justice de Londres.contre Stability AI, alléguant que ce dernier a violé les droits de propriété intellectuelle, y compris le droit d'auteur du contenu détenu par Getty Images (ou ceux qu'il représente).
Getty Images estime que Stability AI a copié et traité illégalement des millions d'images protégées par le droit d'auteur et de métadonnées associées appartenant à Getty Images, sans licence,au profit des intérêts commerciaux de Stability AI et au détriment des créateurs de contenu.
Mais l'intelligence artificielle a le potentiel de stimuler les efforts créatifs. En conséquence,Getty Images a accordé une licence à des innovateurs technologiques de premier plan à des fins de formation sur les systèmes d'IAalors rinspecter les droits de propriété personnelle et intellectuelle. Stability AI n'a pas demandé une telle licence à Getty Images et a plutôt choisi, à notre avis, d'ignorer les options de licence viables et les protections juridiques de longue date pour poursuivre ses intérêts commerciaux indépendants." Dans ce cas également, l'énorme potentiel de l'intelligence artificielle est souligné, mais aussi le respect nécessaire des barrières établies par la loi.
Pour éviter ces problèmes, certaines institutions académiques ontinterdit l'utilisation de chatbots par les étudiants. Cependant, ce n'est pas toujours pratique ou efficace, car les chatbots sont devenus de plus en plus sophistiqués et difficiles à détecter.
Avec l'avènement de l'intelligence artificielle, les détecteurs de texte et les générateurs de texte sont de plus en plus raffinés. Cela pourrait avoir un impact significatif sur l'efficacité des différentes méthodes et outils proposés pour reconnaître le texte généré par l'IA.
Les enseignants et les chercheurs peuvent également utiliser des chatbots pour automatiser leurs processus de recherche et d'enseignement.
Le paradoxe est que les entreprises mondiales spécialisées dans l'intelligence artificielleils ne peuvent pas distinguer de manière fiable les produits de leurs propres machines du travail des humains.
La raison est très simple. L'objectif principal des entreprises d'IA est deformer des « processeurs de langage naturel » (TAL) de l'IA pour produire des résultats aussi proches que possible de l'écriture humaine. En fait, la demande du public pour un moyen facile de détecter ces IA contredit en fait leurs propres efforts dans la direction opposée.
L'utilisation de filigranes peut être une solution efficace pour gérer l'utilisation des chatbots. Pour simplifier, les filigranes sont des marqueurs numériques que vous intégrez dans une image ou un document pour identifier le propriétaire ou l'auteur de l'œuvre.
Dans ce cas, des filigranes peuvent être utilisés pour identifier les réponses ou solutions générées par les chatbots.
Cesles "filigranes" sont invisibles à l'œil humain, mais ils permettent aux ordinateurs de détecter que le texte provient probablement d'un système d'intelligence artificielle.
Lorsqu'ils sont incorporés dans de grands modèles de langage, ils pourraient aider à prévenir certains des problèmes déjà causés.
En effet, le tatouage numérique est une technique de sécurité qui protège la propriété intellectuelle, notamment les documents numériques,contre l'utilisation non autorisée et la contrefaçonEt. Cette technique consiste à insérer unimage, texte ou autre type de filigrane(précisément "filigrane") dans le document, ce qui le rend unique efacilement traçable.
Dans certaines études, ces filigranes ont déjà été utilisés pour identifier, avec une certitude presque absolue, le texte généré par l'intelligence artificielle. Les chercheurs de laUniversité du Maryland,par exemple, ils ont réussi à localiser letexte créé par le modèle de langage open source de Meta, OPT-6.7B, en utilisant un algorithme de détection qu'ils ont construit. Bien que l'un des chercheurs de l'Université du Maryland qui a participé aux travaux de tatouage, John Kirchenbauer, ait déclaré que "en ce moment c'est le Far West», capturant parfaitement la situation actuelle.
Ce sont les outils par lesquels les programmeurs "apprennent" à l'ordinateur à faire quelque chose avec des données déjà étiquetées par les humains, c'est-à-dire classer (dans notre cas) l'utilisation de certains mots plutôt que d'autres, ou des combinaisons de mots telles qu'élaborées à partir d'un chatbot.
OpenAi lui-même
aintroduiten janvier un "classificateur pour indiquer les textes écrits par IA" admettant cependant qu'il a un taux de réussite de pas plus de 26% du texte analysé.
Un autre classificateur qui semble plus efficace est celui créé par Edouard Tian, un étudiant de Princetown, qui a sorti la première version en janvier deGPTZéro.
Cette application identifie lepaternité de l'intelligence artificiellebasé sur deux facteurs :le degré de complexité d'un texte et la variabilité des phrases utilisées.
Pour montrer comment le programme fonctionne, Tian a posté deux vidéos sur Twitter comparant l'analyse d'un article du New Yorker et une lettre écrite par ChatGPT.
Dans les deux cas, l'application a pu identifier correctement leur origine humaine et artificielle.
Le "truc" actuel pour vaincre les classificateurs est de remplacer certains mots par des synonymes. Des sites Web proposant des outils qui paraphrasent le texte généré par l'IA à cette fin apparaissent déjà dans le monde entier.
En utilisant
cesdes sites même le classificateur de Tian n'a pas dépassé les pourcentages de l'autre service.
Les détecteurs de texte générés par l'IA deviendront de plus en plus sophistiqués. Le service anti-plagiat
TurnItIn a récemment annoncé l'arrivée d'unDétecteur d'écriture manuscrite AI avec une précision revendiquée de 97%.
Cependant, les générateurs de texte s'améliorent également. C'est làla bataille classique dans laquelle vous ne voyez pas de vainqueur, mais seulement deux prétendants qui se dépassent sans cesse sans voir de ligne d'arrivée et donc pour l'instant un vainqueur.
Comme cela arrive souvent dans le secteur numérique, nous arriverons à un point où l'usage et la pratique conduiront le législateur à pouvoir également réglementer ce secteur de manière harmonieuse.
Quand, outre la loi, les problèmes concernent aussi l'éthique, il est difficile de mettre tout le monde d'accord. Dans le domaine académique, vous ne pourrez pas plaire à tout le monde.
Mais, en ce qui concerne la propriété intellectuelle liée à ces questions, la pratique conduira à des décisions jurisprudentielles en constante évolution, capables de s'appuyer à la fois sur le droit et sur la technologie en la matière.
Au lieu de cela, il sera encore plus difficile pour les entreprises de protéger leur propriété intellectuelle, car les contrefacteurs pourraient utiliser des générateurs de texte avancés pour créer des documents qui semblent authentiques, mais qui sont en réalité le résultat d'une contrefaçon.
Un changement dans l'approche de la protection de la propriété intellectuelle sera nécessaire, avec l'adoption de techniques de sécurité plus avancées, telles quela cryptographie ou la blockchain.
Article initialement publié sur
AgendaDigitale et écrit avec l'avocat Niccolò Lasorsa Borgomaneri, cabinet d'avocats Marsaglia.
DcP - Digital Content Protection Srl
Via Leone XIII, 14, 20145 Milan
IP/CF : 08328200962