Blog - Chatbot und Wasserzeichen

Chatbots und Wasserzeichen: ein ethischer und rechtlicher Kampf gegen Fälschungen


Der Chatbotssie sind immer beliebter geworden und könnten sich bald durchsetzen Wasserzeichen, um die ethischen und rechtlichen Fragen zu beantworten, die durch ihre Verwendung in Bezug auf geistiges Eigentum aufgeworfen werden.

Hier sind die Probleme, die sich aus dem Einsatz von Chatbots im akademischen Bereich ergeben, während Tools zur Erkennung, ob ein Text oder andere Inhalte das Ergebnis ihrer Verwendung sind, ihr Debüt geben. Aber in der Zukunftsogar Kryptografie und Blockchain könnten das Feld gegen Fälschungen einnehmen.


Die wachsende Verbreitung von Tools der künstlichen Intelligenz (KI), die speziell für die Generierung von menschenähnlichem Text entwickelt wurden, hat eineechter Chatbot-Krieg im Silicon Valley. Sie sind beliebt wegen ihrer Fähigkeit, Konversationen zu automatisieren und die Prozesseffizienz zu verbessern. Der am häufigsten verwendete KI-Chatbot istGPT-Chat. Erstellt vom Start-upÖffnen Sie Ai. Es rühmt sich bereitsüber 100 Millionen aktive Nutzer im Januar, nur zwei Monate nach seiner Markteinführung.

Aber es reicht aus, „Verwendung von Chatbots“ bei Google einzugeben, um die Menge der Unternehmen zu erkennen, die sie sponsern und ihre Verwendung zur Verbesserung der Produktivität von Unternehmen anbieten.

Chatbots oder ähnliche Projekte von Giganten der Technologiebranche gibt es in Hülle und Fülle. Google hat im Januar ein Papier veröffentlicht, das ein Modell beschreibt, das neue Musik aus einer Textbeschreibung eines Songs generieren kann. Inzwischen arbeitet er an der Erstellung eines Anti-ChatGPT namensLehrling Barde.

Baidu, der chinesische Suchgigant, beabsichtigt, aChatbotsin seiner Suchmaschine im März.Replikist ein Chatbot, der sich mit dem Slogan „Der Begleiter, der sich um dich kümmert“ präsentiert: Er wurde, richtigerweise, von den Kommentaren niedergeschlagen
Datenschutz Garant. Aber auch dieser Fall zeigt, wie viel Aufmerksamkeit Chatbots geschenkt wird.


Seit dem Debüt von ChatGPT im NovemberStudenten fingen an zu schummeln, indem sie damit ihre Aufsätze schrieben. Auch die Nachrichtenseite Cnet verwendete ChatGPT, um Artikel zu schreiben, nur um später gezwungen zu sein, Korrekturen vorzunehmenPlagiatsvorwürfe.

Viele Studenten haben Chatbots als Lernunterstützungstool verwendet, insbesondere um schwierige Konzepte zu lernen oder komplexe Aufgaben zu lösen. Das hebt sich allerdings abdie ethische Frage der Nutzung von Chatbots.

Wenn Studenten Chatbots verwenden, um ihre Hausaufgaben zu erledigen, fragt man sichob sie noch das Ergebnis ihrer Arbeit sind. Oder man fragt sich, ob Studierende, die Chatbots nutzen, einen zeichnenunfairen Vorteil gegenüber ihren Klassenkameraden, die sie nicht benutzen.

Vor allem Lehrer versuchen, sich darauf einzustellenVerfügbarkeit von Software, die im Handumdrehen einen halbwegs akzeptablen Aufsatz zu jedem Thema erstellen kann. Vielleicht werden wir zurückkehrenBeurteilungen mit Stift und Papier. Oder es wird die erhöhenAufsichtder Prüfungen. Es gibt auch solche, die das vorschlagenden Einsatz künstlicher Intelligenz komplett verbieten.

Dieses Thema ist besonders im akademischen Bereich relevant, wo Studierende auf der Grundlage ihrer Kenntnisse und Fähigkeiten beurteilt werden. Der Einsatz von Chatbots kann aBedrohung der akademischen Integrität.


Der Einsatz von Chatbots könnte in Betracht gezogen werdenForm des Plagiats. Tatsächlich verwenden Schüler automatisch generierte Antworten, um Aufgaben zu beantworten, die ihr persönliches Wissen erfordern.

Ein weiteres Problem im Zusammenhang mit der Verwendung von Chatbots hängt damit zusammengeistigen Eigentums. Chatbots können Antworten oder Lösungen für Probleme generieren. Aber wem gehört das geistige Eigentum an diesen Antworten? Studenten, die Chatbots verwenden, könnten vorgeworfen werdendie geistigen Eigentumsrechte der Eigentümer des Chatbots verletzen.

In der Zwischenzeit erhalten Chatbot-Besitzer Vorwürfe wegen Verletzungen des geistigen Eigentums von denen, derenTexte, Dokumente, Fotos oder anderes, werden genau dazu verwendet, die Chatbot-Algorithmen zu "füttern"..


Mitte Januar gab die Bilderseite Getty den Beginn der Klage gegen Stability AI bekannt: „Getty Images hat diese Woche ein Gerichtsverfahren vor dem High Court of Justice in London eingeleitetgegen Stabilitäts-KI, mit der Behauptung, dass letztere geistige Eigentumsrechte verletzt habe, einschließlich des Urheberrechts an Inhalten, die Getty Images (oder den von Getty Images vertretenen) gehören.

Getty Images ist der Ansicht, dass Stability AI Millionen von urheberrechtlich geschützten Bildern und zugehörigen Metadaten, die Eigentum von Getty Images sind, ohne Lizenz illegal kopiert und verarbeitet hat.zugunsten der kommerziellen Interessen von Stability AI und zum Nachteil der Ersteller von Inhalten.

Aber künstliche Intelligenz hat das Potenzial, kreative Bemühungen anzuregen. FolglichGetty Images hat führende Technologieinnovatoren für Schulungszwecke für KI-Systeme lizenziertalso rpersönliche und geistige Eigentumsrechte prüfen. Stability AI hat keine solche Lizenz von Getty Images beantragt und sich stattdessen aus unserer Sicht dafür entschieden, praktikable Lizenzoptionen und langjährigen Rechtsschutz zu ignorieren, um seine unabhängigen Geschäftsinteressen zu verfolgen.“ Auch in diesem Fall wird das enorme Potenzial der künstlichen Intelligenz unterstrichen, aber auch der notwendige Respekt vor den gesetzlich festgelegten Schranken.


Um diese Probleme zu vermeiden, haben einige akademische Einrichtungendie Nutzung von Chatbots durch Studierende untersagt. Es ist jedoch nicht immer praktisch oder effektiv, da Chatbots immer ausgefeilter und schwieriger zu erkennen sind.

Mit dem Aufkommen der künstlichen Intelligenz werden sowohl Textdetektoren als auch Textgeneratoren immer raffinierter. Dies könnte erhebliche Auswirkungen auf die Wirksamkeit der verschiedenen Methoden und Tools haben, die zur Erkennung von KI-generiertem Text vorgeschlagen werden.

Auch Lehrende und Forschende können Chatbots nutzen, um ihre Forschungs- und Lehrprozesse zu automatisieren.

Das Paradoxe ist, dass globale Unternehmen sich auf künstliche Intelligenz spezialisierensie können die Produkte ihrer eigenen Maschinen nicht zuverlässig von der Arbeit der Menschen unterscheiden.

Der Grund ist sehr einfach. Das Hauptziel von KI-Unternehmen ist esTrainieren Sie KI-Prozessoren für natürliche Sprache (NLP), um Ergebnisse zu erzielen, die dem menschlichen Schreiben so nahe wie möglich kommen. Tatsächlich widerspricht die öffentliche Forderung nach einem einfachen Mittel zur Erkennung solcher KIs ihren eigenen Bemühungen in die entgegengesetzte Richtung.


Die Verwendung von Wasserzeichen kann eine effektive Lösung für die Verwaltung der Nutzung von Chatbots sein. Der Einfachheit halber sind Wasserzeichen digitale Markierungen, die Sie in ein Bild oder Dokument einbetten, um den Eigentümer oder Autor des Werks zu identifizieren.

In diesem Fall können Wasserzeichen verwendet werden, um die von den Chatbots generierten Antworten oder Lösungen zu identifizieren.

Diese„Wasserzeichen“ sind für das menschliche Auge unsichtbar, aber sie lassen Computer erkennen, dass der Text wahrscheinlich von einem System künstlicher Intelligenz stammt.

Wenn sie in große Sprachmodelle integriert werden, könnten sie dazu beitragen, einige der bereits verursachten Probleme zu vermeiden.

Wasserzeichen sind in der Tat eine Sicherheitstechnik, die geistiges Eigentum schützt, insbesondere digitale Dokumente,vor unbefugter Nutzung und FälschungUnd. Diese Technik beinhaltet das Einfügen von aBild, Text oder andere Art von Wasserzeichen(genau "Wasserzeichen") innerhalb des Dokuments, was es einzigartig macht, zleicht nachvollziehbar.

In einigen Studien wurden diese Wasserzeichen bereits verwendet, um den von der künstlichen Intelligenz generierten Text mit nahezu absoluter Sicherheit zu identifizieren. Die Forscher der Universität von Maryland,zum Beispiel gelang es ihnen, die zu lokalisierenText, der von Metas Open-Source-Sprachmodell erstellt wurde, OPT-6.7B, unter Verwendung eines von ihnen entwickelten Erkennungsalgorithmus. Obwohl einer der Forscher der University of Maryland, der an der Arbeit mit Wasserzeichen beteiligt war, John Kirchenbauer, sagte: „Im Moment ist es der Wilde Westen“, die die aktuelle Situation perfekt einfängt.


Sie sind die Werkzeuge, mit denen Programmierer dem Computer „beibringen“, etwas mit bereits von Menschen gekennzeichneten Daten zu tun, d. h. (in unserem Fall) die Verwendung bestimmter Wörter anstelle anderer oder Wortkombinationen zu klassifizieren, wie sie von einem Chatbot ausgearbeitet wurden.

OpenAi selbst
hateingeführt im Januar ein "Klassifikator zur Kennzeichnung von Texten, die von KI geschrieben wurden", der jedoch zugibt, dass er eine Erfolgsquote von nicht mehr als 26% des analysierten Textes hat.

Ein anderer Klassifikator, der effektiver zu sein scheint, ist derjenige, der von erstellt wurdeEduard Tian, ein Princetown-Student, der die erste Version im Januar veröffentlichteGPTZero.

Diese Anwendung identifiziert dieUrheberschaft der künstlichen Intelligenzbasierend auf zwei Faktoren:der Komplexitätsgrad eines Textes und die Variabilität der verwendeten Sätze.

Um zu zeigen, wie das Programm funktioniert, hat Tian auf Twitter zwei Videos gepostet, in denen die Analyse eines Artikels aus dem New Yorker mit einem von ChatGPT geschriebenen Brief verglichen wird.

In beiden Fällen konnte die App ihre menschliche und künstliche Herkunft korrekt identifizieren.

Der derzeitige "Trick", um Klassifikatoren zu besiegen, besteht darin, einige Wörter durch Synonyme zu ersetzen. Weltweit tauchen bereits Websites auf, die Tools anbieten, die KI-generierten Text für diesen Zweck umschreiben.

Verwenden Sie diese
Websites Selbst Tians Klassifikator überschritt die Prozentsätze des anderen Dienstes nicht.

KI-generierte Textdetektoren werden immer ausgefeilter. Der Anti-Plagiat-Service
TurnItIn hat vor kurzem die Ankunft von a angekündigtKI-Handschrifterkennung mit einer behaupteten Genauigkeit von 97%.

Aber auch Textgeneratoren werden immer besser. Es ist daDer klassische Kampf, in dem Sie keinen Sieger sehen, sondern nur zwei Konkurrenten, die sich ständig überholen, ohne eine Ziellinie zu sehen, und daher im Moment einen Sieger.


Wie so oft im digitalen Bereich werden wir einen Punkt erreichen, an dem Gewohnheit und Praxis dazu führen, dass der Gesetzgeber auch diesen Bereich harmonisch regeln kann.

Wenn die Probleme neben dem Recht auch die Ethik betreffen, ist es schwierig, alle zu einer Einigung zu bewegen. Im akademischen Bereich werden Sie es nicht allen recht machen können.

Was jedoch geistiges Eigentum im Zusammenhang mit diesen Themen betrifft, wird die Praxis zu sich ständig weiterentwickelnden Rechtsprechungsentscheidungen führen, die in der Lage sind, sich sowohl auf das Recht als auch auf die Technologie in dieser Angelegenheit zu stützen.

Stattdessen wird es für Unternehmen noch schwieriger, ihr geistiges Eigentum zu schützen, da Fälscher mit fortschrittlichen Textgeneratoren Dokumente erstellen könnten, die authentisch erscheinen, aber tatsächlich das Ergebnis einer Fälschung sind.

Eine Änderung des Ansatzes zum Schutz des geistigen Eigentums wird erforderlich sein, mit der Einführung fortschrittlicherer Sicherheitstechniken, wie zKryptografie oder Blockchain.



Artikel ursprünglich veröffentlicht am AgendaDigitale und zusammen mit dem Anwalt Niccolò Lasorsa Borgomaneri, Anwaltskanzlei Marsaglia, verfasst.

Aktie

Share by: