Die Technologie hinter ChatGPT und anderen Sprachmodellen: Darum sollten gerade Anwaltskanzleien vorsichtig sein

+++Gratis+++ KI-Spezialreport „ChatGPT, Copilot & Co. in der Anwaltskanzlei“ – Wie Sie heute schon mit KI effizienter arbeiten und welche Einschränkungen nach wie vor bestehen – 27 Seiten geballtes KI-Wissen für Ihre Kanzlei. Hier klicken und kostenlos downloaden!

 

Sogenannte „sprachbasierte Chatbots“ sind dergestalt programmiert, dass sie in der Lage sind, eine menschenähnliche Kommunikation zu führen, also Antworten auf Fragen oder Anfragen bzw. Anweisungen zu generieren.

Die zugrunde liegende Technologie – also das „Gehirn“ der Chatbots – ist in vielen Fällen GPT von OpenAI: Der Generative Pre-trained Transformer, ein neuronales Netzwerk, das speziell für die natürliche Sprachverarbeitung entwickelt wurde.

Dieses „Gehirn“ hat eine antrainierte Vorbildung“ (Pre-training) durch das Lernen aus einer Vielzahl von Textquellen und somit ein Verständnis für Sprache und Kontext.

Vorsicht: (Unbekannte) Quellen

Chatbots im Allgemeinen orientieren sich zur Generierung der gewünschten Antworten und Lösungen an Textmustern (aus dem Internet) und greifen nicht – anders, als auf dem ersten Blick vermuten lässt – auf Daten, Fakten oder echte Wissensdatenbanken zurück.

Mögliche Quellen:

  • Onlineforen
  • Soziale Medien
  • Zeitungsartikel
  • Bücher
  • Wikipedia
  • uvm.

Man kann anhand der Auflistung unschwer erkennen, dass es sich bei den antrainierten Textmustern in vielen Fällen um nicht unbedingt glaubwürdige, insbesondere auch nicht zitierfähige Quellen handelt:

Gerade Informationen aus Onlineforen und sozialen Medien, aber auch Wikipedia sind grundsätzlich schon bei einer Google-Suche näher zu überprüfen; bei der Arbeit mit einem Chatbot kann nicht einmal gesehen werden, was die Quelle ist bzw. die Quellen sind.

Beschäftigt man sich also in der Assistenz nicht nur mit der Erstellung oder Optimierung von Texten, die keine spezielle Fachkompetenz oder Tiefe erfordern, ist eine tiefergehende Beschäftigung mit den generierten Antworten erforderlich.

Dass die Quellen in der Regel nicht erkennbar sind und damit eine Gefahr darstellen, ist jedoch beherrschbar (dazu sogleich).

Was ist mit Urheberrechten?

Wie vorstehend ausgeführt, sind die Quellen nicht klar und erst recht nicht nachvollziehbar. So kann es sein, dass der Chatbot bei der Generierung der Antworten Texte präsentiert, die nicht frei von Rechten Dritter sind.

Damit besteht eine latente Gefahr der Verletzung von Urheberrechten, wenn generierte und unveränderte Texte – z.B. in einem Blogbeitrag oder einem Aufsatz in einer Fachzeitschrift – veröffentlicht werden.

Die zum Teil weitreichenden Folgen wie mögliche Unterlassungsverfügungen oder auch Schadensersatzansprüche, seien insoweit hier nur kurz erwähnt. Im Übrigen behauptet der ein oder andere Chatbot sogar (so zumindest OpenAI), selbst Urheber des generierten Textes zu sein.

Hinweis: Vor Veröffentlichung entsprechender Textergebnisse (z.B. in Aufsätzen, Blogbeiträgen, auf der Homepage) sind diese auf möglichen urheberrechtlichen Schutz zu überprüfen.

Grundsätzlich gilt: Die generierte Antwort ist die Basis: Geben Sie den generierten Texten Ihre persönliche Note und machen Sie eigene Texte daraus.

 

Halluzinieren

Da Chatbots nicht erkennen können, ob die generierten Informationen aus glaubwürdigen Quellen stammen, und erst recht nicht zwischen Wahrheit und Lüge unterscheiden können, stoßen sie hier an ihre Grenzen – eine Phase, in der wieder der Mensch gefragt ist:

Die Antworten können (teilweise) aus ungeprüften Veröffentlichungen oder Fake-News erstellt worden sein und somit kann das erzeugte Ergebnis fehlerbehaftet oder unvollständig sein. Chatbots „halluzinieren“ also, geben auch das eine oder andere Mal falsche Lösungen vor oder werfen gerade auch mal das eine oder andere Gerichtsaktenzeichen durcheinander.

Der spektakulärste Fall hat sich vor einem US-Gericht abgespielt: Der dortige Klägeranwalt hat im Zuge der Replik und erweiterten Anträgen weitere Begründungen und Präzedenzfälle vorgetragen – die er mittels ChatGPT recherchiert, selbst aber nicht überprüft hat.

Leider hat der Chatbot dabei Texte angeblicher Urteile ausgegeben (Urteile mit Aktenzeichen, die es tatsächlich nicht gibt), wobei die Texte auch ihrerseits wiederum Verweise auf Fälle enthielten, die sich ebenfalls als frei erfunden herausstellten.[1]

Der Anwalt ist damit zum Gespött der Öffentlichkeit geworden, weil ChatGPT „halluziniert“ hat. Das ist aber kein Einzelfall.

Gerade dann, wenn es um rechtliche Prüfungen oder Recherchen geht, ist die vertiefte Nachprüfung Pflicht. Dies gelingt allerdings in der Regel nur, wenn man weiß, was zu prüfen ist und welche Gesetzesvorschriften einschlägig sind.

Praxistipp: Das Thema „Halluzinieren“ ist – ebenso wie die Quellenprüfung – mittels eines Faktenchecks beherrschbar: Die Lösungsvorschläge müssen – ggf. anhand von Gesetzen oder Kommentaren – durch den Rechtsanwalt überprüft und unter Umständen auch vertieft werden. Die Chatbots ersetzen also keineswegs das (Mit-)Denken und die eigenständige Umsetzung der Aufgabe: Es muss nachgearbeitet und weitergedacht werden. Aber: durch die Recherche-Vorarbeiten eines Chatbots wird bereits ein zeitlicher Vorsprung erreicht, da eine lange und umständliche Suche entfällt.

Machen Sie den Faktencheck und fordern Sie den Chatbot im Prompt bereits zur Bereitstellung von Quellen auf: „Ich bitte um Erledigung vorstehender Aufgaben unter Anwendung deutschen Rechts und unter Zitierung einschlägiger Gesetzesvorschriften sowie Bekanntgabe aktueller Rechtsprechung und Literaturquellen.“

 

Bewusste Manipulationen

Die Programmierer von Chatbots haben Schranken eingebaut, die z.B. beleidigende Aussagen und Tabu-Themen einschränken bzw. negative Inhalte vermeiden.

Damit sind die Chatbots in ihren Aussagen zum Teil „zurückhaltend“. Aber wo es Schranken gibt, existieren auch immer wieder Menschen, die diese durchbrechen: gewiefte Programmierer, die versuchen, die KI auszutricksen und es auch schaffen, dass die Schranken durchbrochen werden.

Das kann für den ahnungslosen Nutzer durchaus „gefährlich“ werden.

Manipulierte Inhalte, aber insbesondere auch Deep-Fakes in Form von täuschendechten Videos und Bildern können zum Identitätsmissbrauch, für Erpressungen, Betrug und politische Manipulationen verwendet werden.

Gesunde Skepsis kann helfen. Auch hier gilt: Machen Sie den Faktencheck!

Problematik Datenschutz: Gerade auch in Kanzleien ein Thema

Beachten Sie weiter: Chatbots sind echte „Datenfresser“: Was Sie dort eingeben, wird regelmäßig auch weiterverwendet. Denn Chatbots lernen von ihren Usern. Damit aber sind Verletzungen von Datenschutzrechten jederzeit präsent.

Es ist daher von oberster Priorität, nur mit anonymen Sachverhalten zu arbeiten; das gilt sowohl für persönliche als auch finanzielle Daten.

Wenngleich es in diversen Chatbots die Möglichkeit gibt, das „Lernen“ auszuschalten, andere Chatbots sogar dafür „Werbung“ machen, dass die Daten sicher sind: Verlassen Sie sich nicht darauf. Privat nicht und erst recht nicht für Mandanten.

Leistungen von Chatbots

Wie bereits ausgeführt, sind Chatbots anhand von Textmustern trainiert worden. Dabei reden wir von Datensätzen in Größenordnungen, die man sich nicht vorstellen kann. Es wird also auf vielfach geballtes Wissen zurückgegriffen (aber eben auch auf Fehlinformationen), das die Chatbots in die Lage versetzen, präzise und sauber zu arbeiten.

Vielleicht haben Sie es in den Medien verfolgt – mittlerweile ist der Chatbot ChatGPT in der Lage, das bayerische Abitur mit der Note „gut“ abzulegen[2]; ein Rechtsanwalt aus Österreich hat im Rahmen einer Vertragsübersetzung sein Mandat an ChatGPT verloren, weil keine „Wort-für-Wort-Übersetzung“ stattfindet, sondern die Übersetzung mittels Erkennung des „wahrscheinlichsten Wortes“ (= Textmustererkennung) erfolgt.[3] Und auf Youtube kann man Videos finden, in denen aufgezeigt wird, dass ChatGPT bei Übersetzungen sogar DeepL schlägt. Das sind natürlich besonders erwähnenswerte Leistungen, aber auch sonst schlagen sich die generativen Chatbots durchweg gut.

Chatbots können aber gerade auch im Bereich „Rechtsrecherche“ lästige Routinearbeiten abnehmen und somit die „Richtung“ vorgeben. Allein damit wird ein zeitlicher Vorsprung erreicht, da eine lange und umständliche Suche entfällt. Die Integration von Künstlicher Intelligenz in die juristische Praxis bringt Entlastung und Verbesserung und ist damit unsere Zukunft.

Carmen Wolf


[3] Die Presse, eine in Wien erscheinende überregionale österreichische Tageszeitung, 17.07.2023, Artikel von Heinz Templ