Große Sprachmodelle (LLM) zeigen manchmal ein Verhalten namens „Halluzination“, das unwirkliche Informationen als real darstellt. In diesem Fall kann ein Schaden für den Nutzer oder Dritte entstehen.
Typische Halluzinationsszenarien
- Gefälschte wissenschaftliche Artikelreferenz.
- Erfundene Informationen über eine reale Person (Gerichtsentscheidung, einstweilige Verfügung).
- Medizinische Beratung (außerhalb des Arztkontexts).
- Rechtsberatung (ohne Mandatsverhältnis).
- Falsches Zitat/Quelle.
Verantwortliche Personen
- Benutzer: KI-Ausgabe verwenden, ohne sie zu überprüfen.
- KI-Anbieter:Das Unternehmen, das das Modell entwickelt und bereitgestellt hat.
- Plattform: Anwendung, die KI integriert.
Anbieterhaftung – begrenzt
- Nutzungsbedingungen enthalten im Allgemeinen eine Klausel „keine Gewährleistung“.
- Die Warnung „Ausgabe überprüfen“ erhöht die Verantwortung des Benutzers.
- Im Rahmen des Verbraucherrechts gelten diese Haftungsausschlüsse jedoch nicht unbegrenzt.
- TKHK Artikel 5 – Verbot unfairer Bedingungen.
Haftung des Benutzers
- Die Verwendung von KI-Ausgaben ohne Verifizierung der Quelle ist Fahrlässigkeit.
- Fahrlässigkeit wird im beruflichen Einsatz (Anwalt, Arzt, Journalist) verschärft.
- Haftung gemäß Artikel 49 des türkischen Gesetzbuchs, wenn eine dritte Person geschädigt wird.
Schaden für Dritte
Wenn die KI-Ausgabe erfundene Informationen über eine Person enthält (z. B. „falsche Verurteilung von Person X“) und diese weitergegeben wird:
- Geschädigte Person → TMK Artikel 25 (Angriff auf Persönlichkeitsrechte).
- Vermögensschaden (TBK Artikel 49).
- Antrag auf Entfernung von Inhalten.
- Der Regressanspruch gegenüber dem Anbieter ist umstritten.
Oberster Gerichtshof – Erwarteter Ansatz
Die Kammern des Obersten Gerichtshofs werden davon ausgehen, dass die Person, die die KI-Ausgabe „wie sie ist“ verbreitet oder nutzt, in erster Linie haftbar ist, während der KI-Anbieter indirekt im Rahmen der „Produktsicherheits- und Offenlegungspflicht“ haftbar sein kann. Im professionellen Einsatz erhöht sich die Haftung des Nutzers für Verschulden.
Stufen der „Verifizierungspflicht“
- Einzelner Benutzer: Angemessene Kontrolle.
- Professioneller Anwender (Rechtsanwalt, Arzt): Hohe Kontrolle – professioneller Standard.
- Journalist: Journalismusethik – Quellenüberprüfung.
- Beamter: Oberste Kontrolle.
Praktische Tipps
KI-Halluzinationsdateien sind neu. Anwalt für IT- und Schadensersatzrecht kann gemeinsam bewerten.