AC

KI-Halluzination und Fehlinformationen: Verantwortung

25 Şubat 2026 Künstliche Intelligenz und Web3-Recht 2 dk okuma 11 görüntülenme Son güncelleme: 8 Mayıs 2026

Große Sprachmodelle (LLM) zeigen manchmal ein Verhalten namens „Halluzination“, das unwirkliche Informationen als real darstellt. In diesem Fall kann ein Schaden für den Nutzer oder Dritte entstehen.

Typische Halluzinationsszenarien

  • Gefälschte wissenschaftliche Artikelreferenz.
  • Erfundene Informationen über eine reale Person (Gerichtsentscheidung, einstweilige Verfügung).
  • Medizinische Beratung (außerhalb des Arztkontexts).
  • Rechtsberatung (ohne Mandatsverhältnis).
  • Falsches Zitat/Quelle.

Verantwortliche Personen

  • Benutzer: KI-Ausgabe verwenden, ohne sie zu überprüfen.
  • KI-Anbieter:Das Unternehmen, das das Modell entwickelt und bereitgestellt hat.
  • Plattform: Anwendung, die KI integriert.

Anbieterhaftung – begrenzt

  • Nutzungsbedingungen enthalten im Allgemeinen eine Klausel „keine Gewährleistung“.
  • Die Warnung „Ausgabe überprüfen“ erhöht die Verantwortung des Benutzers.
  • Im Rahmen des Verbraucherrechts gelten diese Haftungsausschlüsse jedoch nicht unbegrenzt.
  • TKHK Artikel 5 – Verbot unfairer Bedingungen.

Haftung des Benutzers

  • Die Verwendung von KI-Ausgaben ohne Verifizierung der Quelle ist Fahrlässigkeit.
  • Fahrlässigkeit wird im beruflichen Einsatz (Anwalt, Arzt, Journalist) verschärft.
  • Haftung gemäß Artikel 49 des türkischen Gesetzbuchs, wenn eine dritte Person geschädigt wird.

Schaden für Dritte

Wenn die KI-Ausgabe erfundene Informationen über eine Person enthält (z. B. „falsche Verurteilung von Person X“) und diese weitergegeben wird:

  • Geschädigte Person → TMK Artikel 25 (Angriff auf Persönlichkeitsrechte).
  • Vermögensschaden (TBK Artikel 49).
  • Antrag auf Entfernung von Inhalten.
  • Der Regressanspruch gegenüber dem Anbieter ist umstritten.

Oberster Gerichtshof – Erwarteter Ansatz

Die Kammern des Obersten Gerichtshofs werden davon ausgehen, dass die Person, die die KI-Ausgabe „wie sie ist“ verbreitet oder nutzt, in erster Linie haftbar ist, während der KI-Anbieter indirekt im Rahmen der „Produktsicherheits- und Offenlegungspflicht“ haftbar sein kann. Im professionellen Einsatz erhöht sich die Haftung des Nutzers für Verschulden.

Stufen der „Verifizierungspflicht“

  • Einzelner Benutzer: Angemessene Kontrolle.
  • Professioneller Anwender (Rechtsanwalt, Arzt): Hohe Kontrolle – professioneller Standard.
  • Journalist: Journalismusethik – Quellenüberprüfung.
  • Beamter: Oberste Kontrolle.

Praktische Tipps

  • Überprüfen Sie die Quelle, bevor Sie KI-Ausgaben verwenden.
  • Für den professionellen Gebrauch, mit der Fußnote Verantwortung des Benutzers für rechtliche/medizinische Entscheidungen.
  • Wenn Informationen über eine dritte Person vorliegen, Bestätigung dieser Person.
  • Konfliktbezogene Informationen/Nutzungsbedingungen.
  • KI-Halluzinationsdateien sind neu. Anwalt für IT- und Schadensersatzrecht kann gemeinsam bewerten.

    Telif bildirimi Bu içerik ve tüm bağlantılı soru-cevap metinleri 5846 sayılı FSEK kapsamında korunmaktadır. İzinsiz kopyalama, çoğaltma, yayımlama, yeniden işleme, toplu veri çekimi veya ticari kullanım yasaktır; ihlal halinde hukuki ve cezai yollara başvurulur.

    Hukuki destek arıyorsanız

    Bu konuda profesyonel hukuki destek için Aycan Ceylan Avukatlık Bürosu olarak yanınızdayız.

    Görüşme Planla