تُظهر نماذج اللغات الكبيرة (LLM) أحيانًا سلوكًا يسمى "الهلوسة" والذي يقدم معلومات غير حقيقية على أنها حقيقية. وفي هذه الحالة، قد يحدث ضرر للمستخدم أو لطرف ثالث.
سيناريوهات الهلوسة النموذجية
- مرجع مقالة أكاديمية زائفة.
- معلومات ملفقة عن شخص حقيقي (قرار محكمة، أمر قضائي).
- استشارة طبية (خارج نطاق الطبيب).
- استشارة قانونية (بدون علاقة بين العميل والمحامي).
- اقتباس/مصدر مزيف.
الأشخاص المسؤولون
- المستخدم: استخدام مخرجات الذكاء الاصطناعي دون التحقق منها.
- موفر الذكاء الاصطناعي:الشركة التي طورت النموذج وسلمته.
- النظام الأساسي: تطبيق يدمج الذكاء الاصطناعي.
مسؤولية مقدم الخدمة — محدودة
- تتضمن شروط الاستخدام عمومًا شرط "عدم الضمان".
- يؤدي التحذير "التحقق من المخرجات" إلى زيادة مسؤولية المستخدم.
- ومع ذلك، وفي نطاق قانون المستهلك، فإن شروط عدم المسؤولية هذه ليست صالحة إلى أجل غير مسمى.
- المادة 5 من TKHK - حظر الشروط غير العادلة.
مسؤولية المستخدم
- يعد استخدام مخرجات الذكاء الاصطناعي دون التحقق من المصدر بمثابة إهمال.
- ويتفاقم الإهمال في الاستخدام المهني (المحامي، الطبيب، الصحفي).
- المادة 49 من القانون التر��ي، المسؤولية في حالة تعرض شخص ثالث للأذى.
الإضرار بشخص ثالث
إذا كانت مخرجات الذكاء الاصطناعي تحتوي على معلومات ملفقة عن شخص ما (على سبيل المثال، "الإدانة الخاطئة للشخص X") وتمت مشاركة هذه المعلومات:
- الشخص المتضرر → المادة 25 من TMK (الاعتداء على الحقوق الشخصية).
- الأضرار المالية (المادة 49 من TBK).
- طلب إزالة المحتوى.
- إن حق الرجوع إلى المزود أمر مثير للجدل.
المحكمة العليا — النهج المتوقع
ستعتبر غرف المحكمة العليا أن الشخص الذي ينشر أو يستخدم مخرجات الذكاء الاصطناعي "كما هي" سيكون المسؤول في المقام الأول، بينما قد يكون مزود الذكاء الاصطناعي مسؤولاً بشكل غير مباشر في إطار "سلامة المنتج والالتزام بالإفصاح". في الاستخدام الاحترافي، تصبح مسؤولية المستخدم عن الخطأ أكبر.
مستويات "التزام التحقق"
- المستخدم الفردي: تحكم معقول.
- مستخدم محترف (محامي، طبيب): تحكم عالي - معايير احترافية.
- الصحفي: أخلاقيات الصحافة - التحقق من المصدر.
- المسؤول العام: الرقابة العليا.
نصائح عملية
<يكون>ملفات هلوسة الذكاء الاصطناعي جديدة. يمكن لمحامي تكنولوجيا المعلومات وقانون التعويضات التقييم معًا.