المسارات القانونية لضمان أن تقول روبوتات الدردشة الآلية للذكاء الاصطناعي الحقيقة

legal-paths-to-ensure-ai-chatbots-tell-the-truth

في الأشهر الأخيرة، سلّط الاستخدام الواسع النطاق لروبوتات الدردشة الآلية مثل ChatGPT الضوء على فائدتها وميلها للخطأ. في خضم الضجة التي تحيط بالذكاء الاصطناعي (AI)، ولا سيما النماذج اللغوية الكبيرة (LLMs)، تبحث مجموعة من العلماء من جامعة أكسفورد فيما إذا كان هناك مسار قانوني يمكن أن يفرض الصدق في أنظمة الذكاء الاصطناعي هذه.

استحوذ ظهور روبوتات الدردشة الآلية على اهتمام كبير في مجال الذكاء الاصطناعي. صُممت روبوتات الدردشة الآلية مثل ChatGPT وGemini من Google، التي تستفيد من الذكاء الاصطناعي التوليدي، لإنتاج ردود شبيهة بالإنسان على مجموعة كبيرة من الاستفسارات. يتم تدريب هذه النماذج على مجموعات بيانات واسعة النطاق، مما يمكّنها من فهم وتوليد ردود بلغة طبيعية. ومع ذلك، تثير هذه العملية أيضًا مخاوف تتعلق بالخصوصية والملكية الفكرية، حيث تعتمد هذه النماذج اعتمادًا كبيرًا على البيانات التي يتم تدريبها عليها.

تتباهى روبوتات الدردشة الآلية بقدراتها المثيرة للإعجاب، وغالباً ما تبدو واثقة بشكل ملحوظ في إجاباتها. ومع ذلك، يمكن أن تكون هذه الثقة مضللة، حيث تميل روبوتات الدردشة الآلية إلى أن تبدو واثقة بنفس القدر سواء كانت معلوماتها دقيقة أم لا. تطرح هذه الظاهرة مشكلة، خاصةً أن المستخدمين قد لا يتذكرون دائماً التدقيق في إجابات روبوتات الدردشة الآلية بشكل نقدي.

لم يتم تصميم محركات LLM بطبيعتها لتقول الحقيقة. بدلاً من ذلك، فهي محركات لتوليد النصوص تم تحسينها للتنبؤ بسلسلة الكلمات التالية في سياق معين. الصدق هو أحد المقاييس التي يتم أخذها في الاعتبار أثناء تطويرها. في سعيها لتقديم أكثر الإجابات “المفيدة”، يمكن أن تنحرف هذه النماذج نحو التبسيط المفرط والتحيز والتلفيق. وقد أدى هذا الميل إلى حالات أنتجت فيها روبوتات الدردشة الآلية اقتباسات وهمية ومعلومات غير ذات صلة، مما يقوض موثوقيتها.

يعرب باحثو أكسفورد عن قلقهم بشكل خاص بشأن ما يسمونه “الكلام المتهور”. فهم يجادلون بأن الردود الصادرة عن مزودي خدمة LLM، إذا لم تتم مراقبتها بعناية، يمكن أن تتسرب إلى المحادثات البشرية غير المتصلة بالإنترنت، مما قد يؤدي إلى نشر معلومات مضللة. وقد دفعهم هذا القلق إلى استكشاف إمكانية فرض التزام قانوني على مقدمي برامج الماجستير في القانون لضمان أن تسعى نماذجهم إلى تحري الصدق.

تقدم التشريعات الحالية للاتحاد الأوروبي (الاتحاد الأوروبي) سيناريوهات محدودة حيث يُطلب من المنظمات أو الأفراد قانونًا قول الحقيقة. وعادةً ما تقتصر هذه السيناريوهات على قطاعات أو مؤسسات محددة ونادراً ما تنطبق على القطاع الخاص. وبالنظر إلى أن آليات الإفصاح عن الحقيقة تمثل تقنية جديدة نسبيًا، فإن اللوائح الحالية لم تُصاغ مع وضع هذه النماذج في الاعتبار.

ولمعالجة هذه الفجوة، يقترح الباحثون إطارًا جديدًا من شأنه أن ينشئ واجبًا قانونيًا للحد من الكلام غير المبالي من قبل مقدمي النماذج ذات الأغراض الضيقة والعامة على حد سواء. يهدف هذا الإطار إلى تحقيق التوازن بين مصداقية النماذج وفائدتها، ويدعو إلى تعدد المصادر وتمثيلها بدلاً من فرض نسخة واحدة من الحقيقة. وتتمثل الفكرة في تصحيح التحيز الحالي نحو الإفادة، والذي غالبًا ما يضر بالدقة.

مع استمرار تقدم تكنولوجيا الذكاء الاصطناعي في التقدم، ستصبح هذه الأسئلة أكثر أهمية بالنسبة للمطورين لمعالجتها. في هذه الأثناء، يجب أن يظل مستخدمو نماذج الذكاء الاصطناعي المحلية حذرين، مع إدراك أن هذه النماذج مصممة لتقديم إجابات تبدو مقنعة ومفيدة، بغض النظر عن دقتها.

يؤكد تحقيق علماء أكسفورد في إمكانية الإنفاذ القانوني للصدق في روبوتات الدردشة الآلية القائمة على الذكاء الاصطناعي على الحاجة إلى نهج متوازن. من خلال إنشاء إطار قانوني يعطي الأولوية لكل من الفائدة والصدق، هناك إمكانية لتعزيز موثوقية هذه الأدوات القوية مع التخفيف من المخاطر المرتبطة باستخدامها.