دراسة تشير إلى أن الدردشة والماجستير في القانون ليست تهديدًا وجوديًا

study-finds-chatgpt-and-llms-aren’t-an-existential-threat

دحضت الأبحاث الحديثة الفكرة القائلة بأن النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT تشكل تهديداً وجودياً للبشرية. فوفقاً لدراسة جديدة، فإن هذه النماذج يمكن التنبؤ بها والسيطرة عليها بطبيعتها، مما ينفي المخاوف من إمكانية تطويرها لقدرات خطيرة.

تُعد نماذج اللغات الطبيعية LLMs إصدارات متقدمة من النماذج اللغوية المدربة مسبقًا (PLMs) المصممة لمعالجة كميات هائلة من البيانات على نطاق الويب. هذا التعرض المكثف للبيانات يمكّنها من فهم اللغة الطبيعية وتوليدها بكفاءة، مما يجعلها مناسبة لمختلف المهام. وعلى الرغم من قدرات هذه النماذج، إلا أنها لا تمتلك قدرات تعلم مستقلة أو القدرة على اكتساب مهارات جديدة دون مدخلات بشرية صريحة.

وتسلط الدراسة الضوء على أنه في حين يمكن أن تُظهر النماذج “قدرات ناشئة” – أي أداء غير متوقع لم يتم التدريب عليه بشكل مباشر – فإن هذه القدرات لا تعني أن النماذج تطور مهارات التفكير أو التخطيط المعقدة. وبدلاً من ذلك، فإن هذه القدرات الناشئة تتعلق أكثر بإظهار النماذج التي لم تُبرمج على وجه التحديد لمهام لم تُبرمج عليها بشكل خاص، مثل فهم المواقف الاجتماعية أو أداء التفكير المنطقي.

وقد أوضح الباحثون أن هذه القدرات الناشئة ليست علامات على تطور النماذج اللغوية ذات القدرات اللغوية المنخفضة إلى ما هو أبعد من برمجتها. حيث ترجع قدرة النماذج على اتباع التعليمات وتوليد الاستجابات إلى حد كبير إلى كفاءتها في اللغة والتعلم داخل السياق (ICL). ويتضمن التعلم داخل السياق استخدام النماذج للأمثلة المقدمة لها لإكمال المهام، بدلاً من تطوير مهارات تفكير جديدة. وقد تم ترسيخ هذا الفهم من خلال أكثر من 1000 تجربة أجراها فريق البحث، والتي أظهرت أن نماذج التعلم داخل السياق تعمل ضمن أنماط يمكن التنبؤ بها بناءً على بيانات التدريب والمدخلات.

لقد كانت الفكرة القائلة بأن الآلات القابلة للتشغيل الآلي يمكن أن تشكل مخاطر مستقبلية من خلال التفكير المتطور أو القدرات الخطرة سائدة، لكن هذه الدراسة تدحض مثل هذه الادعاءات. ويوضح البحث أنه مع توسع قدرات الآلات القابلة للتعلم الآلي وتزايد تعقيدها، فإنها تظل محدودة بتنفيذ المهام بناءً على تعليمات وأمثلة واضحة. كما أن قدراتهم على معالجة المشاكل الجديدة مقيدة بتدريبهم ومدخلاتهم، مما يجعلهم أقل عرضة لتطوير قدرات غير متوقعة أو خطرة.

في حين أن الدراسة لا تنفي إمكانية إساءة استخدام نماذج الذكاء الاصطناعي المحلية – مثل توليد أخبار مزيفة أو ارتكاب عمليات احتيال – إلا أنها ترى أن المخاوف من تطوير هذه النماذج لمهارات معقدة وغير متوقعة لا أساس لها من الصحة. يجب التركيز على معالجة المخاطر المرتبطة بسوء الاستخدام بدلاً من القلق بشأن التهديدات الوجودية من نماذج الذكاء الاصطناعي.

للنتائج المستخلصة من هذه الدراسة آثار مهمة على مجال الذكاء الاصطناعي. فهي تشير إلى أن التركيز الحالي على إمكانية اكتساب الذكاء الاصطناعي للذكاء الاصطناعي المحلي لقدرات خطيرة قد يصرف الانتباه عن الاهتمامات الأكثر إلحاحًا وعملية. ويدعو البحث إلى اتباع نهج أكثر ارتكازًا لفهم تقنيات الذكاء الاصطناعي وتنظيمها، مع التأكيد على أهمية التركيز على المخاطر المعروفة بدلاً من التهديدات التخمينية.

وينبغي أن تستمر الأبحاث المستقبلية في التحقيق في الآثار العملية المترتبة على استخدامات وسوء استخدامات هذه التكنولوجيا. وفي حين أن الدراسة أوضحت أن التهديد الوجودي الذي تشكله الآلات القابلة للتشغيل الآلي منخفضة الترددات لا تدعمه أدلة، إلا أنها تسلط الضوء على الحاجة إلى اليقظة والتنظيم المستمرين لمنع استخدام التكنولوجيا بطرق ضارة.

وتعزز الدراسة أنه على الرغم من أن هذه الكائنات متطورة، إلا أنها لا تشكل تهديدًا لوجود البشرية. وتقتصر قدراتها على برمجتها والبيانات التي يتم تدريبها عليها، مما يضمن بقاءها قابلة للسيطرة عليها والتنبؤ بها. يجب أن يبقى التركيز على إدارة المخاطر المرتبطة بسوء الاستخدام بدلاً من المخاوف التي لا أساس لها من قدرات التفكير الناشئة.