/

يدعو ايلون ماسك وقادة آخرون في مجال الذكاء الاصطناعي إلى وقف مؤقت لتطوير أنظمة الذكاء الاصطناعي المتقدمة

يحث أكثر من 1000 خبير وباحث ومؤيد للذكاء الاصطناعي ، بما في ذلك Elon Musk و Steve Wozniak و Emad Mostaque ، على وقف مؤقت لتطوير أنظمة ذكاء اصطناعي متقدمة للغاية. يقترحون إيقاف إنشاء هذه النماذج “العملاقة” للذكاء الاصطناعي ، مثل GPT-4 ، لمدة ستة أشهر على الأقل لتقييم وإدارة قدراتها ومخاطرها بشكل صحيح.

الرسالة المفتوحة ، التي وقعتها شخصيات بارزة من DeepMind و Microsoft و Meta و Google و Amazon ، بالإضافة إلى العالم المعرفي Gary Marcus ، تحذر من السباق غير المنضبط لإنشاء أنظمة ذكاء اصطناعي قوية بشكل متزايد لا يمكن فهمها أو التحكم فيها. يدعو المؤلفون ، الذين نظمهم معهد Future of Life ، إلى التوقف مؤقتًا عن نماذج الذكاء الاصطناعي الأكثر فاعلية من GPT-4 ، مما يشير إلى تدخل الحكومة إذا لم يمتثل الباحثون طواعية.

توضح الرسالة أن الدعوة ليست لوقف تطوير الذكاء الاصطناعي بشكل عام ، بل هي خطوة إلى الوراء عن إنشاء نماذج أكبر لا يمكن التنبؤ بها ذات قدرات ناشئة. يتناقض هذا الموقف بشكل حاد مع الكتاب الأبيض الذي أصدرته حكومة المملكة المتحدة مؤخرًا بشأن تنظيم الذكاء الاصطناعي ، والذي يركز على التنسيق بين المنظمين الحاليين بدلاً من تقديم سلطات جديدة.

يجادل النقاد ، بما في ذلك معهد Ada Lovelace وحزب العمال البريطاني ، بأن نهج الحكومة يحتاج إلى مراجعة وأسرع ، مما يترك المخاطر دون معالجة حيث أصبحت أنظمة الذكاء الاصطناعي مدمجة بشكل متزايد في الحياة اليومية.

تؤكد الرسالة المفتوحة على الحاجة إلى اتباع نهج حذر في تطوير الذكاء الاصطناعي ، مما يضمن أن يكون لأنظمة الذكاء الاصطناعي القوية تأثيرات إيجابية ومخاطر يمكن التحكم فيها. يجادل المؤلفون بأنه تم الوصول إلى النقطة التي يلزم فيها المراجعة المستقلة والقيود المفروضة على معدل نمو موارد الحوسبة لإنشاء نماذج جديدة.

أثارت الدعوة إلى وقف مؤقت لتطوير الذكاء الاصطناعي المتقدم نقاشًا حول وتيرة تكامل الذكاء الاصطناعي ومسؤوليات الباحثين والشركات والحكومات. يؤكد منتقدو الكتاب الأبيض لتنظيم الذكاء الاصطناعي الصادر عن حكومة المملكة المتحدة أن هذا النهج تفاعلي ويتغاضى عن النمو السريع لأنظمة الذكاء الاصطناعي في الحياة اليومية ، من محركات البحث إلى برامج المكاتب.

يحث معهد Future of Life والموقعون على الرسالة المفتوحة على اتخاذ تدابير استباقية لمنع أي عواقب غير مقصودة من نشر أنظمة ذكاء اصطناعي متقدمة للغاية. يسلطون الضوء على أهمية التركيز على الهياكل التنظيمية التي يمكنها إدارة المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي بشكل فعال وضمان اندماجها الآمن في المجتمع.

مع تقدم الذكاء الاصطناعي وأصبح جزءًا لا يتجزأ من الحياة اليومية ، تزداد الحاجة إلى تنظيم قوي وتطوير مسؤول. يمكن أن يوفر التوقف المؤقت الذي اقترحه قادة الذكاء الاصطناعي الوقت اللازم لدراسة وفهم المخاطر المحتملة ، مما يسمح في النهاية باتخاذ قرارات أكثر استنارة وتنفيذ السياسات في المستقبل.