يحتاج مجال الذكاء الاصطناعي إلى هيئة رقابة دولية لتنظيم الذكاء الخارق في المستقبل ، وفقًا لمؤسس OpenAI.
في مدونة من الرئيس التنفيذي سام ألتمان وقادة الشركة جريج بروكمان وإيليا سوتسكفر ، قالت المجموعة – نظرًا للمخاطر الوجودية المحتملة – إن العالم “لا يمكن أن يكون مجرد رد فعل” من خلال مقارنة التكنولوجيا بالطاقة النووية.
ولهذه الغاية ، اقترحوا التنسيق بين جهود التنمية الرائدة ، مع إبراز أن هناك “العديد من الطرق التي يمكن من خلالها تنفيذ ذلك” ، بما في ذلك مشروع أنشأته الحكومات الكبرى أو فرض قيود على معدلات النمو السنوية.
“ثانيًا ، ربما نحتاج في النهاية إلى شيء مثل الوكالة الدولية للطاقة الذرية لجهود الذكاء الفائق ؛ أي جهد يتجاوز قدرة معينة (أو موارد مثل الكمبيوتر) يجب أن يخضع لسلطة دولية يمكنها فحص الأنظمة ، وتتطلب عمليات تدقيق ، واختبار الامتثال معايير الأمان ، وفرض قيودًا على معدلات النشر ومستويات الأمان ، وما إلى ذلك ” زعموا.
يمكن أن يصبح الذكاء الاصطناعي قويًا جدًا ليحل محل المحترفين ذوي الخبرة في غضون 10 سنوات ، يحذر سام التمان

سام التمان ، الرئيس التنفيذي لشركة OpenAI ، خلال محادثة في جامعة كوليدج لندن ، المملكة المتحدة ، يوم الأربعاء 24 مايو 2023. (كريس ج.راتكليف / بلومبرج عبر Getty Images)
الوكالة الدولية للطاقة الذرية هي المركز الدولي للتعاون في المجال النووي ، والولايات المتحدة عضو فيها.
قال المؤلفون إن تتبع أجهزة الكمبيوتر واستخدام الطاقة يمكن أن يقطع شوطًا طويلاً.
“كخطوة أولى ، يمكن للشركات الموافقة طوعًا على البدء في تنفيذ عناصر لما قد تطلبه هذه الوكالة يومًا ما ، وكخطوة ثانية ، يمكن للبلدان الفردية تنفيذها. سيكون من المهم لمثل هذه الوكالة أن تركز على تقليل المخاطر الوجودية و ليست القضايا التي يجب تركها للدول الفردية ، مثل تحديد ما يجب أن يُسمح للذكاء الاصطناعي بقوله “، تابع المدونة.
ثالثًا ، قالوا إنهم بحاجة إلى القدرة التقنية لجعل “الذكاء الخارق آمنًا”.

شعار OpenAI على هاتف ذكي في بروكلين في 12 يناير 2023. (غابي جونز / بلومبرغ عبر Getty Images)
أحدث نسخة من امتحانات CHATGPT PASSES RADIOLOGY BOARD-STYLE EXAM ، أبرز ما يميز “إمكانيات اليقظة” لمنظمة العفو الدولية ، المسح
على الرغم من وجود بعض الجوانب “بعيدة المنال” – بما في ذلك السماح بتطوير نماذج أقل من عتبة قدرة كبيرة “بدون نوع التنظيم” الذي وصفوه ، وأن الأنظمة التي “تشعر بالقلق حيالها” لا ينبغي تخفيفها من خلال ” تطبيق معايير مماثلة على التكنولوجيا أقل بكثير من هذا الحد “- قالوا إن حوكمة أقوى الأنظمة يجب أن تخضع لرقابة عامة قوية.

يتحدث سام التمان خلال جلسة استماع للجنة الفرعية القضائية التابعة لمجلس الشيوخ في واشنطن العاصمة ، يوم الثلاثاء 16 مايو 2023. (إريك لي / بلومبرج عبر Getty Images)
“نعتقد أن الناس في جميع أنحاء العالم يجب أن يقرروا بشكل ديمقراطي حدود ومعايير أنظمة الذكاء الاصطناعي. لا نعرف حتى الآن كيفية تصميم مثل هذه الآلية ، لكننا نخطط لتجربة تطويرها. وما زلنا نعتقد ، ضمن هذه الحدود الواسعة يجب أن يكون لدى المستخدمين الأفراد قدر كبير من التحكم في سلوك الذكاء الاصطناعي الذي يستخدمونه “.
يعتقد الثلاثي أنه من المتصور أن تتجاوز أنظمة الذكاء الاصطناعي مستوى الخبراء في معظم المجالات خلال العقد المقبل.
فلماذا نبني تكنولوجيا الذكاء الاصطناعي على الإطلاق بالنظر إلى المخاطر والصعوبات التي تطرحها؟
انقر هنا للحصول على تطبيق FOX NEWS
يزعمون أن الذكاء الاصطناعي سيؤدي إلى “عالم أفضل بكثير مما نتخيله اليوم” وأنه سيكون “مخاطرة غير مبررة ويصعب إيقاف خلق الذكاء الخارق”.
“نظرًا لأن الفوائد ضخمة جدًا ، فإن تكلفة بنائه تتراجع كل عام ، وعدد اللاعبين الذين يقومون ببنائه يتزايد بسرعة ، وهو بطبيعته جزءًا من المسار التكنولوجي الذي نسير فيه ، وسيتطلب إيقافه شيئًا مثل المراقبة العالمية النظام ، وحتى هذا ليس مضمونًا للعمل. لذا علينا أن ننجح “.