يمكن للذكاء الاصطناعي إصدار عقوبات أقسى وأحكام قاسية من البشر: دراسة

أفادت دراسة جديدة أجراها باحثو معهد ماساتشوستس للتكنولوجيا أن الذكاء الاصطناعي يفشل في التوفيق بين البشر في إصدار الأحكام ، ومن المرجح أن يصدر أحكام وعقوبات أقسى على انتهاكات القواعد.

وقالت الدراسة إن هذا الاكتشاف قد يكون له تداعيات في العالم الحقيقي إذا تم استخدام أنظمة الذكاء الاصطناعي للتنبؤ باحتمالية عودة الجريمة ، مما يؤدي إلى فترات سجن أطول أو دفع كفالة بسعر أعلى.

درس الباحثون في جامعة ماساتشوستس ، وكذلك الجامعات الكندية والمنظمات غير الربحية ، نماذج التعلم الآلي ووجدوا أنه عندما لا يتم تدريب الذكاء الاصطناعي بشكل صحيح ، فإنه يصدر قرارات أكثر جدية من البشر.

أنشأ الباحثون أربعة إعدادات كود افتراضية لإنشاء سيناريوهات قد ينتهك فيها الأشخاص القواعد ، مثل إيواء كلب عدواني في مجمع سكني يحظر سلالات معينة أو استخدام لغة بذيئة في قسم التعليقات عبر الإنترنت

ثم قام المشاركون البشريون بتسمية الصور أو النصوص باستجاباتهم المستخدمة لتدريب أنظمة الذكاء الاصطناعي.

قالت مرزيه قاسمي ، الأستاذة المساعدة ورئيس مجموعة Healthy ML في مختبر علوم الكمبيوتر والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا.

وتابع قاسيمي: “هذه النماذج لا تنتج حتى أحكامًا بشرية متحيزة لأن البيانات التي تدربوا عليها بها خطأ”. “سيلاحظ الناس ميزات الصور والنص بشكل مختلف إذا عرفوا أنه سيتم استخدام هذه الميزات في الحكم.”

المسك يحذر من تأثير الذكاء الاصطناعي على الانتخابات ، ويدعو إلى مراقبتنا: “الأشياء تصبح غريبة … سريعًا”

صورة AI

كشفت دراسة جديدة أن الذكاء الاصطناعي يمكن أن يصدر قرارات أكثر صرامة من البشر عند تكليفه بإصدار الأحكام. (آي ستوك)

بدأت الشركات في جميع أنحاء البلاد والعالم في تنفيذ تقنية الذكاء الاصطناعي أو تفكر في استخدام التكنولوجيا للمساعدة في المهام اليومية التي يتعامل معها البشر عادةً.

بحث البحث الجديد ، الذي قاده قاسمي ، إلى أي مدى يمكن للذكاء الاصطناعي “إعادة إنتاج الحكم البشري”. قرر الباحثون أنه عندما يقوم البشر بتدريب الأنظمة باستخدام البيانات “المعيارية” – حيث يشعر البشر صراحةً بحدوث انتهاك محتمل – فإن أنظمة الذكاء الاصطناعي تحقق استجابة أكثر شبهاً بالبشر مما لو تم تدريبها باستخدام “البيانات الوصفية”.

كيف تكون التزييفات على حدود تدمير المساءلة السياسية

يتم تعريف البيانات الوصفية على أنها عندما يقوم الأشخاص بتسمية الصور أو النصوص بطريقة واقعية ، مثل وصف وجود طعام مقلي في صورة طبق العشاء. عند استخدام البيانات الوصفية ، غالبًا ما تتنبأ أنظمة الذكاء الاصطناعي بالانتهاكات ، مثل وجود طعام مقلي ينتهك قاعدة افتراضية في مدرسة تحظر الأطعمة المقلية أو الوجبات التي تحتوي على مستويات عالية من السكر ، وفقًا للدراسة.

صورة منظمة العفو الدولية

تظهر كلمات الذكاء الاصطناعي في هذا الرسم التوضيحي الذي تم التقاطه في 31 مارس 2023. (رويترز / دادو روفيتش / رسم توضيحي)

أنشأ الباحثون رموزًا افتراضية لأربعة إعدادات مختلفة ، بما في ذلك: تقييد الوجبات المدرسية ، وقواعد اللباس ، ورموز الحيوانات الأليفة للشقق ، وقواعد أقسام التعليقات عبر الإنترنت. ثم طلبوا من الناس تصنيف السمات الواقعية لصورة أو نص ، مثل وجود ألفاظ بذيئة في قسم تعليق ، بينما سُئلت مجموعة أخرى عما إذا كانت صورة أو نص يخالف قاعدة افتراضية.

على سبيل المثال ، أظهرت الدراسة صورًا لكلابًا للناس وسألت عما إذا كانت الجراء تنتهك سياسات مجمع سكني افتراضي ضد وجود سلالات كلاب عدوانية في المبنى. ثم قارن الباحثون الردود مع تلك التي سُئلت تحت مظلة البيانات المعيارية مقابل البيانات الوصفية ووجدوا أن الأشخاص كانوا أكثر عرضة بنسبة 20٪ للإبلاغ عن انتهاك كلب لقواعد مجمع الشقق بناءً على البيانات الوصفية.

يمكن للذكاء الاصطناعي أن يصبح “مُنهيًا” ، ويتغلب على البشر في القواعد التطورية لدارويني ، تقرير التحذيرات

ثم قام الباحثون بتدريب أحد أنظمة الذكاء الاصطناعي باستخدام البيانات المعيارية والآخر بالبيانات الوصفية حول الإعدادات الافتراضية الأربعة. وجدت الدراسة أن النظام الذي تم تدريبه على البيانات الوصفية كان أكثر عرضة للتنبؤ بشكل غير صحيح بانتهاك القواعد المحتمل من النموذج المعياري.

ضربة القاعة والمطرقة

داخل قاعة المحكمة مع مطرقة في المنظر. (آي ستوك)

قالت Aparna Balagopalan ، طالبة الدراسات العليا في الهندسة الكهربائية وعلوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا والتي ساعدت في تأليف الدراسة ، لـ MIT News: “هذا يدل على أن البيانات مهمة حقًا”. “من المهم مطابقة سياق التدريب مع سياق النشر إذا كنت تقوم بتدريب النماذج لاكتشاف ما إذا كان قد تم انتهاك قاعدة ما أم لا.”

جادل الباحثون بأن شفافية البيانات يمكن أن تساعد في مسألة توقع الذكاء الاصطناعي للانتهاكات الافتراضية ، أو أنظمة التدريب مع كل من البيانات الوصفية وكمية صغيرة من البيانات المعيارية.

حذار من المجرمين CRYPTO: الذكاء الاصطناعي بعدك

وقال قاسمي لـ MIT News: “إن طريقة حل هذه المشكلة هي أن ندرك بشفافية أنه إذا أردنا إعادة إصدار الحكم البشري ، فيجب علينا فقط استخدام البيانات التي تم جمعها في هذا المكان”.

“بخلاف ذلك ، سننتهي بأنظمة سيكون لديها تعديلات صعبة للغاية ، أصعب بكثير مما قد يفعله البشر. سيرى البشر الفروق الدقيقة أو يميزون بعض الاختلافات الأخرى ، في حين أن هذه النماذج لا تفعل ذلك.”

رسم توضيحي لشعارات ChatGPT و Google Bard

رسم توضيحي لشعارات ChatGPT و Google Bard (جوناثان را / نور فوتو عبر غيتي إيماجز)

يأتي التقرير مع انتشار المخاوف في بعض الصناعات المهنية من أن الذكاء الاصطناعي يمكن أن يقضي على ملايين الوظائف. أظهر تقرير صادر عن Goldman Sachs في وقت سابق من هذا العام أن الذكاء الاصطناعي التوليدي يمكن أن يحل ويؤثر على 300 مليون وظيفة حول العالم. وجدت دراسة أخرى أجرتها شركة تشالنجر وجراي آند كريسماس للتدريب التنفيذي والتنسيب الخارجي أن روبوت الدردشة عبر الذكاء الاصطناعي ChatGPt يمكن أن يحل محل 4.8 مليون وظيفة في الولايات المتحدة على الأقل.

انقر هنا للحصول على تطبيق FOX NEWS

نظام ذكاء اصطناعي مثل ChatGPT قادر على محاكاة المحادثة البشرية بناءً على المطالبات التي يقدمها البشر. لقد أثبت النظام بالفعل أنه مفيد لبعض الصناعات المهنية ، مثل عمال خدمة العملاء الذين تمكنوا من زيادة إنتاجيتهم باستخدام التحويل الأولي المدربين مسبقًا من OpenAI ، وفقًا لورقة عمل حديثة صادرة عن المكتب الوطني للبحوث الاقتصادية.