قد يكون لقرار المحكمة العليا في قضية YouTube عواقب على ChatGPT

عندما تقرر المحكمة العليا في الولايات المتحدة في الأشهر المقبلة ما إذا كانت ستضعف درعًا قويًا يحمي شركات الإنترنت ، فقد يكون للحكم أيضًا تداعيات على التقنيات سريعة التطور مثل روبوت الدردشة للذكاء الاصطناعي ChatGPT.

يجب أن يقرر الحكام بحلول نهاية شهر يونيو ما إذا كان من الممكن مقاضاة شركة Alphabet Inc على YouTube بشأن توصيات الفيديو الخاصة بها للمستخدمين. تختبر هذه الحالة ما إذا كان قانون الولايات المتحدة الذي يحمي منصات التكنولوجيا من المسؤولية القانونية للمحتوى المنشور عبر الإنترنت من قبل المستخدمين ينطبق أيضًا عندما تستخدم الشركات الخوارزميات لاستهداف المستخدمين بالتوصيات.

إن ما تقرره المحكمة بشأن هذه القضايا وثيق الصلة بما يتجاوز منصات وسائل التواصل الاجتماعي. قد يؤثر حكمها على الجدل الناشئ حول ما إذا كانت الشركات التي تطور روبوتات محادثة تعمل بالذكاء الاصطناعي مثل ChatGPT من شركة OpenAI ، وهي شركة تستثمر فيها شركة Microsoft Corp ، أو شركة Bard من شركة Alphabet في Google ، يجب حمايتها من المطالبات القانونية مثل التشهير أو انتهاك سلام الخصوصية. وفقًا لتقنيات وخبراء قانونيين.

وأضاف الخبراء أن ذلك لأن الخوارزميات التي تدعم أدوات الذكاء الاصطناعي مثل ChatGPT وخليفتها GPT-4 تعمل بطريقة مشابهة إلى حد ما لتلك التي تقترح مقاطع فيديو لمستخدمي YouTube.

ستطلب الصين من الروبوتات على غرار الدردشة أن تتماشى مع “القيم الأساسية” الشيوعية

قال كاميرون كيري ، الزميل الزائر في معهد بروكينغز للأبحاث بواشنطن والخبير في الذكاء الاصطناعي: “يدور الجدل حقًا حول ما إذا كان تنظيم المعلومات المتاحة عبر الإنترنت من خلال محركات التوصية مهمًا جدًا في تشكيل المحتوى الذي يصبح مسؤولاً”. “لديك نفس النوع من المشاكل مع chatbot.”

لم يستجب ممثلو OpenAI و Google لطلبات التعليق.

خلال المرافعات في فبراير ، أعرب قضاة المحكمة العليا عن عدم اليقين بشأن ما إذا كان سيتم إضعاف الحماية في القانون ، المعروف بالقسم 230 من قانون آداب الاتصالات لعام 1996. على الرغم من أن القضية لا تتعلق مباشرة بالذكاء الاصطناعي التوليدي ، أشار القاضي نيل غورسوش إلى أن أدوات الذكاء الاصطناعي التي تولد “الشعر” و “الجدل” ربما لن يتمتعوا بمثل هذه الحماية القانونية.

المحكمة العليا للولايات المتحدة

سيتم النظر إلى المحكمة العليا الأمريكية في واشنطن في 27 مارس 2023. سيكون لقرار المحكمة العليا بشأن حماية YouTube آثار على شركات الذكاء الاصطناعي مثل ChatGPT. (رويترز / إيفلين هوكستين).

القضية ليست سوى جانب واحد من محادثة قادمة حول ما إذا كان يجب تطبيق حصانة المادة 230 على نماذج الذكاء الاصطناعي التي يتم تدريبها على الكثير من البيانات الموجودة عبر الإنترنت ولكنها قادرة على إنتاج أعمال أصلية.

يجوز لبايدن تنظيم الذكاء الاصطناعي من أجل “التشويه” و “النتائج التمييزية”

تنطبق الحماية بموجب المادة 230 بشكل عام على محتوى الطرف الثالث من مستخدمي النظام الأساسي التكنولوجي وليس على المعلومات التي ساعدت الشركة في تطويرها. لم تنظر المحاكم بعد في ما إذا كان سيتم تغطية الرد من روبوت محادثة AI.

عواقب أفعالهم

قال السناتور الديمقراطي رون وايدن ، الذي ساعد في صياغة هذا القانون أثناء وجوده في مجلس النواب ، إن درع المسؤولية يجب ألا ينطبق على أدوات الذكاء الاصطناعي التوليدية لأن مثل هذه الأدوات “تخلق المحتوى”.

وقال وايدن في بيان لرويترز “القسم 230 يتعلق بحماية المستخدمين والمواقع الإلكترونية لاستضافة وتنظيم كلام المستخدمين. ولا ينبغي أن يحمي الشركات من عواقب أفعالهم ومنتجاتهم.”

دفعت صناعة التكنولوجيا للحفاظ على القسم 230 على الرغم من معارضة الحزبين للحصانة. قالوا إن أدوات مثل ChatGPT تعمل مثل محركات البحث ، وتوجه المستخدمين إلى المحتوى الموجود ردًا على استفسار.

قال كارل زابو ، نائب الرئيس والمستشار العام لشركة NetChoice ، وهي مجموعة تجارية متخصصة في صناعة التكنولوجيا: “لا يُنشئ الذكاء الاصطناعي أي شيء حقًا. فهو يأخذ المحتوى الحالي ويضعه بطريقة مختلفة أو بتنسيق مختلف”.

قال زابو إن ضعف القسم 230 سيشكل مهمة مستحيلة لمطوري الذكاء الاصطناعي ويهددهم بتعريضهم لفيض من الدعاوى القضائية التي يمكن أن تخنق الابتكار.

يتوقع بعض الخبراء أن المحاكم قد تتخذ موقفًا وسطًا ، وتدرس السياق الذي أدى فيه نموذج الذكاء الاصطناعي إلى استجابة ضارة محتملة.

في الحالات التي يظهر فيها نموذج الذكاء الاصطناعي وكأنه يعيد صياغة المصادر الحالية ، قد يظل الدرع ساريًا. لكن من المعروف أن روبوتات الدردشة مثل ChatGPT تنشئ ردودًا وهمية يبدو أنها لا علاقة لها بالمعلومات الموجودة في مكان آخر عبر الإنترنت ، وهو موقف قال الخبراء إنه من غير المرجح أن تكون محمية.

قال هاني فريد ، وهو تقني وأستاذ في جامعة كاليفورنيا ، بيركلي ، إن الخيال يدفع إلى القول بأن مطوري الذكاء الاصطناعي يجب أن يكونوا محصنين من الدعاوى القضائية على النماذج التي “برمجوها ودربوها ونفذوها”.

انقر هنا للحصول على تطبيق FOX NEWS

قال فريد: “عندما يتم تحميل الشركات المسؤولية في الدعاوى المدنية عن الإصابات الناجمة عن المنتجات التي تنتجها ، فإنها تنتج منتجات أكثر أمانًا”. “وعندما لا تتم محاسبتهم ، فإنهم ينتجون منتجات أقل أمانًا.”

القضية التي تبت فيها المحكمة العليا تتضمن استئنافًا من قبل عائلة نوهيمي غونزاليس ، وهي طالبة جامعية تبلغ من العمر 23 عامًا من كاليفورنيا ، قُتلت برصاص متشددين إسلاميين في باريس عام 2015 ، لرفض محكمة أدنى دعوى قضائية رفعتها عائلتها ضدها. موقع YouTube.

واتهمت الدعوى القضائية جوجل بتقديم “دعم مادي” للإرهاب وزعمت أن يوتيوب ، من خلال خوارزميات منصة مشاركة الفيديو ، أوصى بشكل غير قانوني بمقاطع فيديو من تنظيم الدولة الإسلامية المتشدد ، الذي أعلن مسؤوليته عن هجمات باريس ، لبعض المستخدمين.