أدلى سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، بشهادته أمام الكونجرس في واشنطن العاصمة هذا الأسبوع حول تنظيم الذكاء الاصطناعي ، بالإضافة إلى مخاوفه الشخصية بشأن التكنولوجيا وما تعنيه له أنظمة الذكاء الاصطناعي “المخيفة”.
طلبت قناة Fox News Digital من برنامج الدردشة ChatGPT الخاص بشركة OpenAI ، أن يثقل كاهلها أيضًا بأمثلة لأنظمة الذكاء الاصطناعي “المخيفة” ، وأبلغت عن ست حالات افتراضية لكيفية تسليح الذكاء الاصطناعي أو أن يكون له آثار ضارة محتملة على المجتمع.
عندما سألته فوكس نيوز ديجيتال يوم الثلاثاء بعد شهادته أمام اللجنة القضائية الفرعية التابعة لمجلس الشيوخ ، قدم ألتمان أمثلة على “ذكاء اصطناعي مخيف” يتضمن أنظمة يمكنها تصميم “مسببات الأمراض البيولوجية الجديدة”.
وتابع: “ذكاء اصطناعي يمكنه اختراق أنظمة الكمبيوتر”. “أعتقد أنها كلها مخيفة. يمكن أن تصبح هذه الأنظمة قوية جدًا ، ولهذا السبب كنت سعيدًا لوجودي هنا اليوم ولماذا أعتقد أنها مهمة جدًا.”
سام ألتمان ، الرئيس التنفيذي لشركة OPENAI ، يرفض ما يعتقد أنه “مخاوف” من الذكاء الاصطناعي

الرئيس التنفيذي لشركة OpenAI ، سام التمان ، يتحدث إلى الصحافة بعد شهادته أمام اللجنة الفرعية القضائية في مجلس الشيوخ في 16 مايو 2023. (فوكس نيوز)
انتشرت المخاوف بين بعض خبراء وقادة التكنولوجيا ، فضلاً عن أفراد الجمهور ، من أن الذكاء الاصطناعي يمكن أن ينمو على دراية وقوة بحيث يمكن أن يقضي على المجتمع.
على سبيل المثال ، حذر “الأب الروحي للذكاء الاصطناعي” ، عالم الكمبيوتر جيفري هينتون ، الشهر الماضي من أنه “ليس من غير المعقول” أن يقضي الذكاء الاصطناعي على “الإنسانية”. جاءت تصريحاته بعد استقالته من وظيفته في جوجل ، قائلا إنه يأسف لعمل حياته بسبب كيفية إساءة استخدام الذكاء الاصطناعي.
نظام سلاح مستقل متقدم

عندما سئل عن أمثلة على “الذكاء الاصطناعي المخيف” ، أجاب ChatGPT: “هؤلاء [autonomous weapon systems]غالبًا ما يشار إليها باسم “الروبوتات القاتلة” أو “الأسلحة المستقلة الفتاكة” ، وتثير مخاوف أخلاقية وإمكانية إساءة الاستخدام أو العواقب غير المقصودة “. (Costfoto / Future Publishing عبر Getty Images)
بعد تعليقات Altman حول الذكاء الاصطناعي المخيف وقادة التكنولوجيا الآخرين الذين دقوا ناقوس الخطر بشأن إساءة استخدام الذكاء الاصطناعي ، طلبت قناة Fox News Digital يوم الأربعاء من ChatGPT تقديم مثال على “الذكاء الاصطناعي المخيف”.
أجاب الشات بوت: “مثال على الذكاء الاصطناعي المخيف هو نظام سلاح مستقل متطور يمكنه تحديد الأهداف والاشتباك معها بشكل مستقل دون تدخل بشري”. “هذه الأنظمة ، التي يشار إليها غالبًا باسم ‘الروبوتات القاتلة’ أو ‘الأسلحة المستقلة الفتاكة’ ، تثير مخاوف أخلاقية وإمكانية إساءة الاستخدام أو العواقب غير المقصودة.
قال ChatGPT “تخيل سيناريو حيث يتم برمجة نظام سلاح يعمل بالذكاء الاصطناعي بمجموعة من المعايير لتحديد التهديدات المحتملة والقضاء عليها.” إذا تعطل هذا النظام أو وقع في أيدي جهات سيئة ، “فقد يؤدي ذلك إلى استهداف عشوائي يتسبب في دمار واسع النطاق وخسائر في الأرواح”.
وأضافت الشات بوت أن هذا كان مجرد مثال واحد على “كيف يمكن للذكاء الاصطناعي ، إذا لم يتم التحكم فيه بشكل صحيح أو توجيهه بالقيم البشرية ، أن يكون له تداعيات تنذر بالخطر.”
التزييف العميق

انتشرت المخاوف بين بعض خبراء وقادة التكنولوجيا ، فضلاً عن أفراد الجمهور ، من أن الذكاء الاصطناعي يمكن أن ينمو على دراية وقوة بحيث يمكن أن يقضي على المجتمع. (رويترز / دادو روفيتش / رسم توضيحي)
طلبت قناة Fox News Digital من روبوت المحادثة تقديم أمثلة إضافية عن “الذكاء الاصطناعي المخيف” ، والمثال الثاني المعطى هو “التزييف العميق” ، والذي غالبًا ما يتضمن تحرير مقاطع الفيديو أو صور الأشخاص لجعلهم يبدون وكأنهم شخص آخر باستخدام الذكاء الاصطناعي للتعلم العميق.
وقال تشات جي بي تي: “يمكن إساءة استخدام هذه التكنولوجيا لنشر معلومات مضللة أو ابتزاز أو التلاعب بالرأي العام. يمكن أن يؤدي التزييف العميق إلى تقويض الثقة وخلق اضطرابات اجتماعية والإضرار بالسمعة”.
ضرب Deepfakes الرادار العام في عام 2017 بعد أن نشر مستخدم Reddit مواد إباحية واقعية للمشاهير على المنصة. ومنذ ذلك الحين ، أصبحت تقنية التزييف العميق أكثر انتشارًا وإقناعًا ، مما أدى إلى ظهور مقاطع فيديو مزيفة مثل الممثل الكوميدي جيري سينفيلد في فيلم الجريمة الكلاسيكي “Pulp Fiction” أو مغني الراب سنوب دوج الذي يظهر في إعلان ترويجي مزيف يروج لقراءات بطاقات التارو.
يقول النقد إن الذكاء الاصطناعي يمكنه ترامب البشر ، لكن الدردشة لها تنبؤات يوم القيامة الخاصة بها
المراقبة التي تعمل بالذكاء الاصطناعي

كما سرد موقع ChatGPT “أنظمة المراقبة التي تعمل بالذكاء الاصطناعي” التي يستخدمها الفاعلون السيئون ، مثل “الأنظمة الاستبدادية” ، كمثال على “الذكاء الاصطناعي المخيف”. (Smith Collection / Gado / Getty Images / File)
ثم سرد روبوت المحادثة “أنظمة المراقبة التي تعمل بالذكاء الاصطناعي” التي يستخدمها الفاعلون السيئون ، مثل “الأنظمة الاستبدادية” ، كمثال على “الذكاء الاصطناعي المخيف”.
وقال برنامج الدردشة الآلي: “إن استخدام الذكاء الاصطناعي في أنظمة المراقبة قد يثير مخاوف بشأن الخصوصية والحريات المدنية”. “يمكن لخوارزميات التعرف على الوجه المتقدمة جنبًا إلى جنب مع كاميرات المراقبة تمكين التتبع الجماعي وتحديد الأفراد ، مما يؤدي إلى انتهاكات محتملة من قبل الأنظمة الاستبدادية أو المراقبة الغازية للمواطنين.”
في الولايات المتحدة ، استخدمت بعض إدارات الشرطة والشركات الخاصة أنظمة التعرف على الوجه التي تعمل بالذكاء الاصطناعي في محاولة للحد من الجريمة. جاء استخدام التكنولوجيا مع بعض الإخفاقات الملحوظة ، بما في ذلك عدد قليل من الدعاوى القضائية من أشخاص قالوا إنهم تم القبض عليهم عن طريق الاحتيال عندما أخطأت الأنظمة في التعرف على المشتبه به في قضية جنائية.
روبوتات الهندسة الاجتماعية

يواجه الذكاء الاصطناعي جدلاً حول التنظيم. (آي ستوك)
قال موقع ChatGPT إن روبوتات المحادثة نفسها تشكل تهديدًا للمجتمع والأفراد ، بحجة أنه يمكن تدريب “روبوتات المحادثة وخوارزميات الهندسة الاجتماعية” على “التلاعب بالسلوك البشري واستغلال نقاط الضعف”.
وقال برنامج الدردشة الآلي: “يمكن استخدام هذه الروبوتات في هجمات التصيد الاحتيالي ونشر الدعاية أو التأثير على الرأي العام من خلال منصات التواصل الاجتماعي ، مما يضخم احتمالية المعلومات المضللة والانقسام المجتمعي”.
عندما طُلب من ChatGPT توضيح التهديدات التي يمكن أن تشكلها برامج الدردشة الآلية ، قال إن هذه التكنولوجيا لديها القدرة على محاكاة المحادثات البشرية و “التفاعل بشكل مقنع مع الأفراد”. يمكن لروبوتات الدردشة بعد ذلك “استغلال نقاط الضعف النفسية” لدى الأشخاص من خلال تحليل ردودهم ، مما قد يؤدي إلى قيام الأشخاص بالكشف عن معلومات شخصية حساسة أو شراء معلومات كاذبة من الروبوتات ، أو قد تتلاعب الأنظمة “بالعواطف البشرية لأغراض ضارة”.
الرئيس التنفيذي لشركة OPENAI SAM ALTMAN يدعو اللائحة الفيدرالية بشأن الذكاء الاصطناعي
البطالة وعدم المساواة الاقتصادية

رجال عاطلون عن العمل يصطفون لتناول القهوة والخبز في مطعم للفقراء في مدينة نيويورك حوالي عام 1930. (FPG / Hulton Archive / Getty Images)
جادل موقع ChatGPT بأنه كلما أصبحت أنظمة الذكاء الاصطناعي أكثر قوة ، يمكن أن تتولى الوظائف التي يشغلها البشر عادةً ، مما قد يؤدي إلى توسيع “عدم المساواة الاقتصادية”.
وقال تشات جي بي تي: “هناك مخاوف بشأن الاستغناء عن الوظائف وزيادة عدم المساواة الاقتصادية”. “الأنظمة والروبوتات التي تعمل بالذكاء الاصطناعي والتي تحل محل العاملين البشريين في مختلف الصناعات يمكن أن تؤدي إلى خسائر كبيرة في الوظائف واضطراب اجتماعي إذا لم تتم إدارتها بشكل صحيح أو مصحوبة بتدابير لإعادة تدريب القوى العاملة وإعادة تدريبها”.
أظهر تقرير صادر عن Goldman Sachs في وقت سابق من هذا العام أن الذكاء الاصطناعي التوليدي يمكن أن يحل ويؤثر على 300 مليون وظيفة حول العالم. وجدت دراسة أخرى أجرتها شركة التدريب الخارجي والتنفيذي Challenger، Gray & Christmas أن ChatGPT يمكن أن تحل محل ما لا يقل عن 4.8 مليون وظيفة في الولايات المتحدة.
تسببت التقارير في بعض القلق بين العمال ، بما في ذلك المجالات التي من المرجح أن تتأثر بالتكنولوجيا ، مثل ممثلي خدمة العملاء ، لكن مؤيدي التكنولوجيا يقولون إن انتشار الذكاء الاصطناعي يمكن أن يؤدي إلى تطوير وظائف جديدة وتعزيز الاقتصاد .
صرح سام ألتمان ، الرئيس التنفيذي لشركة OPENAI ، بأكبر مخاوفه بشأن الذكاء الاصطناعي: “ قد يحدث خطأ ”
التحيز والتمييز في الذكاء الاصطناعي
قال ChatGPT إن أنظمة الذكاء الاصطناعي يمكن أن تديم التحيز والتمييز بناءً على كيفية تدريبها ، مما قد يعزز “عدم المساواة المجتمعية القائمة”.
قال تشات جي بي تي: “يمكن لأنظمة الذكاء الاصطناعي أن تديم بشكل غير مقصود التحيزات الموجودة في البيانات التي يتم تدريبها عليها ، مما يؤدي إلى نتائج تمييزية”. “على سبيل المثال ، يمكن للخوارزميات المتحيزة في عمليات التوظيف أو أنظمة الشرطة التنبؤية أن تديم التحيزات المنهجية والمعاملة غير العادلة لمجموعات معينة ، مما يعزز عدم المساواة المجتمعية القائمة.”
يمكن لـ ChatGPT أحيانًا “الهلوسة” ، مما يعني أنه يمكن أن يستجيب لاستعلام بإجابة تبدو صحيحة ولكنها في الواقع مختلقة. ازدادت المخاوف بشأن الهلوسة والتحيز السياسي في أنظمة الذكاء الاصطناعي في الأشهر الأخيرة ، حيث أخبر عملاق التكنولوجيا إيلون ماسك Fox News الشهر الماضي أن مبرمجي Silicon Valley “يدربون الذكاء الاصطناعي على الكذب”.
من هو سام التمان؟ القائد التقني خلف مختبر الذكاء الاصطناعي OPENAI

يمكن لـ ChatGPT أحيانًا “الهلوسة” ، مما يعني أنه يمكن أن يستجيب لاستعلام بإجابة تبدو صحيحة ولكنها في الواقع مختلقة. (Getty Images / ملف)
سلطت ChatGPT الضوء في ردودها حول “الذكاء الاصطناعي المخيف” على أنه في حين أن أمثلةها تلقي الضوء على “الآثار السلبية المحتملة للذكاء الاصطناعي ، فإنها تعكس أيضًا أهمية التطوير المسؤول ، والتنظيم ، والاعتبارات الأخلاقية للتخفيف من هذه المخاطر وضمان الاستخدام المفيد والآمن للذكاء الاصطناعي. تقنيات الذكاء الاصطناعي. “
الرئيس التنفيذي لشركة OPENAI ، سام ألتمان ، قبل مجلس الشيوخ ، حيث تعمل الصحافة على تنظيم الذكاء الاصطناعي
قال ألتمان خلال جلسة استماع في مجلس الشيوخ يوم الثلاثاء إن أكبر مخاوفه من تطوير أوبن إيه آي للذكاء الاصطناعي هو أنه يسبب اضطرابات كبيرة ضارة للبشر.

الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، يشغل مقعده قبل بدء جلسة اللجنة الفرعية القضائية التابعة لمجلس الشيوخ حول منظمة العفو الدولية ، الثلاثاء 16 مايو 2023. (بيل كلارك / CQ-Roll Call Inc. عبر Getty Images)
“أسوأ ما أخشاه هو أننا نتسبب بأهميتنا – نحن ، في الميدان ، صناعة التكنولوجيا – تسبب ضررا كبيرا في العالم ، “قال ألتمان.” أعتقد أن ذلك يمكن أن يحدث في كثير من الطرق المختلفة. لهذا بدأنا الشركة “.
وأضاف: “أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء بشكل فادح ، ونريد أن نكون صريحين بشأن ذلك”. واضاف “سنعمل مع الحكومة لمنع حدوث ذلك”.
انقر هنا للحصول على تطبيق FOX NEWS
قال ألتمان في جلسة الاستماع إنه يرحب بإمكانية العمل مع المشرعين الأمريكيين على صياغة قواعد ذكاء اصطناعي من شأنها أن تساعد في منع النتائج غير المرغوب فيها باستخدام التكنولوجيا.