“الأب الروحي للذكاء الاصطناعي” يترك شركة جوجل ويحذر من الخطر في المستقبل

كان جيفري هينتون رائدًا في مجال الذكاء الاصطناعي. في عام 2012 ، أنشأ د هينتون واثنان من طلابه الخريجين في جامعة تورنتو للتكنولوجيا التي أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح لمستقبلهم.

ومع ذلك ، انضم رسميًا يوم الاثنين إلى مجموعة متزايدة من النقاد الذين يقولون إن هذه الشركات تتعرض للخطر من خلال حملتها العدوانية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي ، وهي التكنولوجيا التي تشغل برامج الدردشة الشهيرة مثل ChatGPT.

دكتور. قال هينتون إنه استقال من وظيفته في Google ، حيث عمل لأكثر من عقد وأصبح أحد أكثر الأصوات احترامًا في هذا المجال ، حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي. قال إن جزءًا منه يندم الآن على عمله في الحياة.

قال د. هينتون خلال مقابلة مطولة الأسبوع الماضي في غرفة الطعام بمنزله في تورنتو ، على مسافة قصيرة من المكان الذي حقق فيه هو وطلابه تقدمًا كبيرًا.

دكتور. تمثل رحلة هينتون من رواد الذكاء الاصطناعي إلى يوم القيامة لحظة رائعة لصناعة التكنولوجيا في ربما أهم نقطة تحول لها منذ عقود. يعتقد قادة الصناعة أن أنظمة الذكاء الاصطناعي الجديدة يمكن أن تكون بنفس أهمية إدخال متصفح الويب في أوائل التسعينيات ويمكن أن تؤدي إلى اختراقات في مجالات تتراوح من أبحاث الأدوية إلى التعليم.

لكن قضم العديد من المطلعين على الصناعة هو خوف من أن يطلقوا شيئًا خطيرًا في البرية. يمكن أن يكون الذكاء الاصطناعي التوليدي بالفعل أداة للتضليل. قريبا قد يكون هناك خطر على الوظائف. في مكان ما على طول الخط ، قل أكبر مخاوف التكنولوجيا ، قد تكون خطرًا على البشرية.

قال د. هينتون.

بعد أن أصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصدارًا جديدًا من ChatGPT في مارس ، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعو إلى وقف لمدة ستة أشهر لتطوير أنظمة جديدة لأن تقنيات الذكاء الاصطناعي تشكل “مخاطر جسيمة على المجتمع والإنسانية “.

بعد عدة أيام ، 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي ، وهي جمعية أكاديمية عمرها 40 عامًا ، نشر رسالتهم الخاصة التحذير من مخاطر الذكاء الاصطناعي. ضمت تلك المجموعة إريك هورفيتز ، كبير المسؤولين العلميين في Microsoft ، التي طبقت تقنية OpenAI عبر مجموعة واسعة من المنتجات ، بما في ذلك محرك بحث Bing.

دكتور. لم يوقع هينتون ، الذي يُطلق عليه غالبًا “عراب الذكاء الاصطناعي” ، أيًا من هذه الرسائل وقال إنه لن ينتقد Google أو الشركات الأخرى علنًا حتى يترك وظيفته. أخبر الشركة الشهر الماضي أنه سيستقيل ، ويوم الخميس تحدث عبر الهاتف مع Sundar Pichai ، الرئيس التنفيذي لشركة Google الأم ، Alphabet. ورفض مناقشة تفاصيل محادثته مع السيد بيتشاي علانية.

قال كبير العلماء في Google ، جيف دين ، في بيان: “نبقى ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الجديدة مع الابتكار بجرأة.”

دكتور. هينتون ، مغترب بريطاني يبلغ من العمر 75 عامًا ، هو أكاديمي مدى الحياة كانت مسيرته مدفوعة بمعتقداته الشخصية حول تطوير واستخدام الذكاء الاصطناعي. هينتون فكرة تسمى الشبكة العصبية. الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت ، كان عدد قليل من الباحثين يؤمن بالفكرة. لكنه أصبح عمل حياته.

في الثمانينيات ، د. هينتون أستاذ علوم الكمبيوتر بجامعة كارنيجي ميلون ، لكنه ترك الجامعة إلى كندا لأنه قال إنه كان مترددًا في الحصول على تمويل من البنتاغون. في ذلك الوقت ، تم تمويل معظم أبحاث الذكاء الاصطناعي في الولايات المتحدة من قبل وزارة الدفاع. دكتور. يعارض هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة – ما يسميه “الروبوتات الجنود”.

في عام 2012 ، د. هينتون واثنان من طلابه في تورنتو ، إيليا سوتسكيفر وأليكس كريشيفسكي ، وهي شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها التعرف على الأشياء الشائعة ، مثل الزهور والكلاب والسيارات.

جوجل أنفق 44 مليون دولار للحصول على شركة بدأها د. هينتون وطلابه. وقد أدى نظامهم إلى إنشاء تقنيات أقوى من أي وقت مضى ، بما في ذلك روبوتات الدردشة الجديدة مثل ChatGPT و Google Bard. السيد. ذهب Sutskever ليصبح كبير العلماء في OpenAI. في عام 2018 ، استقبل د هينتون واثنان آخران من المتعاونين منذ فترة طويلة جائزة تورينج ، التي يطلق عليها غالبًا “جائزة نوبل للحوسبة” ، لعملهم على الشبكات العصبية.

في نفس الوقت تقريبًا ، بدأت Google و OpenAI وشركات أخرى في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية. دكتور. يعتقد هينتون أنها كانت طريقة قوية للآلات لفهم اللغة وتوليدها ، لكنها كانت أدنى من الطريقة التي يتعامل بها البشر مع اللغة.

ثم في العام الماضي ، عندما قامت Google و OpenAI ببناء أنظمة تستخدم كميات أكبر من البيانات ، تغيرت وجهة نظره. كان لا يزال يعتقد أن الأنظمة كانت أدنى من الدماغ البشري من بعض النواحي ، لكنه اعتقد أنها طغت على الذكاء البشري في جوانب أخرى. قال: “ربما ما يحدث في هذه الأنظمة هو في الواقع أفضل بكثير مما يحدث في الدماغ.”

مع قيام الشركات بتحسين أنظمة الذكاء الاصطناعي الخاصة بها ، يعتقد أنها أصبحت أكثر وأكثر خطورة. قال عن تقنية الذكاء الاصطناعي: “انظر كيف كان الأمر قبل خمس سنوات وكيف هو الآن”. “خذ الفرق وانشره للأمام. إنه أمر مخيف “.

وقال إنه حتى العام الماضي ، عملت Google كـ “الوكيل المناسب” للتكنولوجيا ، وحرصًا على عدم إطلاق أي شيء يمكن أن يسبب ضررًا. ولكن الآن بعد أن وسعت Microsoft محرك بحث Bing الخاص بها باستخدام chatbot – الذي يتحدى أعمال Google الأساسية – فإن Google في طور تنفيذ نفس النوع من التكنولوجيا. قال د. هينتون.

قلقه المباشر هو أن الإنترنت سوف تغمره الصور ومقاطع الفيديو والنصوص المزيفة ، ولن يكون الشخص العادي “قادرًا على معرفة ما هو حقيقي”.

كما أنه يشعر بالقلق من أن تقنيات الذكاء الاصطناعي ستغير سوق العمل في نهاية المطاف. اليوم ، تميل روبوتات الدردشة مثل ChatGPT إلى تكملة العاملين من البشر ، لكنها يمكن أن تحل محل المساعدين القانونيين والمساعدين الشخصيين والمترجمين وغيرهم ممن يتعاملون مع المهام عن ظهر قلب. قال: “إنها تزيل الكدح منها”. “يمكن أن يأخذ أكثر من ذلك.”

على طول الطريق ، يشعر بالقلق من أن الإصدارات المستقبلية من التكنولوجيا تشكل تهديدًا للبشرية لأنهم غالبًا ما يتعلمون سلوكيات غير متوقعة من الكم الهائل من البيانات التي يقومون بتحليلها. قال إن هذه تصبح مشكلة ، حيث أن الأفراد والشركات يسمحون لأنظمة الذكاء الاصطناعي ليس فقط إنشاء كود الكمبيوتر الخاص بهم ، ولكن في الواقع تشغيل هذا الرمز بأنفسهم. وهو يخشى أن تصبح الأسلحة المستقلة حقًا – الروبوتات القاتلة – حقيقة واقعة.

قال: “فكرة أن هذه الأشياء يمكن أن تصبح في الواقع أكثر ذكاءً من البشر – قلة من الناس يعتقدون ذلك”. لكن معظم الناس اعتقدوا أنه بعيد جدا. واعتقدت أنها كانت بعيدة. اعتقدت أنه كان من 30 إلى 50 عامًا أو أبعد من ذلك. بالطبع ، لم أعد أعتقد ذلك “.

يقول العديد من الخبراء الآخرين ، بما في ذلك العديد من طلابه وزملائه ، إن هذا التهديد افتراضي. لكن د. يعتقد هينتون أن السباق بين جوجل ومايكروسوفت وغيرها سوف يتصاعد إلى سباق عالمي لن يتوقف بدون شكل من أشكال التنظيم العالمي.

قال لكن هذا قد يكون مستحيلا. وقال إنه على عكس الأسلحة النووية ، لا توجد طريقة لمعرفة ما إذا كانت الشركات أو الدول تعمل على التكنولوجيا في الخفاء. أفضل أمل هو أن يتعاون كبار العلماء في العالم على طرق التحكم في التكنولوجيا. وقال: “لا أعتقد أنه ينبغي عليهم زيادة هذا الأمر أكثر من ذلك حتى يفهموا ما إذا كان بإمكانهم السيطرة عليه”.

دكتور. قال هينتون إنه عندما اعتاد الناس أن يسألوه كيف يمكنه العمل مع التكنولوجيا التي يحتمل أن تكون خطرة ، كان يعيد صياغة روبرت أوبنهايمر ، الذي قاد الجهود الأمريكية لبناء القنبلة الذرية: “عندما ترى شيئًا جميلًا من الناحية الفنية ، انطلق وافعل هو – هي.”

لم يعد يقول ذلك بعد الآن.