تتنبأ كونشا بـ “سباق تسلح” لتسليح الذكاء الاصطناعي
انضم المساهم في قناة فوكس نيوز جو كونشا إلى برنامج “فوكس آند فريندز فيرست” لمناقشة تحذير إيلون ماسك من أن الذكاء الاصطناعي قد يهدد الانتخابات ومخاوفه بشأن انخفاض معدل المواليد. يناقش كونشا أيضًا استجابة AOC للجريمة في مدينة نيويورك.
قبل وقت طويل من توقيع Elon Musk والمؤسس المشارك لشركة Apple Steve Wozniak على رسالة تحذر من أن الذكاء الاصطناعي يشكل “مخاطر عميقة” على البشرية ، كان عالم الفيزياء النظرية البريطاني ستيفن هوكينغ قد دق ناقوس الخطر بشأن التكنولوجيا سريعة التطور.
قال هوكينغ لبي بي سي في مقابلة عام 2014: “إن تطوير ذكاء اصطناعي كامل يمكن أن يعني نهاية الجنس البشري”.
توفي هوكينج ، الذي عانى من التصلب الجانبي الضموري (ALS) لأكثر من 55 عامًا ، في عام 2018 عن عمر يناهز 76 عامًا. وعلى الرغم من أنه كان لديه ملاحظات انتقادية حول الذكاء الاصطناعي ، فقد استخدم أيضًا شكلاً أساسيًا جدًا من التكنولوجيا للتواصل بسبب مرضه مما يضعف العضلات ويطلب من هوكينج استخدام كرسي متحرك.
غير قادر على التحدث في عام 1985 ، اعتمد هوكينج على وسائل اتصال مختلفة ، بما في ذلك جهاز توليد الكلام الذي تعمل عليه شركة Intel ، والذي سمح له باستخدام إيماءات الوجه لاختيار الكلمات أو الحروف التي تم تصنيعها في الكلام.
قال ستيفن هوك “لا إله” وأن البشر “سيعيشون في الفضاء” في الكتاب النهائي

ستيفن هوكينج في عام 2007. (برونو فينسينت / جيتي إيماجيس / ملف)
تعليق هوكينغ لبي بي سي في عام 2014 بأن الذكاء الاصطناعي يمكن أن “يصف نهاية الجنس البشري” كان ردًا على سؤال حول إمكانية تجديد تقنية الصوت التي اعتمد عليها. وقال لبي بي سي إن الأشكال الأساسية للذكاء الاصطناعي قد ثبت بالفعل أنها قوية ، لكن إنشاء أنظمة تنافس الذكاء البشري أو تفوقه قد يكون كارثيًا على الجنس البشري.
وقال: “سوف تلتقط نفسها وتعيد تصميم نفسها بمعدل متزايد باستمرار”.
التحيز والموت والسيارات المستقلة: يقول الخبراء إن حوادث الذكاء الاصطناعي ستتضاعف مع إطلاق وادي السيليكون للسباق التقني
وأضاف هوكينج “البشر ، المحدودين بسبب التطور البيولوجي البطيء ، لا يستطيعون التنافس وسيتم استبدالهم”.

ظهر ستيفن هوكينج في 10 أكتوبر 1979 في برينستون ، نيو جيرسي. (سانتي فيسالي / جيتي إيماجيس)
بعد أشهر من وفاته ، وصل كتاب هوكينج الأخير إلى السوق. بعنوان “إجابات مختصرة على الأسئلة الكبيرة” ، زود كتابه القراء بإجابات على الأسئلة التي كان يطرح عليها كثيرًا. كشف كتاب العلوم عن حجة هوكينج ضد وجود الله ، وكيف من المحتمل أن يعيش البشر في الفضاء يومًا ما ، ومخاوفه بشأن الهندسة الوراثية والاحتباس الحراري.
كما احتل الذكاء الاصطناعي صدارة قائمة “الأسئلة الكبيرة” ، بحجة أن أجهزة الكمبيوتر “من المحتمل أن تتفوق على البشر في الذكاء” في غضون 100 عام.
وكتب “ربما نواجه انفجارا استخباراتيا سينتج عنه في نهاية المطاف آلات يتجاوز ذكائها ذكاءنا بأكثر من ذكاءنا الذي يفوق ذكاء القواقع”.
وقال إنه يجب تدريب أجهزة الكمبيوتر على التكيف مع الأهداف البشرية ، مضيفًا أن عدم أخذ المخاطر المرتبطة بالذكاء الاصطناعي على محمل الجد قد يكون “أسوأ خطأ لنا على الإطلاق”.
خبير تقني يحذر من أن الذكاء الاصطناعي قد يربح التواصل البشري والرومانسية: “ أحدث نسخة من تقليد طويل ”
“من المغري استبعاد فكرة الآلات عالية الذكاء باعتبارها خيالًا علميًا خالصًا ، ولكن هذا سيكون خطأ – وربما يكون أسوأ خطأ على الإطلاق.”
تعكس تصريحات هوكينج المخاوف التي أثارها هذا العام عملاق التكنولوجيا إيلون ماسك والمؤسس المشارك لشركة آبل ستيف وزنياك في خطاب صدر في مارس. وقع الزعيمان التقنيان ، جنبًا إلى جنب مع الآلاف من الخبراء الآخرين ، خطابًا يدعو إلى التوقف لمدة ستة أشهر على الأقل لبناء أنظمة ذكاء اصطناعي أقوى من روبوت الدردشة GPT-4 الخاص بـ OpenAI.

الرئيس التنفيذي لشركة Tesla Elon Musk (باتريك بلول / بول / جيتي إيماجيس / ملف)
جاء في الرسالة التي نشرتها المنظمة غير الربحية Future of Life: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من بحث مكثف ومعترف به من قبل أفضل مختبرات الذكاء الاصطناعي”.
تم إنجاز ورقة ستيفن هوكينغ النهائية
أصبح ChatGPT من OpenAI هو أسرع قاعدة مستخدمين نموًا مع 100 مليون مستخدم نشط شهريًا في يناير حيث سارع الناس في جميع أنحاء العالم لاستخدام chatbot ، الذي يحاكي المحادثات الشبيهة بالبشر بناءً على المطالبات المقدمة. أصدر المختبر أحدث نسخة من النظام الأساسي ، GPT-4 ، في مارس.

أصبح ChatGPT من OpenAI أسرع قاعدة مستخدمين نموًا مع 100 مليون مستخدم نشط شهريًا في يناير حيث سارع الناس في جميع أنحاء العالم لاستخدام chatbot. (إدواردو بارا / يوروبا برس عبر Getty Images / File)
على الرغم من الدعوات لإيقاف الأبحاث في مختبرات الذكاء الاصطناعي التي تعمل على التكنولوجيا التي من شأنها أن تتجاوز GPT-4 ، كان إطلاق النظام بمثابة لحظة فاصلة تردد صداها في جميع أنحاء صناعة التكنولوجيا ودفعت العديد من الشركات إلى التنافس لبناء أنظمة الذكاء الاصطناعي الخاصة بها.
يقول ستيفن هوكينغ إن الذكاء الاصطناعي يمكن أن “يخلف” البشر
تعمل Google على إصلاح محرك البحث الخاص بها وحتى إنشاء محرك بحث جديد يعتمد على الذكاء الاصطناعي ؛ قامت Microsoft بطرح محرك بحث “Bing الجديد” ، والذي تم وصفه بأنه “مساعد طيار مستخدم يعمل بالذكاء الاصطناعي على الويب” ؛ وقال ماسك إنه سيطلق نظام ذكاء اصطناعي منافس وصفه بأنه “أقصى درجات البحث عن الحقيقة”.

ستيفن هوكينج شوهد في مرصد ون وورلد في 12 أبريل 2016 في مدينة نيويورك. (بريان بيدر / جيتي إيماجيس)
نصح هوكينغ العام السابق لوفاته بأن العالم يجب أن “يتعلم الاستعداد وتجنب المخاطر المحتملة” المرتبطة بالذكاء الاصطناعي ، بحجة أن الأنظمة “يمكن أن تكون أسوأ حدث في تاريخ حضارتنا”. ومع ذلك ، أشار إلى أن المستقبل لا يزال مجهولاً وأن الذكاء الاصطناعي يمكن أن يكون مفيدًا للبشرية إذا تم تدريبه بشكل صحيح.
انقر هنا للحصول على تطبيق FOX NEWS
“النجاح في إنشاء ذكاء اصطناعي فعال يمكن أن يكون أعظم حدث في تاريخ حضارتنا. أو أسوأ حدث. نحن لا نعرف. لذلك لا يمكننا معرفة ما إذا كنا سنحصل على مساعدة لا نهاية لها من قبل الذكاء الاصطناعي أو تجاهلنا وتهميشنا ، قال هوكينغ خلال كلمة ألقاها في مؤتمر Web Summit التكنولوجي في البرتغال في عام 2017: