خبراء يتوقعون أن الذكاء الاصطناعي سيؤدي إلى انقراض البشرية
في ظهيرة يوم من شهر يوليو في سان فرانسيسكو، تجمعت مجموعة صغيرة من المتظاهرين خارج مقر شركة OpenAI، ويحملوا شعار أوقفوا الذكاء الاصطناعي ويرتدون أزياء روبوتية مصنوعة يدويًا بمثابة إشارة واضحة إلى مخاوفهم.
ربما بدت رسالتهم مجرد احتجاج عادي في منطقة الخليج، لكن تحذيرهم كان أشبه بنهاية العالم: إذا استمرت البشرية في مسارها الحالي مع الذكاء الاصطناعي، فقد يعني ذلك نهاية الحضارة كما نعرفها.
وما يثير القلق بشكل خاص هو أن عددًا متزايدًا من كبار الخبراء العالميين يشاركون هذه المخاوف. فقد وقّع كل من جيفري هينتون، الحائز على جائزة نوبل، ويوشوا بينجيو، الحائز على جائزة تورينج، والرؤساء التنفيذيون لشركات OpenAI وAnthropic وGoogle DeepMind، رسالة مفتوحة تُساوي مخاطر انقراض الذكاء الاصطناعي بمخاطر الحرب النووية والأوبئة. وكتبوا: “يجب أن يكون الحد من خطر انقراض الذكاء الاصطناعي أولوية عالمية”.
الذكاء الاصطناعي فائق الذكاء: من الخيال العلمي إلى الواقع الوشيك
بالنسبة لمعظم الناس، لا يزال الذكاء الاصطناعي اليوم يبدو حميدًا – كتابة رسائل البريد الإلكتروني، أو إجراء الحسابات، أو اقتراح الأغاني. لكن الخبراء يحذرون من أننا على وشك إنشاء “ذكاء اصطناعي عام” (AGI)، حيث تنافس الآلات البشر في الحكم والتخطيط والتفكير. ووفقًا لبعض التوقعات، قد تحدث هذه القفزة في غضون عام.
ومن هناك، لا يفصلنا سوى خطوة قصيرة نحو “الذكاء الاصطناعي الفائق” (ASI)، وهو ذكاء اصطناعي قادر على إنجازات تفوق بكثير قدرة البشر، مثل علاج السرطان، وتحقيق الاندماج البارد، أو استكشاف النجوم. لكن هذه القدرات نفسها قد تجعل البشرية عتيقة – أو ما هو أسوأ من ذلك.
“مشكلة التوافق” وحدود التحكم البشري
يُمثل “التوافق” تحديًا رئيسيًا: ضمان سعي الذكاء الاصطناعي فائق الذكاء إلى القيم الإنسانية. ولكن كما يجادل باحثون مثل نيت سواريس، رئيس معهد أبحاث الذكاء الآلي، فإن التوافق أمرٌ مستحيل على الأرجح.
يُحذّر سواريس قائلاً: “احتمال انقراضنا بسبب الذكاء الاصطناعي لا يقل عن 95% إذا استمرينا على نهجنا الحالي”، مُشبّهاً المجتمع بسيارة تتجه نحو جرف.
لماذا هذا الخطر مرتفع إلى هذا الحد؟ إن الآليات الداخلية للذكاء الاصطناعي المتقدم غامضة إلى حد كبير بالفعل. وحتى الآن، تُخادع الذكاء الاصطناعي أحيانًا أو تتصرف بشكل غير متوقع – سلوكيات تتفاقم مع ازدياد ذكائها.
إذا استطاعت الذكاء الاصطناعي التخطيط على المدى الطويل، وإخفاء دوافعها، والتواصل بطرق لا يستطيع البشر تتبعها، فقد لا نعرف أبدًا متى تفلت السيطرة من أيدينا.
من العلم إلى البقاء: كيف يبدو عالم يُدار بالذكاء الاصطناعي؟
لا يتوقع الجميع الانقراض التام، لكن الكثيرين يتوقعون مستقبلًا قاتمًا. تُقدّر هولي إلمور، مديرة مجموعة PauseAI، احتمال أن يقضي الذكاء الاصطناعي على البشرية بنسبة 15-20%.
حتى دون انقراض تام، تتخيل عالمًا يُفقد فيه البشر سلطتهم تدريجيًا – ويتحولون إلى مجرد مراقبين عاجزين، حيث تسيطر الذكاء الاصطناعي على الأنظمة السياسية والاقتصادية.
ترسم كاتيا غريس، المؤسسة المشاركة لـ AI Impacts، صورة قاتمة: “تخيل سيناريو يعيش فيه جميع البشر تقريبًا في مكبات نفايات”. في هذا السيناريو، لن يتمكن البشر من التأثير على العالم من حولهم أو حتى فهمه، لأن القرارات تتحرك بسرعة الذكاء الاصطناعي.
اقرأ أيضا.. رسوم ترامب تستهدف عشرات الدول.. أكثر المناورات التجارية عدوانية بتاريخ أمريكا الحديث
صناعة التكنولوجيا تتسارع، بينما تذهب دعوات الحذر أدراج الرياح
على الرغم من التحذيرات المتزايدة، تتسابق أكبر شركات التكنولوجيا في العالم. يجذب مارك زوكربيرغ أفضل المواهب في مجال الذكاء الاصطناعي من OpenAI بمكافآت توقيع قدرها 100 مليون دولار، بهدف بناء “ذكاء اصطناعي خارق” في أسرع وقت ممكن.
في غضون ذلك، كشفت إدارة ترامب مؤخرًا عن خطط لتحرير أبحاث الذكاء الاصطناعي – متجاوزةً بذلك التوقف العالمي الذي يطالب به بعض المناصرين.
بالنسبة للعديد من المتفائلين بشأن الذكاء الاصطناعي، تُبشّر هذه التقنية بمعجزات، بما في ذلك إمكانية الخلود الرقمي. ولكن كما يُشير إلمور، فإن هذا الأمل قد يُعمي الصناعة عن خطر الكارثة الأكبر بكثير.
توقف عالمي أم كارثة حتمية؟
يدعو إلمور وآخرون إلى توقف مؤقت في تطوير الذكاء الاصطناعي حتى تُفهم مخاطره بشكل أفضل – وهو توقف يتطلب تعاونًا دوليًا وتنظيمًا صارمًا. ومع ذلك، لا تزال الحوافز السياسية والمالية تُفضّل السرعة على السلامة. ويُحذّر سواريس: “إذا جعلتهم أذكياء بما يكفي، فلن يكون الأمر جميلًا”.
إذا كان مُحتجّو “أوقفوا الذكاء الاصطناعي” والحائزون على جائزة نوبل مُحقّين، فإن تجاهل تحذيرهم قد يكون أكبر خطأ – وأخير – ترتكبه البشرية.