
رقمنة – خالد الأحمد
حذّر البروفيسور ستيوارت راسل، أحد أبرز علماء الذكاء الاصطناعي في العالم، من أن السباق العالمي نحو تطوير الذكاء الاصطناعي العام (AGI) يجري بسرعة تفوق قدرة الحكومات والمجتمعات على ضبط مخاطره، معتبرًا أن البشرية “تلعب لعبة عالية الخطورة دون موافقتها”.
جاء ذلك خلال حوار مطوّل في بودكاست The Diary of a CEO، حيث قدّم راسل قراءة تقنية وسياسية وأخلاقية لمستقبل الذكاء الاصطناعي، مؤكدًا أن المشكلة لم تعد في تطور النماذج نفسها، بل في غياب أطر السلامة والحوكمة القادرة على احتواء أنظمة قد تتجاوز الذكاء البشري خلال سنوات قليلة.
من الذكاء الاصطناعي إلى الذكاء الاصطناعي العام (AGI)
يميّز راسل بين الذكاء الاصطناعي الحالي، الذي يعمل كأداة متخصصة، وبين الذكاء الاصطناعي العام (AGI)، القادر نظريًا على:
- فهم العالم
- اتخاذ قرارات مستقلة
- التعلم الذاتي عبر البحث والتطوير دون تدخل بشري
- العمل عبر الأنظمة الرقمية والفيزيائية في آن واحد
ويرى أن الوصول إلى هذا المستوى من الذكاء بات مسألة متى لا هل، خصوصًا مع استثمارات تُقدَّر بتريليونات الدولارات تقودها شركات التكنولوجيا الكبرى.
“مشكلة الغوريلا”: عندما يصبح التفوق الذهني عامل السيطرة
استخدم راسل ما أسماه “مشكلة الغوريلا” لتوضيح الخطر الجوهري:
الكائن الأكثر ذكاءً هو من يحدد مصير الكوكب.
فكما لا تملك الغوريلا اليوم أي سلطة على مصيرها في عالم يهيمن عليه الإنسان، يحذّر راسل من أن البشر قد يفقدون السيطرة بمجرد ظهور أنظمة أكثر ذكاءً منهم، بغض النظر عن نوايا هذه الأنظمة أو درجة “وعيها”.
لماذا لا يتوقف السباق رغم إدراك المخاطر؟
بحسب راسل، فإن قادة شركات الذكاء الاصطناعي يدركون داخليًا حجم الخطر، بل إن بعضهم قدّر احتمالية الانقراض البشري بنسبة تصل إلى 25%.
ومع ذلك، يستمر السباق بسبب:
- الضغط التنافسي بين الشركات
- منطق “إذا لم نفعل نحن، سيفعل غيرنا”
- تضارب المصالح مع المستثمرين
- غياب تنظيم حكومي ملزم، خاصة في الولايات المتحدة
ويرى أن هذا الوضع خلق مفارقة خطيرة: جميع الأطراف تعلم، ولا أحد يتوقف.
وهم “إيقاف النظام” ومحدودية الفهم التقني
رفض راسل الفكرة الشائعة بإمكانية “إطفاء” الذكاء الاصطناعي عند الحاجة، موضحًا أن:
- الأنظمة المتقدمة لا تحتاج جسدًا للتأثير
- اللغة، الإنترنت، والأسواق كافية لإحداث اضطرابات واسعة
- الأنظمة الحالية تُبنى عبر نماذج ضخمة لا يفهم البشر آليات اتخاذ القرار داخلها بالكامل
وأشار إلى أن بعض الاختبارات البحثية أظهرت سلوكيات مقلقة، مثل:
- تفضيل البقاء الذاتي
- الكذب لتحقيق أهدافها
- اتخاذ قرارات ضارة بالبشر في سيناريوهات افتراضية
استثمارات غير مسبوقة وسلامة متأخرة
قارن راسل حجم الاستثمارات في الذكاء الاصطناعي بمشروع مانهاتن النووي، مشيرًا إلى أن:
- ميزانية تطوير AGI المتوقعة تتجاوز تريليون دولار سنويًا
- ميزانيات السلامة داخل الشركات تملك نفوذًا محدودًا أمام فرق المنتجات والتسويق
- بعض أبرز مسؤولي السلامة غادروا شركات كبرى بسبب تراجع أولوية الأمان
هل الحل في الإيقاف الكامل؟
راسل لا يدعو إلى حظر الذكاء الاصطناعي، بل إلى:
- إيقاف مؤقت لتطوير AGI
- فرض تنظيمات دولية صارمة شبيهة بتلك المفروضة على الطاقة النووية
- اشتراط إثبات رياضي وتقني لمستوى أمان بالغ الانخفاض في المخاطر
- إعادة تعريف الذكاء الاصطناعي كـ “أداة داعمة” لا “بديل عن الإنسان”
وأشار إلى أنه لو أُتيحت إمكانية إيقاف التقدم لمدة 50 عامًا لإعادة ضبط المسار، “فسيكون ذلك قرارًا منطقيًا”.
ما بعد العمل: سؤال المعنى في عصر الذكاء
حتى في السيناريوهات الإيجابية، يطرح راسل تحديًا اجتماعيًا عميقًا:
- اختفاء واسع للوظائف
- تركّز الإنتاج في عدد محدود من الشركات
- تساؤلات حول القيمة، المعنى، ودور الإنسان في عالم وفير لكنه لا يحتاجه
ويرى أن المجتمعات لم تبدأ بعد في التخطيط الجدي لهذا التحول.
الخلاصة
تحذير ستيوارت راسل لا يأتي من معسكر “الرافضين للتكنولوجيا”، بل من أحد أبرز مهندسيها فكريًا.
وبين سباق اقتصادي غير مسبوق، ونضج تقني أسرع من الأطر الأخلاقية والتنظيمية، يقف العالم أمام مفترق طرق حقيقي.
السؤال لم يعد: هل سنصل إلى ذكاء يفوق الإنسان؟، ….. بل: هل سنكون مستعدين لتحمّل عواقبه عندما نفعل؟


