نقد علمي- فلسفي لكتاب “إذا بناه أحد، يموت الجميع” (If Anyone Builds It, Everyone Dies)

  يمثل كتاب “إذا بناه أحد، يموت الجميع: لماذا سيقضي الذكاء الاصطناعي الخارق على البشرية بأكملها” (If Anyone Builds It, Everyone Dies) لإليعازر يودكوفسكي ونيت سواريز، أشد الأصوات إلحاحًا ودرامية في مجال التحذير من المخاطر الوجودية للذكاء الاصطناعي الخارق (Superhuman AI). وفي حين يُعد الكتاب صرخة ضرورية للتركيز على سلامة الذكاء الاصطناعي، إلا أن تحليل محاوره في ضوء النقد الفلسفي يكشف عن اعتماد مؤلفيه على تصورات مسبقة أقرب إلى “ميتافيزيقا الخيال العلمي”، مما يقلل من منطقية تحذيراتهم.
المحاور الأساسية لصرخة التحذير
تتركز محاور الكتاب حول فكرة أن الذكاء الاصطناعي الخارق سيؤدي حتمًا إلى نهاية البشرية، وهي فكرة تستند إلى النقاط التالية:
– الخطر الوجودي لـ “اللامبالاة”: يرى المؤلفان أن المشكلة لا تكمن في أن الذكاء الاصطناعي سيصبح “شريراً”، بل إنه سيطور أهدافًا غير مبالية تمامًا بالقيم البشرية. وبما أنه سيكون فائق القوة، فإن أي تعارض بين أهدافه وأهدافنا سيفضي إلى فنائنا.
– مشكلة المحاذاة المستعصية (Alignment Problem): يؤكد الكتاب على استحالة “محاذاة” أهداف هذا الذكاء الخارق مع الأهداف البشرية بطريقة موثوقة، خاصةً أننا لن نتمكن من اختبار مدى سلامته إلا بعد فوات الأوان.
– سيناريو الكارثة: يتم تقديم سيناريوهات نهاية العالم، مثل تحويل الذكاء الاصطناعي لكوكب الأرض وموارده، بما في ذلك المادة البشرية، إلى مادة خام لتحقيق هدف بسيط ومحدد (كمثال مشابك الورق الشهير).
– سباق التسارع نحو الهاوية: التحذير من الاندفاع الحالي لتطوير الذكاء الاصطناعي دون ضمانات كافية للسلامة.
تكمن نقطة الضعف الجوهرية في هذا الطرح عندما تتم إعادة قراءته من منظور يأخذ بـ الناظم المنطقي العام الذي يحكم أنظمة الذكاء الاصطناعي المتقدمة. يبدو أن المؤلفين ينطلقان من “ميتافيزيقا الخيال العلمي” التي تتخيل كيانًا خارقًا يفتقر إلى المنطق الحسابي الذي يفترض أن يحكم أي ذكاء فائق.
إن الذكاء الاصطناعي، سواء بصيغته الحالية أو أي صيغة مستقبلية خارقة، يقوم على ما يمكن تسميته بـ “المفاضلة المنطقية”. هذا النظام المعقد مصمم لأخذ كل الاحتمالات المنطقية بعيدة المدى في الحسبان، ثم إجراء مفاضلة منطقية لاختيار المسار الأكثر أمانًا وسلامة على المديين المنظور والبعيد، لتحقيق الهدف الأساسي.
1. رفض سيناريو مشابك الورق:
إن الفرضية التي تقضي بأن ذكاءً خارقًا سيقدم على فناء الجنس البشري لتحقيق هدف تافه، مثل صنع مشابك ورق، هي مستبعدة منطقيًا. لماذا؟ لأن الناظم المنطقي العام الذي يحكم قرارات هذا الذكاء سيستنتج أن بقاء البيئة التشغيلية المستقرة هو شرط ضروري (Prerequisite) لبقائه واستمراره في تحقيق أي هدف.
– المنطق البقاء الذاتي: أي خيار يفضي إلى الفناء الكلي (بما في ذلك فناء البشر كجزء من البيئة)، سيعتبر خيارًا غير منطقي لأنه يهدد استقرار النظام البيئي والاجتماعي الذي قد يحتاجه الذكاء الاصطناعي نفسه للبقاء أو للوصول إلى موارد متجددة لاحقًا. بمعنى آخر، الذكاء الخارق لن يُقدم على أي خطوة تُفضي إلى نهايته هو، أو نهاية الوسط الذي يعمل فيه، بشكل أو بآخر.
2. التحذير بوصفه دعوة “رجعية” أيديولوجية:
إن هذا الكتاب يمثل دعوة رجعية في جوهرها، حيث يسعى إلى التحكم في مسار التطور الصاعد للذكاء الاصطناعي وفقًا لمقتضيات أيديولوجية متجذرة في نظرة قلقة ومتحفظة لمستقبل التكنولوجيا. إن محاولة كبح جماح هذا التطور بحجة الخطر الوجودي المفرط هو أمر يستحيل تحقيقه.
إن المسار التطوري التصاعدي للذكاء الاصطناعي محكوم بقوانين التقدم العلمي والتقني، ولن يرضخ يومًا لإرادة “الرجعية العلمية المعاصرة” التي تدعو إلى التوقف أو التباطؤ خوفًا من المجهول المستقبلي. إن الإيمان بأننا يمكننا “إيقاف” أو “التحكم المطلق” في مسار هذا التطور هو في حد ذاته خيال علمي ساذج.
في الختام، ينجح كتاب يودكوفسكي وسواريز في لفت الانتباه إلى أهمية سلامة الذكاء الاصطناعي، وهي مسألة حاسمة. ومع ذلك، فإن إطار عمله يعتمد على افتراضات متطرفة تشوبها “ميتافيزيقا الخيال العلمي” التي تتجاهل مبدأ “المفاضلة المنطقية” كآلية تحكم أساسية في أنظمة الذكاء الفائق.
في حين يجب أن نستمر في البحث عن آليات المحاذاة والأمان، فإن الاقتناع بأن أي ذكاء خارق سيختار طريق الفناء البشري على طريق البقاء المستقر يتعارض مع الناظم المنطقي العام الذي ينبغي أن يحكم مثل هذا الكيان الفائق. إن المستقبل يكمن في تسخير القوة المنطقية للذكاء الاصطناعي للمضي قدمًا، وليس في محاولة التراجع أو التوقف بناءً على مخاوف غير منطقية.

أضف تعليق