الجمعة 31/أكتوبر/2025

هل يقترب العالم من لحظة "المنع الكبرى"؟

هل يقترب العالم من لحظة "المنع الكبرى"؟
بين الخوف والذكاء الفائق…
 
كمال إدريس
بين نداءات القلق وإيقاع التقدّم الصاروخي، يبدو أن العالم يقف أمام مفترق طرق:
إمّا عصر جديد من الذكاء الخارق الذي يضع الإنسان جانبًا، أو بداية حذرة لعصر "سيطرة الإنسان على سيطرة الذكاء الاصطناعي".
ففي تطوّر جديد يُسلّط الضوء على تزايد القلق عالميًا من سباق الذكاء الاصطناعي، وقّعت مجموعة من الشخصيات البارزة من عالم التكنولوجيا والسياسة رسالة مفتوحة صادرة عن معهد مستقبل الحياة (Future of Life Institute)، الذي تأسس عام 2015 بغرض توجيه التكنولوجيا التحويلية للاستفادة منها في الحياة والابتعاد عن المخاطر واسعة النطاق.
وقد طالبت الرسالة الحكومات بفرض حظرٍ مؤقتٍ على تطوير "الذكاء الفائق" (ASI) إلى أن يُثبت أنه يمكن السيطرة عليه وضمان موافقة الجمهور على إنشائه، وذلك في أول خطوة عملية من مختصين خوفًا من انفلات الأمر من يد الإنسان.
وحذّرت الرسالة، التي دعمها عرّابا الذكاء الاصطناعي يوشوا بنجيو وجيفري هينتون، إلى جانب المخترع ستيف وُزنيـاك ورجل الأعمال ريتشارد برانسون، من مخاطر وجودية تشمل "التقادم الاقتصادي البشري" و*"فقدان الحرية والكرامة"* وصولًا إلى "احتمال انقراض البشر".
اللافت في البيان هو غياب توقيعات القيادات العليا في شركات OpenAI وGoogle وAnthropic وxAI وMeta، رغم أن موظفًا حاليًا في OpenAI يُدعى ليو جاو كان من بين الموقّعين، في دلالة على انقسام داخلي متصاعد داخل الصناعة نفسها.
وبحسب بيانات معهد مستقبل الحياة، فإن 64% من الأميركيين يفضّلون وقف تطوير الذكاء الفائق حتى يُثبت أنه آمن، في حين لا يؤيد سوى 5% استمرار التقدّم غير المنظّم.
هذه الأرقام تعكس تحولًا في المزاج العام تجاه التقنية التي كانت تُعد حتى وقت قريب رمزًا للتقدّم.
لكن رغم قوة الرسالة، يرى مراقبون أن غياب تعريف دقيق للذكاء الفائق وآليات إيقافه المقترحة يجعل هذا التحرك أقرب إلى جرس إنذار رمزي منه إلى إجراء عملي، في عالمٍ تسبق فيه الشركاتُ التشريعاتَ بخطوات واسعة.

0 التعليقات:

أضف تعليقك

آخر الأخبار