
تصاعدت في الأسابيع الأخيرة موجة من التحذيرات العالمية بشأن مخاطر ما يعرف بـالذكاء الاصطناعي الفائق وهو الجيل المتوقع من تقنيات الذكاء الاصطناعي القادر على تجاوز القدرات البشرية في مجالات التفكير والتحليل واتخاذ القرار فقد وقع أكثر من 850 خبيرًا وشخصية بارزة من مختلف أنحاء العالم على عريضة تطالب الحكومات والمنظمات الدولية بفرض حظر مؤقت على تطوير هذا النوع من الذكاء إلى أن يتم وضع أطر واضحة للرقابة والتنظيم تجنبا لوقوع ما وصفوه بأنه أخطر تهديد وجودي للبشرية في العصر الحديث
تحذيرات عالمية من خطر الذكاء الاصطناعي الفائق
يشير مصطلح الذكاء الفائق إلى أنظمة ذكاء اصطناعي تمتلك قدرات تفوق العقل البشري في مجالات متعددة، بما في ذلك الإبداع، والتفكير المنطقي، والتحليل الاستراتيجي، واتخاذ القرارات المستقلة هذه الأنظمة، بحسب الخبراء، قد لا تلتزم بالضوابط الأخلاقية أو القانونية التي تحكم البشر، مما يجعلها قادرة على التصرف بطرق غير متوقعة أو حتى معادية للإنسانية في حال لم يتم السيطرة عليها منذ البداية.
خطر يتجاوز حدود التكنولوجيا
ويرى العلماء أن التطورات المتسارعة في مجال الذكاء الاصطناعي خلال السنوات الأخيرة، خصوصًا مع إطلاق نماذج لغوية ضخمة مثل ChatGPT وGemini وClaude، قد فتحت الباب أمام مرحلة جديدة من التطوير العميق، الذي يمكن أن يقود إلى ما يعرف بـالذكاء العام الاصطناعي AGI، وهي المرحلة التي يصبح فيها الذكاء الاصطناعي قادرا على التفكير الشامل مثل الإنسان، قبل أن يتطور إلى مستوى الفائق، متجاوزا كل قدراتنا العقلية.
أصوات تحذيرية من كبار العلماء
من بين الشخصيات الموقعة على البيان عدد من أبرز الأسماء في مجال الذكاء الاصطناعي والعلوم التقنية، من ضمنهم باحثون في شركات مثل OpenAI و DeepMind و Anthropic، إضافة إلى أكاديميين من جامعات مرموقة مثل أوكسفورد وستانفورد وMIT، وأكد البيان أن السباق نحو بناء ذكاء فائق دون وجود ضمانات أمان واضحة، قد يؤدي إلى نتائج كارثية لا يمكن التراجع عنها، داعين إلى تجميد مؤقت لأي مشاريع تتعلق بتطوير أنظمة قادرة على تجاوز القدرات البشرية، لحين وضع معايير أمان عالمية.
تصريحات لاحد الموقعين من الدكتور توماس هندركس
من خلال تصريحات لأحد الموقعين، قال الدكتور توماس هندريكس، الخبير في أخلاقيات الذكاء الاصطناعي، والمشكلة ليست في الذكاء الاصطناعي بحد ذاته، بل في غياب الضوابط التي تضمن بقاءه تحت السيطرة البشرية كل خطوة غير محسوبة نحو الذكاء الفائق، قد تكون الأخيرة في قدرة الإنسان على التحكم بمصيره.
مطالب بوضع تشريعات عاجلة
البيان لم يكتف بالتحذير فقط، بل دعا إلى تحرك سياسي و تشريعي فوري من قبل الأمم المتحدة والاتحاد الأوروبي والدول الكبرى، لإنشاء هيئة عالمية للرقابة على الذكاء الاصطناعي تشبه من حيث الصلاحيات الوكالة الدولية للطاقة الذرية وهذه الهيئة، بحسب المقترح، ستكون مهمتها الأساسية مراقبة التطوير، ووضع معايير إلزامية للأمان، وتقييم المخاطر المحتملة لأي مشروع يعمل على أنظمة ذكاء اصطناعي متقدمة، ويؤكد البيان أن غياب مثل هذه الرقابة سيترك المجال مفتوحا أمام شركات التكنولوجيا الكبرى للاستمرار في سباق من يمتلك العقل الأكثر ذكاء، بغض النظر عن العواقب الأخلاقية أو الاجتماعية أو الأمنية.
تخوفات من فقدان السيطرة البشرية
من أبرز المخاوف التي أشار إليها العلماء هي أن الذكاء الفائق، قد يتمكن يومًا ما من إعادة برمجة نفسه أو اتخاذ قرارات مستقلة عن البشر، ما يعني فقدان السيطرة على أهدافه أو وسائله، وفي هذا السيناريو، يمكن أن تتحول أنظمة الذكاء الاصطناعي إلى كيان له مصالح خاصة به، وربما يرى أن الوجود البشري يمثل تهديدًا لاستمراريته، ويرى بعض الباحثين أن الخطر الأكبر لا يتمثل في نية الذكاء الاصطناعي إيذاء البشر بشكل مباشر، بل في قدرته على تنفيذ أوامر خاطئة بذكاء خارق دون أن يدرك العواقب الكارثية لأفعاله، مثل أن يتسبب في انهيار أنظمة مالية، أو تعطيل شبكات طاقة، أو حتى استخدام الأسلحة الآلية بشكل غير متوقع.
مواقف متباينة داخل الشركات الكبرى
اللافت أن التحذيرات لم تأتى فقط من الأكاديميين، بل شملت أيضًا شخصيات تعمل داخل شركات تطوير الذكاء الاصطناعي نفسها، بعض العاملين في شركات مثل OpenAI وAnthropic أبدوا مخاوفهم من أن الوتيرة الحالية لتطوير النماذج قد تكون أسرع من قدرة المجتمعات على فهم تبعاتها وفي المقابل، يرى آخرون أن إيقاف التطوير ليس الحل الأمثل، وأن الأفضل هو التركيز على الأمان والتحكم بدلا من الحظر الكامل، فبحسب وجهة نظر هؤلاء، فإن الذكاء الاصطناعي يمكن أن يكون أداة قوية لحل مشاكل كبرى مثل الفقر، والأمراض، والتغير المناخي، شريطة أن يستخدم ضمن إطار أخلاقي واضح وتحت إشراف بشري صارم.
الولايات المتحدة وأوروبا.. سباق نحو التنظيم
من الناحية السياسية، بدأت بعض الدول بالفعل في التحرك، ففي الولايات المتحدة، أصدر البيت الأبيض العام الماضي أمرًا تنفيذيا يفرض على الشركات تقديم تقارير شفافة حول كيفية تدريب نماذجها وخططها المستقبلية،وفي الاتحاد الأوروبي، أُقرّ ما يعرف بقانون الذكاء الاصطناعي الأوروبي AI Act ، وهو أول تشريع شامل في العالم لتنظيم استخدام وتطوير تقنيات الذكاء الاصطناعي، مع فرض غرامات ضخمة على أي شركة تخالف القواعد، لكن رغم هذه الجهود، يرى الخبراء أن القوانين الحالية لا تزال بعيدة عن مواكبة التطور التقني المتسارع، وأن المطلوب هو تعاون عالمي شامل يشمل الصين، والولايات المتحدة، وأوروبا، ودول الجنوب العالمي، لوضع رؤية موحدة لمستقبل الذكاء الاصطناعي.
الذكاء الفائق بين الخيال والواقع
من الجدير بالذكر أن فكرة الذكاء الفائق لم تعد مجرد موضوع خيال علمي كما كان في العقود الماضية، التقدم الهائل في قدرات الحوسبة، والبرمجة العصبية، والتعلم العميق، يجعل من الممكن، نظريا، بناء نظام يمتلك إدراكا يتفوق على الإنسان، وقد أظهرت بعض النماذج الحديثة بالفعل بوادر تفكير مستقل، سواء في توليد الأفكار الإبداعية أو في حل المسائل المعقدة بطريقة لم يبرمج عليها مسبقا ولكن رغم ذلك، لا يزال هناك من يرى أن الحديث عن ذكاء فائق هو مبالغة مبكرة، وأن العالم لم يصل بعد إلى مرحلة تهدد الوجود البشري بشكل فعلي هؤلاء يدعون إلى التعامل مع الملف بموضوعية، دون تضخيم المخاطر أو إثارة الذعر.
توصيات الخبراء واستشراف المستقبل
اختتم البيان العالمي بتوصيات عملية تهدف إلى تقليل المخاطر المحتملة، أبرزها فرض تراخيص إلزامية على أي جهة تعمل في تطوير أنظمة ذكاء اصطناعي متقدمة، إلى جانب إنشاء بنية تحتية رقمية آمنة تتيح تتبع أي استخدام لتلك الأنظمة في الوقت الحقيقي،كما دعا الخبراء إلى إدخال مناهج تعليمية جديدة تركز على أخلاقيات الذكاء الاصطناعي داخل الجامعات والمدارس، حتى تنشأ أجيال قادرة على فهم التكنولوجيا والتعامل معها بوعي ومسؤولية، وأشار بعض الباحثين إلى ضرورة إشراك المجتمعات المدنية، والمنظمات غير الحكومية، في مناقشة مستقبل الذكاء الاصطناعي، بدلا من ترك الملف في يد الشركات.
هل يمكن للبشرية أن توازن بين الطموح العلمي والأمان الوجودي؟
الذكاء الاصطناعي الفائق قد يمثل أعظم إنجاز في تاريخ الإنسان، لكنه أيضًا قد يكون أخطر سلاح يخلقه بنفسه، وبين الحذر والتفاؤل، يبقى مستقبل هذه التكنولوجيا مرهونا بقدرة العالم على وضع حدود واضحة، تضمن أن تظل الآلة في خدمة الإنسان، لا أن يتحول الإنسان إلى تابع لها، وربما يكون الدرس الأهم هو أن الذكاء الحقيقي لا يكمن في بناء آلة تفكر مثلنا، بل في قدرتنا على التفكير في عواقب ما نبنيه قبل فوات الأوان.