
في ظل التطور الهائل في تقنيات الذكاء الاصطناعي باتت أدوات مثل ChatGPT تمثل سلاحا ذا وجهين فمن جهة تتيح إمكانات كبيرة في توليد النصوص المساعدة البحثية الدعم التقني وغيرها من التطبيقات المفيدة ومن جهة أخرى قد تستخدم في أنشطة تثير المخاوف الأخلاقية أو الأمنية مثل مراقبة وسائل التواصل الاجتماعي والتجسس المعلوماتي
OpenAI تحظر حسابات صينية لاستغلالها ChatGPT
مؤخرًا، أصدرت شركة OpenAI بيانا تعلن فيه عن تعطيل أو حظر عدد من الحسابات التي يشتبه في ارتباطها بجهات صينية، بسبب استخدامها ChatGPT في مقترحات وأبحاث تتعلق بمراقبة وسائل التواصل الاجتماعي، هذا القرار أثار جدلا واسعا بشأن حدود استخدام الذكاء الاصطناعي، المسائل الأخلاقية، النزاع بين الدول في الفضاء التقني، وضوابط حرية التعبير والمراقبة الرقمية، في هذا المقال، سنناقش السياق والأسباب والتداعيات والخطوات الممكنة التي يمكن اتخاذها لضبط مثل هذه الاستخدامات، مع محاولة تقييم الموازنة بين الأمن والمراقبة وحرية الاستخدام.
خلفية الموضوع وأساس القرار
استخدام الذكاء الاصطناعي في المراقبة والتحليل، منذ نشأته، شغلت أدوات الذكاء الاصطناعي ومن ضمنها نماذج اللغوية الكبيرة مثل ChatGPT موقعا مركزيا في العديد من المجالات الكتابة التلقائية و الترجمة، التصنيف، التحليل النصي، وغيرها لكنّ هذه القدرات نفسها يمكن أن تستغل لإنشاء أنظمة استماع رقمي social listening، تراقب المحتوى العام على وسائل التواصل، تحدد الاتجاهات، تكتشف الكلمات المفتاحية الحساسة، و تستخلص أنماطًا يمكن أن تستخدم لأغراض المراقبة أو السيطرة على النقاش العام.
ما أعلنته OpenAI وما تكشف من وقائع
في تقرير الأمان الأخير الصادر عن OpenAI، تم الإعلان عن حظر عدة حسابات يشتبه في أن لها علاقة بجهات حكومية صينية، بسبب طلبات تلك الحسابات التي تضمنت اقتراحات لتصميم أنظمة مراقبة على وسائل التواصل، أو أدوات الاستماع الاجتماعي، أو حلولا لتحليل المحتوى بكثافة على الشبكات، وفقًا للتقارير، جاءت بعض الطلبات بصيغة طلب مساعدة في إعداد مقترحات لمشاريع ضخمة لمراقبة المحادثات على وسائل التواصل الاجتماعي.
مخالفة سياسة OpenAI
ما خالفت سياسة OpenAI الخاصة بالأمن القومي، كما أشار التقرير إلى أن بعض الحسابات ذات اللغة الصينية استخدمت ChatGPT أيضًا في أنشطة مثل التصيد phishing، تطوير أدوات خبيثة، أو البحث في الأتمتة automation المتعلقة بمنصات مثل DeepSeek، من الجدير بالذكر أن هذا ليس أول مرة تصدر فيها OpenAI مثل هذه الإجراءات في وقت سابق، أزالت الشركة بعض الحسابات من الصين وكوريا الشمالية، بغرض الاشتباه في أنشطة خبيثة مثل التأثير في الرأي أو نشر معلومات مضللة.
الأسباب التي دفعت OpenAI لاتخاذ هذا القرار
لم تأتِ هذه الإجراءات من فراغ بل هي نتاج مجموعة من الاعتبارات الأمنية، الأخلاقية، والقانونية والسياسات الداخلية للشركة فيما يلي أبرزها، سياسة الأمان والأخلاق الداخلية، فقد تضع OpenAI لنفسها سياسات داخلية تنص على منع الاستخدامات التي تهدد الأمن القومي أو تستخدم لأغراض خبيثة، مثل اختراق الخصوصية أو التجسس طلبات مثل كيف أبني نظام مراقبة لوسائل التواصل تُعدّ من الاستخدامات التي تتجاوز حدود الاستخدام القانوني المقبول للأداة.
مخاطر التسلط والتجسس وانتهاك الحقوق
عندما تستخدم أدوات ذكاء اصطناعي لمراقبة واسعة النطاق على وسائل التواصل، قد تنتهك خصوصيات الأفراد أو تعرض بياناتهم للاستغلال مثل هذه الأنظمة قد تستخدم أيضًا لترويع المعارضين، تكميم الأصوات، مراقبة الصحفيين أو الأكاديميين، أو إسكات النقد. لذلك، منع استخدامها في مثل هذه السيناريوهات يعتبر إجراء لحماية الحقوق الرقمية.
الضغط الدولي والمخاوف الجيوسياسية
في ظل توتر المنافسة التكنولوجية بين الدول، وخصوصا بين الولايات المتحدة والصين في مجال الذكاء الاصطناعي، فإن أي استخدام من قبل جهات مرتبط بها قد يفهم كجزء من النفوذ الرقمي أو التجسس التقني لذا، اتخاذ شركة أمريكية مثل OpenAI موقفا صارما ضد الاستخدامات التي قد تخدم أجندات حكومية أجنبية يُعد إجراء متوقعا في هذا السياق.
الحماية القانونية والامتثال التنظيمي
إذا ما استخدمت أدواتها في أنشطة قد تُعدّ خرقا للقوانين المحلية أو الدولية مثل قوانين حماية البيانات، التجسس، قمع الحريات، قد تعرض OpenAI نفسها لمساءلة قانونية أو تشريع تنظيمي، لذا فإن منع الاستخدامات المحتملة الخبيثة يُعدّ من إجراءات الحد من المخاطر القانونية.
تحليل التحديات والإشكاليات المرتبطة بهذا القرار
رغم أن القرار قد يبدو حازما ومبرَّرًا من الناحية الأمنية، إلا أن هناك عدة تساؤلات وتحديات تبرز في ضوء هذا النوع من الحظر، مثل التحديد والتمييز بين الاستخدام المشروع وغير المشروع فليس كل استخدام لنظام استماع على وسائل التواصل غاية خبيثة، فشركات الأبحاث، وسائل الإعلام، الجهات الأكاديمية، وحتى منظمات حقوقية قد تحتاج إلى تحليل البيانات العامة كيف يميز النظام بين هذه الاستخدامات المشروعة وتلك التي تهدف للتجسس أو الرقابة، إن الحظر الكلي قد يعيق الابتكار والمشاريع المفيدة.
الشفافية والحق في الاعتراض
هل تقدم OpenAI للمستخدمين المتضررين آلية للطعن أو مراجعة القرار؟ إذا تم حظر حساب ما بناءً على تقييم داخلي أو خوارزمية، فالمستخدم قد لا يكون على علم بالتفاصيل أو يستطيع معرفة السبب أو الاستئناف، هذا يثير تساؤلات حول العدالة والشفافية في القرارات.
الأثر على المستخدمين العاديين
في بعض الحالات، قد يتضرر اي مستخدم عادي لم يتعمد أي السبب ممنوع، إذا اعتبر استخدامه ضمن نمط مريب، هذا يثير مخاوف حول الحظر الجماعي أو الإجراءات التي تطبق على نطاق واسع دون مميز دقيق.
الكيفية التقنية للتنفيذ
كيف تكتشف مثل هذه المشاريع المقترحة، وهل عبر تحليل النصوص التي يطلبها المستخدم prompts أو مراقبة الاستخدامات المتكررة داخل النظام، و تميز الطلبات التي تبدو استطلاعية من تلك التي هي نوايا حقيقية لبناء أنظمة مراقبة سيكون هناك دائمًا قدر من الغموض، فيما يخص التنفيذ التقني والسياسات التي تمّ اعتمادها داخليا.
التوازن بين الأمن والابتكار
إذا ضاقت القيود كثيرًا، قد تقيد القدرة على الابتكار أو البحث المشروع، الشركات أو الباحثون قد يترددون في استخدام النموذج خوفًا من الحظر، مما يبطئ التطور في مجال الذكاء الاصطناعي ويُحدّ من الفائدة العامة.
تداعيات القرار على الساحة التقنية والدولية
إشارات قوية لمستخدمي الذكاء الاصطناعي فإن حظر OpenAI لحسابات ذات صلة، بمراقبة وسائل التواصل يرسل رسالة قوية مفادها أن الاستخدامات التي تتجاوز الخطّ الأخلاقي أو القانوني لن تُمرّ مرور الكرام، هذا قد يردع بعض الجهات عن المحاولات المفتوحة لاستخدام الذكاء الاصطناعي في التجسس وتصاعد التنافس في السوق الصينية للتقنيات، بما أن OpenAI تمنع استخدام خدماتها في الصين أو تمنع بعض الحسابات الصينية، فإن ذلك يعزز الفرصة أمام الشركات الصينية لتطوير نماذج داخلية قوية.
تعزيز الرقابات والتنظيمات العالمية
قد يشجع هذا القرار الحكومات والشركات على وضع تشريعات تنظم استخدامات الذكاء الاصطناعي على الصعيد الدولي، خاصة في ما يتعلق بالخصوصية والمراقبة، فعندما يدرك العالم أن الذكاء الاصطناعي يمكن أن يستخدم في أنشطة تجسّسية، سيصير من الضروري وجود أطر قانونية واضحة.
استمرار القطاعات المظلله
حتى مع إجراءات الحظر، من المحتمل أن تتطور الجهات التي تنوي استخدام الذكاء الاصطناعي لهذا النوع من المهام لتجاوز القيود، مثل استخدام نماذج مخصصة غير خاضعة لرقابة OpenAI، أو العمل خارج الأنظمة القانونية، أو النقل إلى منصات غير معروفة لذا، يمكن القول إن الحظر ليس حلاً نهائيا، بل خطوة من خطوات المواجهة.