منوعات

قد يجعلها عديمة الفائدة.. عيب قاتل ببرامج الذكاء الاصطناعي يدفعها لـ تسميم نفسها

قد يجعلها عديمة الفائدة.. عيب قاتل ببرامج الذكاء الاصطناعي يدفعها لـ تسميم نفسها، في الوقت الذي يرى فيه أركان صناعة التكنولوجيا أن تدريب أنظمة الذكاء الاصطناعي على كميات كبيرة من البيانات المنتشرة عبر الإنترنت، وسوف يتيح لها التفوق على البشر في مرحلة لاحقا، حيث تفاجأت النتائج التي توصلت إليها ورقة بحثية جديدة بشأن الذكاء الاصطناعي للقائمين على تطوير التكنولوجيا، وعلى النماذج التي يشغلها الذكاء الاصطناعي التوليدي، والتي تتغذى على البيانات، وأصبحت تواجه عبئا كبيرا تم تحديده في قدرة النماذج على تسمم نفسها، ومن خلال هذا المقال سوف نتحدث عن الذكاء الاصطناعي، والعبئ الذي يتمثل فيه قدرته النماذج الخاصة بها وكيف ستتغلب على البشر، وما السبب وراء خطورة الذكاء الاصطناعي على البشرية. 

قد يجعلها عديمة الفائدة.. عيب قاتل ببرامج الذكاء الاصطناعي يدفعها لـ تسميم نفسها

أصبح الذكاء الاصطناعي من أهم الأشياء التي يعتمد عليها الكثير من البشر من جميع أنحاء العالم في عدة مجالات، حتى وصل تدخل الذكاء الاصطناعي إلى مجالات الطب والهندسة والتدريس، وكثير من المجالات الأخرى، وأصبحت أنظمة الذكاء الاصطناعي تتدرب على كميات كبيرة من البيانات المنتشرة عبر الإنترنت، وسمح لها هذا بالتفوق على البشر، فهناك علماء حذرت عبر ورقة بحثية تم نشرها أن استخدام البيانات الاصطناعية لتدريب الذكاء الاصطناعي والتوليدي سوف يؤدي إلى تدهور دقة هذه الانظمة إلى حد كبير، وسوف يجعلها يجعلها عديمة الفائدة، واكتشف الباحثون أن عندما يتم تدريب أنظمة الذكاء الاصطناعي باستخدام بيانات تم إنشائها بواسطته، فإن أداء هذه الأنظمة سوف يتدهور بشكل ملحوظ، وهذه الظاهرة يطلق عليها الخبراء اسم “انهيار النموذج”. 

برامج الدردشة بالذكاء الاصطناعي

جميعنا أصبحنا نسمع كثيرا عن برامج الدردشة التي تعمل بالذكاء الاصطناعي، والتي تعتمد على نماذج لغوية ضخمة تم تدريبها على تريليونات البيانات التي قام بانشائها الإنسان، وتم استخراج هذه البيانات من صفحات الويب والمقالات والتعليقات المنتشرة على شبكة الإنترنت، وبفضل كم بيانات الضخم الموجود على صفحات الويب، تمكنت شركات “أوبن إيه آي” و”ألفابيت” و”ميتا” وغيرها من تصميم برامج تقدم إجابات واضحة على استفسارات المستخدمين. 

وكما نعلم شهية برامج الذكاء الاصطناعي التوليدي لا تشبع من التغذية بالبيانات، وهناك بعض الباحثون الذين حاولوا محاولات متزايدة لكي تمد برامج الذكاء الاصطناعي ببعض البيانات الإضافية، أي من صنع الذكاء نفسه، ليتبين للمراقبين أن هذه البرامج تنهار وتنتهي المعلومات المشوهة عندما يتم تدريبها على محتوى لم يسمعه البشر. 

أسباب تفاقم مشكلة الذكاء الاصطناعي

شبه الباحثون مشكلة الذكاء الاصطناعي بتسميمه لنفسه، حيث أوضح الباحثون أن برامج الذكاء الاصطناعي التي تقوم بإنشاء محتوى من تلقاء نفسها تصدر نتائج غير منطقية بالمرة، تتفاقم هذه المشكلة في كل مرة يتم فيها تدريب هذا البرنامج على بيانات اصطناعية، ويجعل نتائجها التي تزود بها المستخدمين بعيدا تمام البعد عن الواقع، وأقرب إلى الهراء ويزداد الأمر سوءا في كل مرة يتم فيها تغذية برامج الذكاء الاصطناعي ببيانات صناعية. 

أمثلة على بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي

أظهر الباحثون أن البرامج اللغوية للذكاء الاصطناعي تم تدريبها عدة مرات على بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي، وحولوها إلى استفسار عن الهندسة المعمارية البريطانية التاريخية إلى مناقشة غير مفهومة عن الأرنب البري. 

وأشارت الورق البحثية إلى أن البرنامج سيتم تدريبه حتما على البيانات التي أنتجها، حيث تنتشر الكتابات والصور التي تم استخدامها بواسطة الذكاء الاصطناعي عبر النت بشكل كبير، ولذلك فإن مشكلة انهيار النموذج يجب أن تؤخذ على محمل الجد، وإذا أراد العالم الحفاظ على فوائد برامج الذكاء الاصطناعي يجب منعها من التطور من تلقائي نفسها. 

كيف يتم الحفاظ على بيانات وتطوير الذكاء الاصطناعي

لأن الذكاء الاصطناعي يتم الاعتماد عليه أحيانا في عدة مجالات، وهناك بعض الأشخاص تأخذ منه الكثير من المعلومات، يجب الاهتمام به والحفاظ على البيانات من الانحراف، ولكن المشكلة تأتي من تطوير الذكاء الاصطناعي لنفسه، لذلك يجب حل هذه المشكلة، ومن الضروري لتطور الذكاء الاصطناعي تأمين وصول برامجهم إلى البيانات عالية الجودة من صنع الإنسان، والتي لم يتم تلوثها بمحتوى الذكاء الاصطناعي، فرغم أن القيام بهذا الأمر مهمة مكلفة جدا، إلا أنه حتى الأن لا توجد طريقة أخرى للحفاظ على دقة برنامج الذكاء الاصطناعي إلى هذه الطريقة، ويقترح الباحثون أن يعمل مطور الذكاء الاصطناعي على التنسيق فيما بينهم، من أجل فهم مصادر البيانات التي يقوم بجمعها من الانترنت. 

مخاطر الـ AI

هناك خبير في تكنولوجيا المعلومات الدكتور أحمد بانافع، يقول في تصريحات خاصة أن استخدامات الذكاء الاصطناعي والتقنية التي تسمى بتقنية التنظيف العميق في الأنشطة غير المشروعة، تمثل خطر كبير جدا، حيث يتم استخدام مقاطع فيديو مزيفة تظهر شخصيات رفيعة المستوى في الشركات لإقناع الموظفين بكشف معلومات حساسة أو تحويل أموال، ويشير إلى حدوث مخاطر أخرى مثل إرسال بريد إلكتروني مزيف، وكأن من الرئيس التنفيذي للشركة يطلب من الموظف تحويل أموال إلى حساب مصرفي مزيف. 

وهكذا من المشاكل، كما يتيح التقدم الهائل في تقنيات الذكاء الاصطناعي إمكانياتها إلى مجموعة واسعة من التطبيقات، ومع ذلك هذه التقنيات تستخدم لأغراض خبيثة أخرى، تشكل تهديدا وخطرا كبيرا على الشركات وعلى المجتمع بأكمله، وأشار إلى عدة نقاط تهدد حياة البشرية سوف نذكرها لكم فيما يلي: 

  • قد يستخدم الذكاء الصناعي في التزييف العميق ليش أخبار مزيفة. 
  • قد يتم إنشاء مقاطع فيديو مزيفة أو مسيئة لبعض الأشخاص مما يلحق الضرر بأصحابها. 
  • يستخدم في التزييف لانشاء مقاطع فيديو لأشخاص يقولون ويفعلون اشياء لم يفعلها. 
  • قد يتم إنشاء صور ومقاطع فيديو أشخاص مشهورة. 
  • قد يعرض معلومات خاطئة.



هل كان المحتوى مفيداً؟

نعم
لا
شكرا لك

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى