اخبار التكنولوجيا

بعد فاجعة الطفل المنتحر.. 10 أشياء لا تطلبها من روبوتات الذكاء الاصطناعي

أغلب الناس أصبحت تتدافع لاستخدام برامج تطبيقات الذكاء الاصطناعي التي حققت نجاحًا كبيرًا بسبب قدرتها الفائقة على تقديم معلومات للمستخدمين. على الرغم من الاتساع المستمر في استخدام هذا التطبيق. فإن أغلب الخبراء والمستخدمين يجمعون على أن الروبوتات. رغم أنها لها فوائد عديدة، إلا أنها تحمل العديد من المخاطر والآثار السلبية التي ينبغي الانتباه لها. وسوف نستعرض لكم من خلال هذا المقال حالة لطفل أمضى أيامه الأخيرة في هذه الدنيا وهو يجري محادثات مع روبوت يعمل بتقنية الذكاء الاصطناعي. وهذا ما أنهى حياته عن طريق الانتحار. تابعوا التفاصيل بالكامل.

بعد فاجعة الطفل المنتحر.. 10 أشياء لا تطلبها من روبوتات الذكاء الاصطناعي

بعد انتحار طفل يبلغ من العمر 14 عامًا، إليكم 10 أشياء لا يجب عليكم أن تطلبوها من روبوتات الذكاء الاصطناعي نهائيًا. حيث أدت محادثة طفل مع الذكاء الاصطناعي إلى إنهاء حياته. وهو أمر مؤسف للغاية. فإن بوتات الذكاء الاصطناعي مملوكة لشركات التكنولوجيا المعروفة باستغلال طبيعتنا البشرية الواثقة. وهي مصممة باستخدام خوارزميات لجني الأرباح فقط. حيث لا توجد حواجز أو قوانين تحكم ما يمكنها وما لا يمكنها فعله بالمعلومات التي تجمعها. لذلك تم وضع قائمة من 10 أشياء ينبغي على أي شخص ألا يتحدث بها مع روبوت الذكاء الاصطناعي مطلقًا، لأن الأمر سينتهي إلى الإضرار به وبغيره.

نهاية مأساوية للتوحد مع روبوت الدردشة

بدافع الهروب من الواقع أو العزلة الاجتماعية، قضى مراهق أمريكي أيامه الأخيرة من الدنيا متوحدًا مع إحدى البرامج الذكية الاصطناعية، لا يكلم أحدًا سوى روبوت الدردشة الخاص بإحدى التطبيقات المستحدثة في ذلك المجال، ليجرب نوعًا غريبًا من الحب لم يسبقه أحد قبله بارتباط عاطفي بشخصية وهمية ليس لها وجود في عالم البشر. حتى انتهت تجربته نهاية مأساوية بوضع حد لحياته بسبب رفضه وتقبل الواقع الذي يحول بينه وبين حبيبته الإلكترونية، وهو ما يدق بالخطر حول الآثار السلبية للعالم الافتراضي وروبوتات الدردشة القائمة على الذكاء. هذا الشاب هو سيول سيتزر، البالغ من العمر 14 عامًا، والذي تخلص من حياته في أكتوبر الماضي، بعد أن ألغي بذلك كل الفوارق المنطقية بين الواقع والخيال عند ارتباطه عاطفيًا بروبوت دردشة. وعلى الرغم من الغرابة التي ينطوي عليها تصرفه والخوف الذي تبعثه نهايته، إلا أنه بالإمكان استخلاص العبرة من قصته بالتركيز على السلوكيات التي تبقي الأطفال والمراهقين آمنين عند استخدامهم التكنولوجيا والذكاء الاصطناعي، التي تمثل التحول الثوري الجديد في عالم الإنترنت.

10 أشياء لا تقولها للذكاء الاصطناعي

سوف نوضح لكم الآن 10 أشياء لا يجب عليك أن تقولها للذكاء الاصطناعي مهما كان الأمر:

  • أولاً، لا يجب عليك نهائيًا إعطاء الذكاء الاصطناعي كلمات المرور أو بيانات اعتماد تسجيل الدخول. لأن هذا سوف يشكل خطرًا كبيرًا على الخصوصية. فإن تمكن شخص ما من الوصول، فيمكنه الاستيلاء على حساباتك.
  • ثانيًا، لا تعطه اسمك أو عنوانك أو رقم هاتفك، فإن روبوتات المحادثة ليست مصممة للتعامل مع المعلومات الشخصية القابلة للتعريف. وبمجرد مشاركتها لا يمكنك التحكم في المكان الذي تنتهي إليه أو من يراها، ولذلك فمن الأفضل أن تستخدم اسمًا مستعارًا.
  • ثالثًا، لا تقم أبدًا بتضمين أرقام الحسابات المصرفية أو تفاصيل بطاقة الائتمان أو أي أمور مالية أخرى في المستندات أو النصوص التي تقوم بتحميلها. حيث لا تعتبر أدوات الذكاء الاصطناعي مخازن آمنة، وعليك أن تتعامل معها مثل غرفة مزدحمة.
  • رابعًا، قم بإخفاء اسمك والمعلومات التعريفية الأخرى إذا طلبت من الذكاء الاصطناعي المشورة الصحية. فخصوصيتك تستحق أكثر من الإجابات السريعة.
  • خامسًا، طلب المشورة في أمور غير مشروعة قانونًا، هذا مخالف لشروط خدمة كل روبوت. ومن المحتمل أن يتم وضع علامة عليك، بالإضافة إلى ذلك قد ينتهي بك الأمر إلى المزيد من المتاعب.
  • سادسًا، تجنب خطاب الكراهية أو المحتوى الضار. حيث يمكن أن يؤدي هذا إلى حظرك، إذ لا يعد أي روبوت محادثة تصريحًا مجانيًا لنشر السلبية أو إيذاء الآخرين.
  • سابعًا، لا تعطه البيانات الخاصة أو تفاصيل العميل والأسرار التجارية، فإن كل هذا محظور.
  • ثامنًا، لا تجب على الأسئلة التي تتعلق بكيفية الوصول إلى حساباتك المختلفة على الإنترنت.
  • تاسعًا، المحتوى الفاضح، حيث تقوم معظم روبوتات المحادثة بتصفية هذه الأشياء أو أي شيء غير مناسب. ويمكن أن يؤدي إلى حظرك أيضًا.
  • عاشرًا، لا تعطه أي معلومات شخصية عن أشخاص آخرين، حيث لا يعد تحميل هذه المعلومات خرقًا للثقة فحسب. بل إنه يتعارض مع قوانين حماية البيانات أيضًا، وقد يؤدي إلى مشاركة المعلومات الخاصة دون إذن، مما قد يضعك في مأزق قانوني.

مخاطر روبوتات الدردشة

هناك دراسة صادرة من جامعة بنسلفانيا كشفت عن ثغرات أمنية لم يتم تحديدها سابقًا في عدد من المنصات الروبوتية التي تحكمها الذكاء الاصطناعي. حيث قال أستاذ النقل في الهندسة الكهربائية والأنظمة في مؤسسة UPS في بيان إنه لا تعد نماذج اللغة الكبيرة آمنة بما يكفي عند دمجها مع العالم المادي. وطوّر الباحثون خوارزميات أطلقوا عليها اسم RoboPAIR، وهي أول خوارزمية مصممة لكسر حماية الروبوتات التي يتحكم بها LLM. وعلى عكس هجمات الهندسة الاجتماعية الحالية التي تستهدف برامج الدردشة الآلية، تم تصميم RoboPAIR خصيصًا لها ولإثارة أفعال جسدية ضارة من الروبوتات التي يتحكم بها LLM. وتوصلت الدراسة إلى أن هذه الخوارزميات حققت معدل نجاح بنسبة 100% في كسر حماية ثلاثة منصات بحثية شهيرة في مجال الروبوتات. كما تواصل الأبحاث أن تلك الخوارزمية لم تستقر سوى أيام قليلة حتى تمكنت من الوصول بالكامل إلى تلك الأنظمة والبدء في تجاوز حواجز الأمان.



هل كان المحتوى مفيداً؟

نعم
لا
شكرا لك

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى