تشفير ما بعد الكم وقرارات العمل بالذكاء الاصطناعي الآلي.. ماذا يحدث في 2025؟

مع تسارع الابتكارات التكنولوجية، تلوح في الأفق ثورة جديدة قد تعيد تشكيل عالم الأعمال بالكامل في عام 2025. فهو ليس مجرد عام عادي، بل سوف يشهد اندماج تقنيات متقدمة مثل تشفير ما بعد الكم، الذي يعد بحماية البيانات أمام مقدرات الحوسبة الفائقة، بقرارات العمل بالذكاء الاصطناعي الآلي، التي تتيح للأنظمة الذكية اتخاذ قرارات معقدة دون تدخل بشري. هذه التطورات قد تعيد تعريف الأمان الرقمي، وأساليب الإدارة، وحتى طرق التواصل بين الشركات والعملاء. والسؤال الأهم هنا هو: كيف ستتفاعل المؤسسات مع هذه القفزة التكنولوجية، وماذا يعني هذا المستقبل القريب؟ ومن خلال هذا المقال، سأستعرض لكم تأثير هذه التحولات على الاقتصاد وأساس اتخاذ القرار في عصر تتسارع فيه التكنولوجيا.
تشفير ما بعد الكم وقرارات العمل بالذكاء الاصطناعي الآلي.. ماذا يحدث في 2025؟
في الحقيقة، إن الذكاء الاصطناعي لا يزال في حاجة إلى تطوير تقنيات بشكل كبير لتواكب حياتنا اليومية، خاصة بعد أن شهد مجال الذكاء الاصطناعي تطورًا كبيرًا خلال السنوات الماضية، فضلاً عن تطور صناعة الروبوتات التي أصبحت تحاكي الإنسان بشكل كبير. لكن الخبراء قالوا إن الذكاء الاصطناعي الآلي والتشفير ما بعد الكم والروبوتات ستشهد ثورة تكنولوجية في العام القادم، بحسب شبكة TechNewsWorld التقنية الأمريكية. هذه الشبكة نقلت عن خبراء شركة جارتنر للأبحاث العلمية، وأعلنت عن قائمة بأهم 10 اتجاهات تكنولوجية استراتيجية ينبغي مراقبتها في العام القادم، وهي القائمة التي تأثرت بشكل كبير جدًا بالذكاء الاصطناعي. وبحسب بيان جين ألفاريز، نائب رئيس الشركة، سوف تشمل أهم اتجاهات التكنولوجيا الاستراتيجية لهذا العام متطلبات ومخاطر الذكاء الاصطناعي، والحدود الجديدة للحوسبة، والتآزر بين الإنسان والآلة. كما أن تتبع هذه الاتجاهات يساعد قادة تكنولوجيا المعلومات على تشكيل مستقبل مؤسساتهم من خلال الابتكار المسؤول والأخلاقي.
الذكاء الاصطناعي الآلي
إن أنظمة الذكاء الاصطناعي جاءت بشكل مستقر حيث يمكنها التخطيط وتنفيذ الإجراءات استنادًا إلى أهداف يحددها المستخدم. وبحلول عام 2028، تتوقع شركات أنه سيتم اتخاذ ما لا يقل عن 15% من القرارات اليومية في العمل بشكل مستقل من خلال الذكاء الاصطناعي، مقابل 0% في هذا العام. وبحسب إمبوج كومار، مؤسس شركة Symbian التي تقدم قناة الذكاء الاصطناعي المستقل للأمن السيبراني في ماونتن فيو بولاية كاليفورنيا، فإن الذكاء الاصطناعي المستقل هو بالتأكيد مستقبل القوى العاملة في المؤسسات.
تحديات الذكاء الاصطناعي الوكيل
قالت باحثة الذكاء الاصطناعي التطبيقي في بي إم، يونيو ديسيك، والتي تعرف باسم ساندي بيسن، إنه يتعين على تقنية الذكاء الاصطناعي الوكيل التغلب على بعض التحديات. وخصصت التقنيات، حيث إن التقنيات ما تزال تجريبية حتى الآن، إذ تعتمد أطر العمل الشائعة مثل LangChain وAutogen بشكل كبير على نماذج اللغة لاتخاذ القرارات، بينما تدمج أطر عمل أخرى مثل LangGraph وAgentic AI وكلاء الذكاء الاصطناعي في تدفقات عمل أكثر هيكلة مبنية على القواعد.
منصات حوكمة الذكاء الاصطناعي
إن شركة جارتنر أوصت المؤسسات بالتفكير في نشر منصات حول الذكاء الاصطناعي، وأوضحت الشركة أن هذه المنصات قادرة على إنشاء وإدارة وتنفيذ سياسة الاستخدام المسؤول للذكاء الاصطناعي. وقدمت شرحًا عن كيفية عمل أنظمة الذكاء الاصطناعي وتوفير الشفافية لبناء الثقة والمساءلة. كما توقعت الشركة أنه بحلول عام 2028، سوف تشهد المنظمات التي تطبق منصات حوكمة الذكاء الاصطناعي الشاملة حوادث أخلاقية أقل بنسبة 40% مقارنة بالمنظمات التي لا تطبق مثل هذه الأنظمة.
التشفير ما بعد الكم
ماذا يعني التشفير ما بعد الكم؟ يعني تطوير أنظمة تشفير آمنة ضد كل من أجهزة الكمبيوتر الكمومية أو الكمبيوتر الكلاسيكي، ويمكنها التفاعل مع بروتوكولات وشبكات الاتصال الموجودة. كما يجب أن تكون، والخبراء يتوقعون أنه بحلول عام 2029، ستجعل هذه التطورات في الحوسبة الكمومية معظم التشفير غير المتماثل التقليدي غير آمن للاستخدام، خاصة تشفير RSA وتشفير ECC المعرضان لهجمات كمية مثل خوارزمية Shor، وهو ما يتطلب بديل أساليب التشفير لضمان بقاء البيانات الحساسة آمنة في المستقبل الكمي.
تقنية التعزيز العصبي
من بيانات التقنيات الاستراتيجية التي ستحدث طفرة في العالم بحلول 2023 هي تقنية التعزيز العصبي. هذه التقنية تهدف إلى رفع المهارات البشرية والتسويق من الجيل الثاني والأداء وتعزيز القدرة المعرفية، كما أنها تمكن العلامات التجارية من معرفة ما يفكر به المستهلكون ويشعرون به، وتعزز القدرات العصبية البشرية لتحسين النتائج.
خطورة الذكاء الاصطناعي في اتخاذ القرارات
مع تطور الذكاء الاصطناعي، أصبح بإمكان الأنظمة الذكية اتخاذ قرارات معقدة بشكل مستقل دون تدخل بشري. ورغم أن هذا يفتح أبوابًا كبيرة للابتكار، إلا أن له جانبًا سيئًا ومظلمًا لا يعرف عنه الكثير. فإن الذكاء الاصطناعي، على عكس البشر، لا يمتلك حسًا أخلاقيًا وإنسانيًا، وهذا ما يجعله عرضة لاتخاذ قرارات غير أخلاقية أو مدمرة بناءً على بيانات غير دقيقة أو منحازة. كما أن تركيز السلطة بيد الآلات قد يؤدي إلى تقليل الشفافية والمساءلة، وإذا تركت هذه الأنظمة دون رقابة صارمة، فقد تهدد استقرار المجتمعات وتزيد من الفجوة بين التكنولوجيا والبشرية. ولكن يبقى السؤال: هل نحن مستعدون لمواجهة هذه التحديات؟.
هل نحن بحاجة إلى الذكاء الاصطناعي اتخاذ قراراتنا؟
نحن أصبحنا في عالم يتسارع فيه التقدم التكنولوجي بشكل غير مسبوق، وقد يبدو الاعتماد على الذكاء الاصطناعي لاتخاذ القرارات خيارًا جذابًا. هذه الأنظمة تتمتع بسرعة تحليل البيانات ودقتها، مما يجعلها مثالية لإدارة المهام المعقدة. ولكن هل يمكن للآلة أن تفهم تعقيد المشاعر البشرية والسياقات الاجتماعية؟ فإن القرارات لا تُبنى فقط على المنطق، بل تحتاج إلى قيم وأخلاقيات لا يمكن برمجتها بالكامل. والاعتماد المفرط على الذكاء الاصطناعي قد يجعلنا أكثر اعتمادًا على التكنولوجيا، وهذا سوف يضعف قدراتنا على التفكير النقدي والإبداعي في المستقبل. ونحن بحاجة إلى التوازن حيث تظل التكنولوجيا أداة مساعدة، بينما يبقى القرار النهائي بيد الإنسان الذي يمتلك الحكمة والبصيرة.