Close Menu
  • الرئيسية
  • الأخبار
  • الاقتصاد
  • الصحة
  • الرياضة
  • منوعات
  • تضم 31 لاعبا.. بعثة أخضر المناورة تصل ماليزيا للمشاركة في كأس آسيا
فيسبوك X (Twitter) الانستغرام
فيسبوك X (Twitter) الانستغرام فيميو
عرب90 | Arab90
Subscribe Login
  • الرئيسية
  • الأخبار
  • الاقتصاد
  • الصحة
  • الرياضة
  • منوعات
  • تضم 31 لاعبا.. بعثة أخضر المناورة تصل ماليزيا للمشاركة في كأس آسيا
عرب90 | Arab90
  • الرئيسية
  • الأخبار
  • الاقتصاد
  • الصحة
  • الرياضة
  • منوعات
  • تضم 31 لاعبا.. بعثة أخضر المناورة تصل ماليزيا للمشاركة في كأس آسيا
الرئيسية»الأخبار»الاقتصاد»ما هي "بيروقراطية" الذكاء الاصطناعي وهل يجب الخوف منها؟
الاقتصاد

ما هي "بيروقراطية" الذكاء الاصطناعي وهل يجب الخوف منها؟

Arab90بواسطة Arab90نوفمبر 13, 2024لا توجد تعليقات5 دقائق
فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب VKontakte البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

خاص

الذكاء الاصطناعي

مع وصول تقنيات الذكاء الاصطناعي إلى مستويات غير مسبوقة من التطور والقدرة على التعلم الذاتي، بدأ البشر يشعرون بالخوف من صعود هذه الأنظمة الذكية، التي لم تعد مجرد أدوات تقنية تخدم الإنسان، بل تحوّلت في بعض الأحيان إلى كيان روبوتي، ينمو ويتطور بوتيرة سريعة قد يصعب احتواؤها.

ولكن وبحسب تقرير أعدته “فايننشال تايمز” واطلع عليه موقع “اقتصاد سكاي نيوز عربية”، فبدلاً من القلق من الروبوتات الذكية المتمردة، فعلى البشر التركيز على تهديد خفي قد يقلب الموازين في عالم الأعمال رأساً على عقب، ويتمثل بـ “بيروقراطية الذكاء الاصطناعي”.

وتشير “بيروقراطية البشر” إلى النظم الإدارية التقليدية التي تعتمد على الكوادر البشرية لتنفيذ القرارات، وإدارة المهام والإشراف على سير العمل ضمن المؤسسات.

وفي هذه الأنظمة، يتولى الموظفون تقييم الحالات، اتخاذ القرارات، معالجة البيانات، وإجراء التعديلات المناسبة حسب السياق، مما يمنح العمل مرونة إنسانية وقدرة على التعامل مع التفاصيل الفريدة لكل حالة.

أما “بيروقراطية الذكاء الاصطناعي” فتشير إلى الاعتماد المتزايد على الأنظمة الذكية، لأداء مجموعة متنوعة من الأعمال الروتينية التي كانت تتم في السابق عبر الموظفين البشر، حيث ستعمل برامج الذكاء الاصطناعي، على إدارة وإجراء المهام الإدارية واتخاذ القرارات و عرب90الامتثال للقوانين داخل الشركات والمؤسسات الحكومية، مما قد يعزز الكفاءة والسرعة.

لماذا الخوف من هذا التحوّل؟

يثير إنتقال “البيروقراطية” من يد البشر إلى الذكاء الاصطناعي مخاوف عديدة، منها زوال الشعور الإنساني عند التفاعل مع قرارات مصيرية تمس حياة الأفراد، فالبرامج الذكية لا تمتلك المرونة التي يتمتع بها الإنسان عند تعاطيه مع قضايا الشأن العام، ما قد يفضي إلى إتخاذ البرمجيات الإلكترونية لقرارات متحيزة وظالمة.

وإضافة إلى ذلك فإن “بيروقراطية الذكاء الاصطناعي” يمكن أن تسلب الناس حقهم في الشفافية والعدالة، وتفرض قرارات لا رجوع فيها وغير قابلة للنقض، حيث أن هذه البرامج ترفض رفضاً قاطعاً تقديم استثناءات مرنة. 

ويقول تقرير “فايننشال تايمز” إن “البيروقراطية” هي القوة النافذة التي يستعد الذكاء الاصطناعي الآن للاستيلاء عليها، فالذكاء الاصطناعي، سواء كان خيراً أم شراً، يجب أن لا يسمح له بالتحكم في أدوار حاسمة ترتبط بصنع القرارات وإدارة العمليات اليومية، حيث أنه وخلال سنوات قليلة، سيقرر الذكاء الاصطناعي ما إذا كان المصرف سيمنحنك قرضاً، وما إذا كان سيتم قبولك في الجامعة أو في الوظيفة.

كما سيقرر الذكاء الاصطناعي في نظام المحكمة ما إذا كان سيرسلك إلى السجن، وفي النظام العسكري ما إذا كان سيقصف منزلك.

ورغم أنه ليس بالضرورة أن يكون الذكاء الاصطناعي سيئاً، ولكن إذا سارت الأمور بشكل خاطئ، وتعلمت خوارزميات الذكاء الاصطناعي الجشع والكراهية، من خلال التلاعب بتدفق المعلومات إليها، فقد نكون أمام نتائج كارثية في عالم تحكمه الفوضى، فالخطر هنا لا يكمن في روبوتات تجوب الشوارع، بل بخوارزميات تتخذ القرارات خلف شاشات الكمبيوتر، وتفتقر إلى العنصر الإنساني. 

ويقول رئيس شركة “تكنولوجيا” مازن الدكاش، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن أضرار “بيروقراطية الذكاء الاصطناعي” تتجلى في عدة جوانب، أبرزها “الآلية الجامدة” التي تعتمدها هذه التكنولوجيا، فخوارزميات الذكاء الاصطناعي تعتمد على قواعد وبرمجيات محددة سلفاً، مما يجعلها أقل مرونة في مواجهة الحالات التي تحتاج إلى مراعاة ظروف خاصة أو تعامل إنساني، وهذا يمكن أن يؤدي إلى قرارات غير عادلة بحق الأفراد، فهناك مواقف تحتاج إلى تفهم وتقدير إنساني يصعب على الآلة تحقيقه، لافتاً أيضاً إلى أن خوارزميات الذكاء الاصطناعي تتعلم من البيانات التي تغذى منها، والتي قد تحتوي على تحيزات معينة، ولذلك عندما تتولى هذه الأنظمة إدارة القرارات، فقد يتم تعزيز تلك التحيزات على نطاق أوسع، مما يؤثر على حقوق الأفراد بشكل مباشر.

ويكشف الدكاش أن أضرار “بيروقراطية الذكاء الاصطناعي”، تتجلى أيضاً في نقص الشفافية والمساءلة، فإذا كانت القرارات الصادرة عن الذكاء الاصطناعي غامضة وغير قابلة للفهم بسهولة، فمن الصعب معرفة كيفية وصول البرمجيات إلى تلك النتائج والاعتراض عليها ومحاسبتها، فالخوارزميات ليست مسؤولة قانونياً مثل البشر، كما أن أنظمة الذكاء الاصطناعي قد تؤدي إلى بناء أنظمة مراقبة دقيقة تتعقب وتراقب سلوك الأفراد، ومع غياب الشفافية، يصبح الذكاء الاصطناعي أداة للتحكم بالأفراد وتقويض حرياتهم الشخصية بطرق خفية، مما يجعل المواطنين تحت رقابة مستمرة.

وبحسب الدكاش فإن “بيروقراطية الذكاء الاصطناعي” تهدد أيضاً الخصوصية، حيث تحتاج “الأنظمة البيروقراطية الذكية” إلى كميات هائلة من البيانات الشخصية للعمل بكفاءة، مما يثير مخاوف حول الخصوصية وسلامة البيانات.

العامل الإنساني هو الحلّ

من جهته يقول الخبير في التكنولوجيا جو زغبي، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن معالجة مشكلة “بيروقراطية الذكاء الاصطناعي” تعتبر مسألة حيوية لضمان استخدام هذه التكنولوجيا بشكل عادل وفعّال، حيث يتعين أولاً على الشركات والمصالح الحكومية، توضيح كيفية عمل أنظمة الذكاء الاصطناعي، وطريقة اتخاذها للقرارات، وذلك من خلال توفير معلومات شاملة حول البيانات المستخدمة في تدريب الخوارزميات، وكشف المعايير التي يتم اعتمادها في اتخاذ القرارات.

وشدد على ضرورة وجود آليات للمساءلة تضمن أن تكون هناك جهة مسؤولة عن القرارات التي يتخذها الذكاء الاصطناعي، وذلك حتى يتسنى للأفراد الاعتراض على القرارات التي تؤثر عليهم، والحصول على توضيحات حول طريقة اتخاذ هذه القرارات.

ويرى زغبي أنه يجب على العالم اليوم التركيز على تدريب الأفراد على فهم الذكاء الاصطناعي وطرق استخدامه بشكل أخلاقي، إذ يتعين على العاملين في المؤسسات التي تستخدم هذه الأنظمة، أن يكونوا مدربين على التعرف على المخاطر المرتبطة بهذه التكنولوجيا وكيفية التعامل معها، فمن خلال رفع مستوى الوعي والتعليم، يمكن تقليل الاعتماد الأعمى على الخوارزميات وتعزيز التفكير النقدي، محذراً من عدم توفير خيارات بديلة للذكاء الاصطناعي في المؤسسات والإدارات.

وبحسب زغبي فإنه يجب أن على المؤسسات إتاحة خيارات بشرية بديلة عن الذكاء الاصطناعي، عند اتخاذ القرارات المهمة، ولا يجب السماح باستيلاء التكنولوجيا على “البيروقراطية البشرية” وتحويلها إلى “بيروقراطية قاسية” على يد الذكاء الاصطناعي، ففي حالات معينة ينبغي أن يكون للبشر الحق في اتخاذ القرارات، حتى لو كان رأيهم مخالفاً لرأي الآلة، حيث أن ضمان وجود عنصر بشري في اتخاذ القرارات الحساسة، كفيل بمحاربة “بيروقراطية الذكاء الاصطناعي” التي تتطلب أيضاً تنفيذ سياسات أخلاقية، وتعزيز الشفافية والمساءلة.

quotبيروقراطيةquot الاصطناعي الخوف الذكاء ما منها هي وهل يجب
شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr واتساب البريد الإلكتروني
السابقسوريا.. جرحى في غارات إسرائيلية على ريف حمص
التالي انتخاب جون ثون زعيماً للأغلبية الجمهورية بمجلس الشيوخ
Arab90
  • موقع الويب

المقالات ذات الصلة

ارتفاع مبيعات قطاع التجزئة الألماني في 2025

فبراير 2, 2026

زيلينسكي: وثيقة الضمانات الأمنية الأميركية جاهزة بالكامل

يناير 25, 2026

قرقاش: قيادتنا ومصداقيتنا هما رصيدنا في سياستنا الخارجية

يناير 24, 2026

مرشد: حلول الذكاء الاصطناعي تحقق نمواً سنوياً يقارب 100%

يناير 24, 2026
اترك تعليقاً إلغاء الرد

فيسبوك X (Twitter) الانستغرام بينتيريست
  • الرئيسية
  • الأخبار
  • الاقتصاد
  • الصحة
  • الرياضة
  • منوعات
  • تضم 31 لاعبا.. بعثة أخضر المناورة تصل ماليزيا للمشاركة في كأس آسيا
© 2026 Arab90.com. Designed by Arab90.com.

اكتب كلمة البحث ثم اضغط على زر Enter

تسجيل الدخول أو التسجيل

مرحبًا بعودتك!

Login to your account below.

نسيت كلمة المرور؟