السلطة الرقمية تتحكم في العالم: جمهوريات خفية ونفوذ مستتر
خوارزميات تخترق حياتنا اليومية
منذ اللحظة التي تفتح فيها هاتفك، تتحكم السلطة الرقمية في اختياراتك، بداية من الأخبار التي تقرأها، وحتى فرصك في العمل أو السفر. التكنولوجيا لم تعد مجرد أداة للراحة، بل تحولت إلى قوة سياسية واقتصادية واجتماعية عالمية.
“التكنولوجيا وحدها ليست خطيرة، بل غياب الإنسان عن قلب القرار هو الخطر الحقيقي.” — هيئة التحرير
في هذا السياق، يصبح الإشراف البشري ضرورة حيوية للحفاظ على العدالة، إذ يمكن للخوارزميات أن توجه حياتنا دون أن نلاحظ ذلك، مستغلة البيانات لتحديد خياراتنا قبل أن نقررها نحن.
القضاء الرقمي في الولايات المتحدة: عندما يسبق الخوارزم القاضي
أنظمة تقييم المخاطر وتأثيرها
تعتمد المحاكم الأمريكية على أنظمة مثل COMPAS لتقييم خطورة المتهمين. وفي حين يفترض أن تعمل هذه الأنظمة حيادية، كشفت تحقيقات ProPublica(1) عام 2016 أن الخوارزمية صنّفت السود كـ “عالي الخطورة” بنسبة تفوق غيرهم، رغم عدم ارتكابهم جرائم لاحقة.
الإنسان كضامن للعدالة
لذلك، يصبح إشراف القاضي البشري ضرورة لا غنى عنها، إذ يوازن بين نتائج الآلة ومتطلبات العدالة، ويحد من استغلال الخوارزمية في إصدار أحكام غير عادلة.
الصين: السلطة الرقمية تتحول إلى مراقب شامل
نظام الائتمان الاجتماعي
تراقب الحكومة الصينية سلوك المواطنين بشكل مستمر، من مشترياتهم إلى أنشطتهم الرقمية اليومية. وفي النهاية، تمنح النظام نقاطًا أو تخصمها وفق تقييمه لسلوك الفرد.
العواقب اليومية
عندما تنخفض النقاط، قد يُحرم المواطن من السفر، أو رفض القروض، أو رفضه من وظائف حكومية. ومن خلال هذا النظام، تفرض الدولة سلطة واسعة على حياة المواطنين.
غياب الاعتراض البشري
يؤدي ذلك إلى فقدان المواطنين حقوقهم الأساسية في الاعتراض أو التفسير أو الاستئناف، ما يحوّل السلطة الرقمية إلى أداة ضبط اجتماعي.
الحدود الذكية في أوروبا: بين الأمن والتمييز
الخوارزميات تتحكم في السفر
تعتمد مطارات أوروبا أنظمة تحليل الوجه والصوت لتقييم نية المسافرين. على الرغم من أخطائها المتكررة، تظل الحكومات تستخدمها في اتخاذ قرارات حاسمة.
أخطاء متكررة وتمييز محتمل
تشير تقارير الاتحاد الأوروبي إلى أن هذه الأنظمة ترتكب أخطاء تتجاوز 30%، وغالبًا ما تؤثر على المهاجرين وذوي الأصول غير الأوروبية. وهكذا، يعاد إنتاج التمييز بأسلوب رقمي حديث.
شركات التكنولوجيا الكبرى: نفوذ بلا حدود
البيانات كسلاح عالمي
تمتلك شركات مثل غوغل، ميتا، وأمازون قواعد بيانات أكبر من معظم الدول. فهي تعرف عاداتك، مشترياتك، وحتى خططك المستقبلية.
تشكيل الرأي العام
تُحدد هذه الشركات ما يصل إلى شاشاتنا، وتموّل أبحاث الذكاء الاصطناعي التي ستعيد تشكيل العمل والتعليم والصحة. وبهذا تصبح السلطة الرقمية قوة سياسية لا تُرى ولا تُنتخب.
العالم العربي والمغرب: فرصة لبناء نموذج رقمي إنساني
اختيار بين التقليد والابتكار
يقف المغرب والعالم العربي على مفترق طرق: إما تكرار التجارب الغربية والآسيوية، أو بناء نموذج مستقل يحترم الحقوق ويوازن بين التقنية والإنسان.
ركائز النموذج الرقمي الأخلاقي
▪︎ وضع قوانين صارمة لحماية البيانات الشخصية
▪︎ إشراف بشري إلزامي على جميع القرارات المصيرية
▪︎ لجان مستقلة لتدقيق الخوارزميات
▪︎ استثمار وطني في أخلاقيات الذكاء الاصطناعي
وبالإضافة إلى ذلك، ينبغي تعزيز الوعي الرقمي لدى الجمهور لضمان مشاركة فعالة.
رأي التحرير: الإنسان أولاً
الخطر الحقيقي يكمن في فقدان الإنسان مركز القرار أمام السلطة الرقمية. فالخوارزميات ليست مجرد أدوات، بل هياكل سلطة جديدة. المستقبل يعتمد على ما إذا كنا سنبقى أسياد التقنية أم مجرد خاضعين لها.
المستقبل لا يُصنع بالكود وحده، بل بالإرادة التي توجهه.
المصادر:
1- المقال الرئيسي للدراسة بعنوان Machine Bias نُشر في 23 مايو 2016.
في هذا التحقيق، حلّل ProPublica بيانات عن أكثر من 7,000 شخص اعتُقلوا في مقاطعة Broward في فلوريدا بين 2013 و2014، وتبيّن أن الخوارزمية صنّفت أشخاصاً سوداً كـ «خطر مرتفع» بمعدّل أعلى من البيض، رغم أنهم لم يرتكبوا جريمة لاحقًا.
رابط التحقيق: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
اشترك الآن في القائمة البريدية لموقع الدائرة نيوز _ Dairanews لمعرفة جديد الاخبار