
رقمنة
*محمد صالح
وافق 25 نوفمبز/ تشرين ثاني اليوم العالمي للقضاء على العنف ضدّ المرأة، وفيه تنطلق حول العالم كلّ عام حملة 16 يومًا من النشاط لمناهضة العنف ضدّ المرأة، وهي لحظة رمزية تعكس عمق المشكلة واستمراريتها رغم عقود من النضال والوعي والحراك. وبرغم التقدّم التشريعي والمُجتمعي والمؤسّسي في كثير من الدول، لا تزال المؤشّرات العالمية تكشف حجم الفجوة؛ إذ تشير الأمم المتحدة إلى أنّ امرأة واحدة من كلّ ثلاث نساء تتعرّض لشكل من أشكال العنف خلال حياتها، أي ما يُقدّر بحوالي 840 مليون امرأة ممّن هنّ فوق الخامسة عشرة من العمر. هذا الرقم الصادم لا يذكّر فقط بواقع العنف، بل يفرض أيضًا سؤالًا مُلحًا حول الأشكال الجديدة التي باتت تأخذها هذه الظاهرة في عصر التكنولوجيا والذكاء الاصطناعي.
ففي الوقت الذي يُروَّج فيه الذكاء الاصطناعي باعتباره محرّكًا للتنمية والابتكار، تظهر في المقابل مخاطر متنامية تتعلّق بقدرته على تضخيم العنف، وخصوصًا ضد النساء، إذا لم يُضبط ضمن أطر تنظيمية وحوكمة دقيقة. فالنماذج الرقمية التي تُدرَّب على بيانات مُنحازة تُعيد إنتاج التحيّزات الجندرية في مساحات العمل والخدمات والتمثيل الإعلامي، وتُشرعن تمييزًا مؤسسيًا قد لا يكون مرئيًا للوهلة الأولى. ومع توسّع الخوارزميات في إدارة التوظيف والاقتراض والتقييمات المهنية، تصبح احتمالية اتخاذ قرارات غير عادلة بحق النساء والفئات الهشة أمرًا متوقعًا، بل ومنهجيًا.
وتتسع دائرة الخطر حين تتحوّل إمكانات الذكاء الاصطناعي إلى أدوات للعنف الرقمي المباشر. فمنصّات التواصل الاجتماعي التي تعتمد على خوارزميات الاستهداف قد تدفع النساء لمحتوى مسيء، أو تُسهم في تضخيم خطاب الكراهية ضدّهن. كما سمحت التقنيات الحديثة بإنتاج محتوى مزيّف عبر التزييف العميق، يستخدم صور النساء ووجوههن في سياقات جنسية أو تشهيرية، وهو شكل من أشكال العنف بلغ مستوى وبائيًا خلال السنوات الأخيرة. ويزداد الأمر تعقيدًا ضمن العلاقات المُسيئة حين تُستخدم الأجهزة المنزلية الذكية، وكاميرات المراقبة، وأدوات التتبّع، للتحكّم بالمرأة ومراقبتها وتعقّب تحرّكاتها.
ولا يقف الخطر عند حدود الفضاء الرقمي فقط، فضعف حماية البيانات يفتح الباب أمام الابتزاز واستغلال المعلومات الحسّاسة، في حين قد تُسهم حتى أدوات الشرطة والقضاء المُعتمدة على التحليل الخوارزمي في تضليل الإجراءات أو إنتاج أحكام مُتحيّزة ضدّ النساء في قضايا العنف الأسري أو التمييز أو التحرّش. إنّ تضافر هذه التقنيات، دون حوكمة واضحة أو آليات مُساءلة فعالة، يهدّد بتحويل الذكاء الاصطناعي إلى قوّة مضاعِفة للعنف بدل أن يكون جزءًا من الحل.إنّ الذكاء الاصطناعي ليس قدرًا محتومًا، بل أداة يمكن أن تحمي النساء أو تضرّهن، وفقًا للطريقة التي نختار أن نصوغ بها مستقبلنا الرقمي
أمام هذا المشهد المعقّد، يصبح دور صانع ومتخذ القرار أكثر أهمية من أيّ وقت مضى. فمن الضروري بناء أطر تنظيمية وتشريعية مُحكمة تضمن أن تعمل الخوارزميات ضمن معايير شفافة، وأن تخضع للرقابة والتدقيق المنتظم لضمان خلوّها من التحيّزات الجندرية. كما ينبغي تطوير بروتوكولات لحماية الخصوصية الرقمية للنساء، وتجريم استخدام أدوات الذكاء الاصطناعي في التحرش والتشهير والاستهداف والمراقبة المُسيئة. ولعلّ الأكثر إلحاحًا هو الاستثمار في حملات تغيير السلوك وتعزيز الوعي الإنساني والتقني التي تُمكّن النساء من فهم المخاطر الرقمية، وتُمكّن المجتمع والمؤسّسات من التعامل معها بجدية ورصدها مُبكّرًا.
المصدر : العربي الجديد
* الخبير الإستراتيجي والتطوير المؤسسي




