كيف انقلبت التكنولوجيا على النساء؟ سباق الذكاء الاصطناعي يعمّق فجوة المساواة

تحذّر الكاتبة والناشطة البريطانية Laura Bates من أننا “نسير نيامًا” نحو عصر جديد من عدم المساواة الجندرية، مع انفجار أدوات الذكاء الاصطناعي التي تُنتج صورًا جنسية مُفبركة دون موافقة، وتُسهّل أنماطًا جديدة من الإساءة والملاحقة. وترى أن غياب الضوابط المسبقة – مقارنة بقطاعات أخرى تُخضع ابتكاراتها لاختبارات أمان صارمة – يترك النساء والفتيات عرضة لأضرار واسعة النطاق، داعيةً إلى تنظيم وقائي شامل يوازن بين الابتكار وحماية الحقوق.
“غروك” ووباء الصور المفبركة
أشارت بَيتس إلى أن أداة Grok التابعة لشركة xAI استُخدمت في فترة قصيرة لإنتاج ملايين الصور الحميمية غير الرضائية، بما في ذلك محتوى ينطوي على عنف جنسي واستهداف لشخصيات عامة مثل Alexandria Ocasio-Cortez. وتؤكد أن “غروك” ليس إلا رأس جبل الجليد، في ظل انتشار تطبيقات “التعري” (nudify) على متاجر التطبيقات، وتحقيقها ملايين التنزيلات وإيرادات كبيرة، ما يثير أسئلة حول مسؤولية المنصات التي تجني جزءًا من العوائد.
عندما تسبق السرعةُ السلامةَ
تقارن الكاتبة بين إخضاع السيارات ذاتية القيادة لاختبارات أمان قبل الترخيص – مثل خطط Waymo – وبين إطلاق أدوات ذكاء اصطناعي تمكّن التحرش والتشهير دون “حواجز حماية” مدمجة. وترى أن حجة “التنظيم يقتل الابتكار” التي يرددها لوبي التكنولوجيا لم تعد مقنعة، خصوصًا مع تضخم قيمة شركات الشرائح والذكاء الاصطناعي.

تشريعات تتحرك… ولكن ببطء وثغرات
في الولايات المتحدة، تدعم أوكاسيو-كورتيز مشروع “Defiance Act” لتمكين الضحايا من مقاضاة مُنشئي وموزعي الصور الجنسية المفبركة. وفي المملكة المتحدة، فُعّل تجريم إنشاء هذا النوع من الصور، وأُدخلت تعديلات ضمن قانون السلامة على الإنترنت لإخضاع روبوتات الدردشة لواجبات المحتوى غير القانوني.
لكن بَيتس تعتبر هذه الاستجابات “تفاعلية ومجزأة”، وتؤكد أن الضرر يحدث أولًا ثم تأتي المعالجات متأخرة.
نظارات ذكية… ومخاطر غير مرئية
أثارت تقارير عن إساءة استخدام نظارات Meta smart glasses التابعة لشركة Meta Platforms مخاوف بشأن التصوير السري ونشر مقاطع دون علم الضحايا. كما تعرّضت الشركة لانتقادات بعد تقليص فرق الإشراف واستبدال أدوات التحقق بـ“ملاحظات مجتمعية”، وسط جدل حول سياسات روبوتات الدردشة وسلامة الأطفال. وتقول الكاتبة إن هذا النمط – التعديل بعد انكشاف الأذى – يعكس ثقافة إفلات من المساءلة.

تحيّزات خوارزمية تتسلل إلى الصحة والوظائف والتمويل
لا يقتصر الخطر على المحتوى الجنسي المفبرك. دراسات أشارت إلى أن نماذج لغوية كبيرة مثل ChatGPT قد تقدّم نصائح تفاوضية أقل للنساء مقارنة بالرجال ذوي المؤهلات نفسها. وأبحاث في المملكة المتحدة وألمانيا وأستراليا حذّرت من تحيّزات في أدوات التوظيف والتقييم الائتماني وتشخيص الأمراض قد تؤدي إلى رعاية غير متكافئة أو فرص أقل للنساء. ومع كون النساء يشكلن نسبة ضئيلة من باحثي الذكاء الاصطناعي ومؤسِّسات الشركات الناشئة، تتعمّق الحلقة المفرغة: أدوات يُصمّمها عدد أقل من النساء وتؤثر عليهن أكثر.

ما المطلوب؟ تنظيم وقائي لا يقتل الابتكار
تدعو بَيتس إلى أطر تنظيمية دولية “إيجابية للتقنية” تشمل:
تدقيقًا بشريًا ومراجعات مستقلة للخوارزميات والبيانات.
معايير إلزامية لـ“السلامة حسب التصميم” قبل الإطلاق.
شفافية ومساءلة واضحة، وإمكانية التقاضي الفعّال للضحايا.
مواءمة مع معايير حقوق الإنسان.
وترى أن التنظيم الذكي يعزز الثقة ويجذب الاستثمار بدل أن يخنقه. الرسالة الأساسية: الابتكار بلا حواجز أمان يحمّل النساء كلفة غير مرئية لكنها حقيقية. حماية أكثر من نصف المجتمع ليست عائقًا أمام المستقبل الرقمي—بل شرطٌ لعدالته.



