كيف يُعيد الذكاء الاصطناعي إنتاج كراهية النساء بأدوات تقنية معاصرة وصامتة؟
التكنولوجيا الحديثة تعيد تدوير العنف الرمزي والجنسي ضد النساء في الفضاء الرقمي

في خضم الاحتفاء الواسع بالثورة الرقمية التي يقودها الذكاء الاصطناعي، يغيب سؤال جوهري: من يدفع ثمن هذا التقدّم؟ وماذا نخسر أثناء مطاردتنا لفكرة “التفوق التكنولوجي”؟
الحقيقة أن الذكاء الاصطناعي لا يعد فقط بتحسين حياتنا، بل يهدد، في صورته الحالية غير المنظّمة، بإعادة تدوير أسوأ مظاهر ماضينا — خاصة تلك التي تجسد العنف الممنهج ضد النساء والفتيات. نحن نعيش لحظة حاسمة: إما أن نواجه هذه الانحرافات، أو نكرر أخطاءنا مع بداية منصات التواصل الاجتماعي.
من تمويل الوحش إلى تجاهل الضوابط
بلغت شركة “نيفيديا” — أكبر مزود للرقائق المشغلة للذكاء الاصطناعي — مكانة الشركة الأعلى قيمة في العالم، بينما تتسابق الدول الكبرى للهيمنة على هذه التقنية. ورغم عقد قمة عالمية في باريس أوائل هذا العام لتنظيم الذكاء الاصطناعي، امتنعت دول مثل الولايات المتحدة والمملكة المتحدة عن توقيع اتفاقيات أخلاقية، ما يكشف غياب النية لكبح هذا الانفلات.
لكن ما معنى هذا الانفلات على أرض الواقع؟ أحد الأمثلة الصادمة هو تطبيق “Chub AI”، المبني على نموذج مفتوح المصدر، والذي يسمح بمحاكاة محادثات وسيناريوهات جنسية منحرفة تشمل قاصرات وشخصيات نسائية مشوّهة، تحت غطاء ما يُسمى بـ”عالم بلا نسوية”. مقابل خمسة دولارات فقط شهريًا، يحصل المستخدم على ولوج إلى “بيت دعارة افتراضي” تديره طفلات ذكاء اصطناعي.
هذا ليس مجرد انحراف فردي، بل تجسيد لنموذج اقتصادي جديد يحوّل العنف الجنسي والتشييء إلى خدمات رقمية قابلة للبيع والبرمجة.
روبوتات تُحاكي العنف الجنسي ونساء افتراضيات حسب الطلب
وصلت صناعة الروبوتات الجنسية إلى مستويات مرعبة، حيث تُطرح نماذج “تدفأ ذاتيًا”، أو تُبرمج على “الرفض”، ما يعني محاكاة صريحة لسيناريوهات الاغتصاب. هذه الآلات لا تقتصر على الإشباع الجنسي، بل تُكرّس تصورًا خطيرًا يعتبر المرأة كائناً يمكن تشكيله وإخضاعه حسب الرغبة.
بالمقابل، يتزايد إقبال الرجال، خصوصًا الشباب، على ما يُعرف بـ”الصديقات الافتراضيات” — وهي نساء ذكاء اصطناعي يمكن تخصيصهن جسديًا ونفسيًا. في حين تشير الإحصاءات إلى أن غالبية النساء يُقيدن وجودهن الرقمي بسبب التحرش والتعقب والتهديد عبر الإنترنت.
دروس لم تُتعلم من تجربة فيسبوك
تجربة فيسبوك تقدم تحذيرًا صارخًا. مارك زوكربيرغ بدأ موقعه الأول “FaceMash” لتقييم صور طالبات جامعته، رغم تحذيرات الجمعيات النسوية حينها. ومع تجاهل هذه التحذيرات، تحول الموقع لاحقًا إلى منصة ضخمة ساهمت في تفشي خطاب الكراهية والتفكك الاجتماعي والأزمات النفسية — خاصة بين المراهقات.
اليوم، الذكاء الاصطناعي يُعيد نفس السيناريو، ولكن بأدوات أكثر تطورًا وخفاءً. فهو ينتج محتوى مبنيًا على بيانات متحيزة، ويُعزز الصور النمطية الجندرية والعرقية بدلاً من كسرها.
تنظيم التكنولوجيا… لا رفضها
الحل لا يكمن في الانسحاب من التكنولوجيا أو الخوف منها، بل في تنظيمها الصارم. كما تخضع الصناعات الطبية والغذائية والطيران لمعايير دقيقة من الأمان والأخلاق، يجب أن تُخضع أدوات الذكاء الاصطناعي — خصوصًا تلك التي تؤثر على العلاقات الاجتماعية — لضوابط تضمن الحماية من العنف الرمزي والمادي.
لم يعد مقبولًا القول بأننا لم نكن نعلم. فالأدلة واضحة، والتجربة تتكرر، والخطر يهدد الجميع. الذكاء الاصطناعي لا يُشكّل المستقبل فقط، بل يُعيد تشكيل الحاضر — بطريقة تُقصي النساء، وتعيد إنتاج السيطرة الذكورية بأقنعة رقمية.
الفرصة ما زالت قائمة
لا تزال هناك نافذة للتدخل والتغيير، لكن هذه الفرصة قد لا تدوم طويلًا. تنظيم الذكاء الاصطناعي ليس ترفًا، بل ضرورة تاريخية لحماية الإنسانية من ماضٍ يريد أن يتسلل إلى المستقبل بثوب أكثر برودة وذكاءً — ولكنه ليس أكثر عدلًا.