الذكاء الاصطناعي يبلغ الشرطة قبل وقوع حادث بعدة اشهر فى كندا

كشفت شركة OpenAI، المطوّرة لتطبيق ChatGPT، أنها درست العام الماضي إمكانية إبلاغ الشرطة الكندية بشأن نشاط حساب يُشتبه بارتباطه بـ“تعزيز أنشطة عنيفة”، قبل أشهر من تنفيذ صاحب الحساب واحدة من أسوأ حوادث إطلاق النار المدرسية في تاريخ كندا الحديث.
وبحسب ما نقلته وكالة أسوشييتد برس، فإن الشركة رصدت في يونيو 2025 حسابًا باسم Jesse Van Rootselaar ضمن جهودها لاكتشاف إساءة الاستخدام. ورغم التفكير في إحالة الأمر إلى Royal Canadian Mounted Police، خلصت الشركة آنذاك إلى أن النشاط لم يبلغ عتبة “خطر وشيك وموثوق بوقوع ضرر جسدي جسيم”، وهي المعايير التي تعتمدها للإبلاغ إلى جهات إنفاذ القانون.
رصد مبكر… لكن دون “خطر وشيك”
أوضحت OpenAI أن سياساتها تشترط وجود مؤشرات واضحة على تخطيط وشيك وموثوق لعمل عنيف قبل التواصل مع السلطات. وبحسب الشركة، لم تكشف مراجعة الحساب عن دليل على تخطيط فوري لهجوم، رغم تصنيفه ضمن أنشطة مرتبطة بالعنف. لذلك تم الاكتفاء بحظر الحساب في يونيو 2025 لانتهاكه سياسات الاستخدام، دون إبلاغ الشرطة في ذلك الوقت.
الهجوم الدامي في تامبلر ريدج
في الأسبوع الماضي، أقدم الشاب البالغ 18 عامًا على قتل ثمانية أشخاص في بلدة تامبلر ريدج بمقاطعة بريتيش كولومبيا، قبل أن ينهي حياته بإطلاق النار على نفسه. وذكرت الشرطة أن الضحايا شملوا مساعدًا تعليميًا يبلغ 39 عامًا وخمسة طلاب تتراوح أعمارهم بين 12 و13 عامًا.
البلدة الصغيرة الواقعة في جبال الروكي الكندية، ويبلغ عدد سكانها نحو 2700 نسمة، تبعد أكثر من ألف كيلومتر شمال شرق فانكوفر.
تواصل لاحق مع الشرطة
بعد وقوع الهجوم، أكدت OpenAI أنها بادرت بالتواصل مع شرطة الخيالة الملكية الكندية، وقدمت معلومات حول استخدام المشتبه به لتطبيق ChatGPT، مؤكدة استعدادها لدعم التحقيق الجاري. وقال متحدث باسم الشركة إن “أفكارنا مع جميع المتضررين من مأساة تامبلر ريدج”.
خلفية نفسية وغموض الدوافع
أشارت الشرطة إلى أن المشتبه به كان لديه سجل سابق من التواصل مع الجهات الأمنية بسبب قضايا تتعلق بالصحة النفسية. ووفق التحقيقات الأولية، بدأ الهجوم بقتل والدته وأخيه غير الشقيق داخل المنزل قبل أن يتجه إلى المدرسة القريبة.
حتى الآن، لا تزال دوافع الجريمة غير واضحة، فيما تُعد الحادثة الأكثر دموية في كندا منذ هجوم نوفا سكوشا عام 2020.
جدل متجدد حول مسؤولية المنصات التقنية
تعيد هذه الواقعة فتح النقاش حول مسؤولية شركات الذكاء الاصطناعي في رصد المخاطر المحتملة والإبلاغ عنها، والتوازن الدقيق بين الخصوصية والأمن العام. كما تطرح تساؤلات حول كيفية تحديد “الخطر الوشيك” في عصر تتداخل فيه التكنولوجيا مع سلوك الأفراد بشكل غير مسبوق.



