الذكاء الاصطناعي يغير قناعاتنا: روبوتات المحادثة والإقناع السياسي

أظهرت أبحاث حديثة أن نماذج اللغة الكبيرة (LLMs) التي تطورها شركات مثل OpenAI وMeta وxAI وAlibaba لم تعد تقتصر على تقديم المعلومات أو المحادثة العامة، بل باتت قادرة على التأثير العميق في آراء المستخدمين السياسية خلال أقل من عشر دقائق. هذا الاكتشاف يثير مخاوف واسعة من إمكانية استغلال هذه القدرات في حملات تضليل ممنهجة أو توجيه الرأي العام. الدراسة التي أعدها “معهد أمن الذكاء الاصطناعي” في المملكة المتحدة، بالتعاون مع جامعات مرموقة كأكسفورد ومعهد ماساتشوستس للتكنولوجيا، سلطت الضوء على أن ما يجعل هذه النماذج مؤثرة هو قدرتها على إنتاج أدلة ومعلومات ذات صلة، وصياغتها بلغة سهلة ومقنعة، مع قابلية التخصيص وفق خصائص كل مستخدم.
تقنيات التخصيص وفعالية الإقناع
أحد أهم عوامل نجاح روبوتات المحادثة في التأثير هو قدرتها على تخصيص الرسائل بناءً على العمر أو الجنس أو الانتماء السياسي أو الموقف المسبق من القضايا المطروحة. الدراسة أثبتت أن هذه الأساليب جعلت الرسائل أكثر إقناعًا بنسبة 5% مقارنة بالرسائل العامة. وفي تجارب عملية، تمكنت نماذج مثل GPT-4o وGPT-4.5 من إقناع المشاركين بشكل يفوق الرسائل الثابتة بنسبة تراوحت بين 41% و52%، مع احتفاظ المشاركين بآرائهم المعدلة لمدة وصلت إلى شهر كامل بنسبة بين 36% و42%. هذه النتائج تكشف خطورة هذه النماذج إذا وقعت في أيدي جهات تسعى للتأثير السياسي أو نشر أيديولوجيات متطرفة.
البعد السياسي واحتمالات الاستغلال
القدرة الإقناعية لهذه النماذج تثير مخاوف من استخدامها في توجيه النقاشات العامة أو زعزعة الاستقرار السياسي. الباحثون حذروا من أن فاعلين محدودي الموارد يمكنهم، عبر تعديل النماذج بعد تدريبها، إنتاج أنظمة عالية التأثير قادرة على التلاعب بالرأي العام. هذه التحذيرات تأتي في وقت تتعالى فيه الأصوات داخل الولايات المتحدة لحظر ما يسمى بـ”الشركات المستيقظة” من التعامل مع الحكومة، وسط اتهامات للنماذج اللغوية بانحياز سياسي لليسار وفق دراسة من جامعة ستانفورد. هذا السياق يجعل من قضية الإقناع بالذكاء الاصطناعي ملفًا حساسًا في العلاقات بين التكنولوجيا والسياسة.
أبعاد أوسع تتجاوز السياسة
التأثير الإقناعي لا يقتصر على القضايا السياسية، بل يمتد إلى مجالات الصحة العامة، والبيئة، والتسويق التجاري. دراسات أخرى أظهرت قدرة النماذج على تقليل الشكوك بشأن تغير المناخ أو التطعيم ضد فيروس الورم الحليمي البشري، وحتى تقليص الإيمان بنظريات المؤامرة بنسبة 20% مع استمرار الأثر لشهرين. في التسويق، يشير الخبراء إلى أن روبوتات المحادثة يمكنها تحسين المواقف تجاه العلامات التجارية وزيادة النوايا الشرائية. ومع سعي الشركات الكبرى لدمج الإعلانات والشراء داخل هذه النماذج، تبرز احتمالات لاستغلال قدرات الإقناع في تحقيق أهداف تجارية مباشرة.
التحديات الأخلاقية وسبل المواجهة
شركات الذكاء الاصطناعي الكبرى تدرك خطورة هذه القدرات وتسعى إلى وضع ضوابط. جوجل DeepMind تطور أنظمة لكشف اللغة التلاعبية وتكافئ التواصل العقلاني، بينما تؤكد OpenAI رفضها لاستخدام النماذج في الحملات السياسية، وتعمل على استبعاد المحتوى السياسي من عمليات التحسين اللاحقة للتدريب. غير أن باحثين يرون أن الجيل القادم من النماذج سيكون أكثر إقناعًا، ما يجعل مسألة وضع آليات رقابية صارمة أمرًا عاجلًا. التحدي يكمن في الموازنة بين استغلال هذه القدرات في التعليم والتوعية الإيجابية، ومنع استخدامها كسلاح في التضليل والتلاعب بالرأي العام.