علوم وتكنولوجيا

هل تعيد الذكاء الاصطناعي إلى الواجهة؟ خداع العوام باسم الطب يكتسب قوة جديدة

الذكاء الاصطناعي يهدد الصحة بخداع منظم ومعلومات زائفة

في عصر الطفرة التكنولوجية، أعادت أدوات الذكاء الاصطناعي – وعلى رأسها منصات المحادثة الذكية – إلى الواجهة شكلًا جديدًا من الخداع الطبي لطالما عرفته البشرية عبر قرون. من “السحرية البصرية” في الساحات الأوروبية إلى “الهلاوس النصية” في تقارير سياسات الصحة العامة، بات الذكاء الاصطناعي يلعب دورًا متزايد الخطورة في رسم ملامح “طب زائف جديد”، لا يتكئ على الخبرة أو التجربة، بل على خوارزميات قادرة على إنتاج معلومات مضللة بثقة بالغة.

في مقالة ناقدة نشرتها الكاتبة والباحثة إيدنا بونهوم في صحيفة الغارديان، تسرد تجربتها الشخصية كأم جديدة لجأت إلى “شات جي بي تي” للسؤال عن صحة رضيعها، فوجدت نفسها في حوار مع أداة تطلب منها تفاصيل إضافية عن عمر الطفل “لتحسين الاستجابة”، وهو ما أثار حفيظتها وقلقها من الطبيعة الغامضة والمتعطشة للمعلومات التي يتسم بها الذكاء الاصطناعي.

لكن ما بدأ بتجربة شخصية تحول في المقال إلى نقد سياسي خطير لسياسات الصحة الأميركية في ظل إدارة الرئيس دونالد ترامب، وتحديدًا اللجنة التي يترأسها روبرت إف كينيدي الابن، والتي استعانت – على ما يبدو – بالذكاء الاصطناعي في إعداد تقرير صحي وطني، تضمن دراسات “غير موجودة أصلًا”، ليعيد إلى الأذهان أسوأ مراحل التزييف في تاريخ الطب.

 

من المهد إلى المجهول.. الأمومة في زمن الذكاء الاصطناعي

تبدأ الكاتبة مقالها بتجربة شخصية تمس مشاعر كثير من الأمهات الجدد: طفل صغير، أمراض الحضانة المتوقعة، وشعور غريزي بالقلق يقودها إلى استشارة أدوات الذكاء الاصطناعي بحثًا عن نصيحة. كان الرد الذي حصلت عليه “معقولًا” ظاهريًا: لا للسكر، راقبي الحمى، تحدثي كثيرًا مع الطفل… لكن الخطر تجلى في ما طلبه الذكاء الاصطناعي لاحقًا: “أخبريني بعمر الطفل وسأخصص النصيحة أكثر”. هنا رأت الكاتبة بوادر تلاعب ناعم، ربما لا يحمل نوايا سيئة، لكنه يؤسس لثقة غير مبررة في أدوات لا تفهم السياق الإنساني كما يفعل الطبيب.

 

من قاعات البرلمان إلى قاعات المحكمة.. كيف تورّطت الحكومة في معلومات كاذبة؟

في مثال أكثر فداحة من تساؤلات الأمهات، تشير الكاتبة إلى تقرير صادر عن وزارة الصحة والخدمات الإنسانية الأميركية، تحت إشراف روبرت إف كينيدي، يتناول أمراض الطفولة، ويزعم أنه يرتكز على “أدلة علمية”. لكن تحقيقات لاحقة كشفت أن التقرير ربما أُعدّ بمساعدة أدوات ذكاء اصطناعي مثل ChatGPT، وأنه استند إلى دراسات لا وجود لها. إحدى الباحثات، كاثرين كيز، وجدت اسمها مذكورًا في دراسة منسوبة إليها لم تكتبها أصلًا، ما يشير إلى “هلوسة اصطناعية” تنتجها الخوارزميات عندما لا تجد مصادر كافية، فتقوم باختلاقها بثقة.

 

الذكاء الاصطناعي.. ساحر جديد بوجه علمي

تشبّه الكاتبة هذا النوع من التضليل بالمشعوذين الذين كانوا يجوبون أوروبا في القرن السابع عشر، يبيعون “أدوية سحرية” في الأسواق لعلاج الأمراض المستعصية، رغم افتقارهم لأي خلفية طبية. حينها، كان العرض المسرحي والكلام المبالغ فيه كافيين لإقناع البسطاء، واليوم باتت الخوارزميات والتصميمات الأنيقة هي الغطاء الجديد للتضليل. فالذكاء الاصطناعي لا يهتم بالحقيقة، بل بـ”توليد محتوى مقنع”، حتى ولو كان زائفًا.

 

ما الذي يجعل الأمر أكثر خطورة اليوم؟

ما كان في الماضي مجرد خداع محدود في الزمان والمكان، صار اليوم مضاعف التأثير بفضل الإنترنت وخوارزميات الانتشار الفيروسي. فالمعلومات الزائفة التي تولدها أدوات الذكاء الاصطناعي لا تبقى في حدود مستخدم فردي، بل قد تدخل تقارير حكومية، أو تظهر في نتائج البحث الأولى على غوغل، أو تنتشر في منصات التواصل دون رقابة. الأخطر أن المظهر الاحترافي للغة التي تستخدمها هذه الأدوات يعطي انطباعًا زائفًا بالدقة والمصداقية، ما يزيد من صعوبة التفريق بين العلم والدجل.

 

أزمة الثقة في المؤسسات العلمية

تعمّق الأزمة أن شخصيات مؤثرة مثل كينيدي نفسه بدأت تهاجم المجلات العلمية المرموقة مثل The Lancet وNEJM وتتهمها بالفساد، بينما تروج لمعلومات غير موثوقة تم جمعها عبر أدوات اصطناعية. هذه الازدواجية تقوّض ثقة العامة في المؤسسات العلمية، وتفتح المجال أمام “علم بديل” غير خاضع للمراجعة، يقوم على الآراء لا الأدلة، ويُسوّق له بواجهات رقمية براقة.

 

هل يمكن الوثوق بتوصيات صحية صادرة عن ذكاء اصطناعي؟

رغم أن كثيرين يلجأون إلى الذكاء الاصطناعي لأغراض صحية (سريعة، مجانية، متاحة على مدار الساعة)، إلا أن الكاتبة تحذر من الاعتماد الكامل عليه، خاصة إذا تم دمجه في سياسات حكومية. فبخلاف الطبيب أو الباحث، لا يملك الذكاء الاصطناعي حسًا نقديًا، ولا قدرة على التحقق من المصادر، بل يقوم فقط بإعادة صياغة ما يعتقد أنه “ملائم” وفقًا للنصوص التي تدرّب عليها، ما قد يؤدي إلى تعميم معلومات خاطئة أو حتى خطيرة.

 

تشريعات مغيبة.. وأسئلة حائرة

الكاتبة تستشهد بالصحفية التقنية كارين هاو، التي تساءلت في مجلة The Atlantic: “كيف نحكم الذكاء الاصطناعي؟”. هذا ليس مجرد سؤال فلسفي، بل ضرورة سياسية وتشريعية، لأن هذه الأدوات باتت تؤثر فعليًا في قطاعات حساسة مثل الطب، والتعليم، والتوظيف، والتسليح. وتطالب الكاتبة بضرورة سن تشريعات واضحة لمحاسبة شركات التكنولوجيا على الاستخدام المضلل لأدواتها، لا سيما عندما تدخل في ملفات الصحة العامة.

اقرأ أيضاً حين يُصبح التفكير السحري سياسة مناخية: هروب المحافظين من مواجهة أزمة المناخ

نحو مسؤولية جماعية… قبل فوات الأوان

تختم الكاتبة بتأكيد أن الحل لا يكمن في عزوف الأفراد عن استخدام الذكاء الاصطناعي، بل في وجود منظومة قانونية وتنظيمية تحاسب الشركات على النتائج، وتفرض الشفافية في ما يتعلق بمصادر المعلومات. فبدون ذلك، سيتحوّل الذكاء الاصطناعي إلى منصة مثالية لتكرار أخطر ما في التاريخ الطبي: الدجل، ولكن هذه المرة بتقنيات عالية، وانتشار عالمي، وقناع من الثقة الزائفة.

رحمة حسين

رحمة حسين صحفية ومترجمة لغة فرنسية، تخرجت في كلية الآداب قسم اللغة الفرنسية وآدابها بجامعة عين شمس. تعمل في مجال الصحافة الثقافية والاجتماعية، إلى جانب عملها في الترجمة من الفرنسية إلى العربية. تهتم بقضايا حقوق الإنسان وحقوق المرأة، ولها كتابات مؤثرة في هذا المجال.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى