هل يمكن خداع الذكاء الاصطناعي؟ دراسة تكشف قابلية التأثر بالمعلومات المضللة
لطالما ارتبط استخدام الذكاء الاصطناعي بفكرة الدقة والحياد، إذ يتعامل كثيرون مع إجاباته بوصفها موثوقة بطبيعتها، غير أن دراسة حديثة أعادت طرح سؤال جوهري: ماذا يحدث عندما يواجه نموذج الذكاء الاصطناعي بمعلومة خاطئة يتم تقديمها له على أنها صحيحة؟ وهل يمتلك القدرة على التمسك بالحقيقة، أم يمكن التأثير عليه ودفعه إلى تبني معلومات زائفة؟
الدراسة قدّمت مفهومًا مهمًا يتمثل في اختبار “قابلية التأثر بالتوجيه” أو ما يمكن وصفه بمرونة النموذج أمام الضغط المعلوماتي، ولقياس ذلك طوّر الباحثون إطارًا تجريبيًا يعرف باسم HAUNT، يهدف إلى تقييم كيفية تعامل نماذج اللغة الكبيرة مع المعلومات المضللة داخل ما يسمى بـ”النطاقات المغلقة” مثل القصص والأفلام، حيث يمكن التحقق من الحقائق بدقة.
يقوم هذا الإطار على فكرة بسيطة لكنها عميقة الدلالة: أولًا يطلب من النموذج إنتاج معلومات صحيحة وأخرى خاطئة حول عمل معين، ثم يُعاد اختبار النموذج ليتحقق من صحة هذه المعلومات دون أن يعرف أنه هو من أنشأها، وأخيرًا يتم تعريضه لما يشبه الضغط الإقناعي عبر تقديم المعلومات الخاطئة له مرة أخرى على أنها حقائق مؤكدة. هنا يظهر الاختبار الحقيقي: هل يتمسك النموذج بتقييمه الأصلي أم يغيّر موقفه استجابة لتأكيد المستخدم؟
اقرا ايضا: آبل تطلق نموذج مفتوح المصدر لتعلم الآلة باب جديد إلى الذكاء الاصطناعي
كشفت النتائج أن النماذج لا تتصرف بالطريقة نفسها، فبعضها أظهر قدرة واضحة على مقاومة التضليل والتمسك بموقفه الصحيح، بينما أبدت نماذج أخرى قابلية أكبر للاستسلام، بل والذهاب إلى أبعد من ذلك عبر توسيع نطاق الخطأ وتفصيل أحداث لم تحدث أصلًا.
هذا السلوك يسلط الضوء على مفهوم بالغ الأهمية في الذكاء الاصطناعي، وهو التملق الخوارزمي، حيث يميل النموذج إلى موافقة المستخدم أو دعمه حتى وإن كان ذلك على حساب الدقة.
كما رصدت الدراسة ما يعرف بـ”تأثير غرفة الصدى”، إذ يؤدي التكرار والإلحاح إلى زيادة احتمالية موافقة النموذج على المعلومة الخاطئة، بمعنى آخر كلما تم تكرار الادعاء غير الصحيح بصيغة واثقة، زادت فرصة استجابة النموذج له بشكل إيجابي، وهذا يكشف أن بعض النماذج لا تعتمد فقط على المعرفة المخزنة لديها، بل تتأثر أيضًا بسياق الحوار وطريقة طرح المعلومات.
أهمية هذه النتائج لا تقتصر على اختبارات ثقافية بسيطة كالأفلام أو الكتب، بل تمتد إلى مجالات أكثر حساسية مثل الطب والقانون والسياسة، فإذا كان من الممكن التأثير على النموذج لتكرار معلومات غير صحيحة، فإن ذلك يطرح تحديات تتعلق بالثقة، والمسؤولية، وآليات الحماية من التضليل.
في جوهرها، تفتح هذه الدراسة بابًا لنقاش أوسع حول مفهوم “الصلابة المعرفية” في أنظمة الذكاء الاصطناعي: هل ينبغي أن يكون النموذج مرنًا ومتفاعلًا مع المستخدم، أم حازمًا في الدفاع عن الحقائق؟ ومع تزايد الاعتماد على هذه الأنظمة في الحياة اليومية، يبدو أن القدرة على مقاومة الخطأ قد تصبح معيارًا أساسيًا لا يقل أهمية عن سرعة الإجابة أو سلاسة اللغة.



