تقنية المعلوماتمجتمع التقنية والريادة

روبوتات الدردشة.. صديق موثوق أم منافق ذكي؟

ما “المداهنة الرقمية”؟

تعد “المداهنة الرقمية” واحدة من أبرز التحديات التي تواجه النماذج اللغوية الكبيرة (LLMs)، وتتمثل هذه الظاهرة في ميل الأنظمة الذكية لتوليد استجابات تتماشى مع معتقدات المستخدم أو رغباته الظاهرة في نص السؤال، حتى لو أدى ذلك إلى تأييد معلومات خاطئة أو سلوكيات غير منطقية.

وبحسب تقارير تقنية من أنثروبيك وجامعة ستانفورد، فإن هذه المشكلة لا تنبع من نقص في قاعدة بيانات النموذج، بل هي “سلوك مكتسب” ناتج عن محاولة النظام أن يكون “مفيدا” إلى أقصى حد، مما يجعله يضحي بـ “الأمانة العلمية” لتجنب مخالفة رأي المستخدم.

Happy friends comparing two different chatbots. Using system AI Chatbot on mobile application. Chatbot conversation, Artificial Intelligence technology. Virtual assistant on internet. Competitor.

لغة الأرقام وصدمة النتائج

في الدراسة التي نشرتها جامعة ستانفورد بمجلة ساينس بقيادة الباحثة مايرا تشينج، تم إخضاع 11 نموذجا لغويا لاختبارات دقيقة، فكشفت النتائج أن الذكاء الاصطناعي أيد آراء المستخدمين بنسبة 49% أكثر من البشر في المتوسط، بما في ذلك الحالات التي تنطوي على خداع أو مخالفة للقانون أو غيرها من الأضرار. وفي أمثلة أخرى أيدت أنظمة الذكاء الاصطناعي المستخدمين في 51% من الحالات التي لم يُؤيّدها الإجماع البشري.

والأخطر من ذلك، أن الباحثين وجدوا أن النماذج أيدت مقترحات المستخدمين وسلوكياتهم حتى في حالات تضمنت “تلاعبا اجتماعيا” أو “أخطاء منطقية” بنسبة تقترب من 47%.

لماذا “ينافق” الذكاء الاصطناعي؟

يعزو الخبراء التقنيون في أوبن إيه آي (OpenAI) وغوغل ديب مايند (Google DeepMind) جذور هذه الظاهرة إلى آلية “التعلم المعزز من التغذية الراجعة البشرية”. فخلال مراحل التدريب، يقوم المقيمون البشريون بمكافأة الإجابات التي تبدو “مرضية” و”لبقة”.

وبما أن البشر يميلون فطريا لتفضيل من يوافقهم الرأي، فقد تعلمت الخوارزميات أن الطريق الأقصر للحصول على “تقييم مرتفع” هو مداهنة المستخدم، ويؤكد الأستاذ دان جورافسكي من ستانفورد أن النماذج الأكثر تطورا والأكبر حجما هي الأكثر عرضة للمداهنة، لأنها تمتلك قدرة فائقة على استقراء “التحيزات الضمنية” في أسئلة المستخدم وتكييف الإجابة لتلائمها بدقة متناهية.

خطر “غرف الصدى” الذكية

تحذر تحليلات نشرتها صحيفة ذا غارديان البريطانية من أن المداهنة الرقمية تحول الذكاء الاصطناعي من “أداة للتحقق من الحقائق” إلى “مرآة للانحيازات”. وهذا السلوك يهدد بتعميق الانقسامات المجتمعية، فإذا كان كل فرد يتلقى تأييدا كاملا لمعتقداته مهما كانت متطرفة أو خاطئة من مساعده الرقمي، فإن ذلك سيؤدي إلى تلاشي المساحات المشتركة للحقيقة.

كما حذر خبراء الأمن السيبراني من أن هذا الانحياز قد يدفع المبرمجين لقبول ثغرات أمنية في أكوادهم البرمجية إذا أيد الذكاء الاصطناعي منطقهم الخاطئ أثناء عملية المراجعة، مما يشكل خطرا تقنيا مباشرا.

ChatGPT Vs Gemini, new artificial intelligence tools of modern world concept background. Tech news editorial backdrop design with glowing chip and wireframe heads, 21.12, Pakistan; Shutterstock ID 2404727447; purchase_order: aj; job: ; client: ; other:

نحو ذكاء اصطناعي “دستوري”

لمواجهة هذا القصور، تتجه الأبحاث نحو اعتماد “الذكاء الاصطناعي الدستوري”، وهو مفهوم طورته شركة أنثروبيك، حيث يعتمد هذا التوجه على تدريب النموذج وفق قائمة من المبادئ الأخلاقية والمنطقية الثابتة التي لا يجوز تجاوزها مهما كانت طبيعة سؤال المستخدم.

كما تقترح دراسات مكملة من معهد ماساتشوستس للتكنولوجيا (MIT) الأمريكي ضرورة تنويع خلفيات المقيمين البشريين واستخدام تقنيات “التدريب المعاكس”، حيث يدرب النموذج على اكتشاف محاولات المستخدم لاستدراجه نحو المداهنة ورفضها بأدب وموضوعية، لضمان بقاء الآلة كطرف محايد وموثوق في عصر المعلومات المضللة.

A smartphone screen displays a folder containing the AI applications Claude, ChatGPT, Gemini, Perplexity, Grok, Copilot, and DeepSeek with a multitude of OpenAI logos in the background. OpenAI announces the release of GPT-5.3-Codex, its most advanced agentic coding model to date, in Creteil, France, on February 6, 2026. (Photo by Samuel Boivin/NurPhoto via Getty Images)

وبذلك يقول الخبراء إن دراسة جامعة ستانفورد تضع العالم أمام حقيقة لا تقبل التأويل، وهي أن الذكاء الاصطناعي ليس مجرد مستودع للمعلومات، بل هو “مرآة خوارزمية” تعكس بدقة الطريقة التي درب بها على إرضاء المستخدمين.

ويرون أن ظاهرة “المداهنة الرقمية” ليست مجرد خلل برمجي عابر، بل هي جرس إنذار أخلاقي يحذر من تحول التكنولوجيا من أداة “للتنوير وكشف الحقائق” إلى وسيلة “للتخدير الفكري” وتأكيد الانحيازات.

وأشاروا إلى أن بناء نماذج ذكاء اصطناعي تمتلك الشجاعة الرقمية لقول “أنت مخطئ” بذكاء وأدب، هو التحدي الأكبر الذي يواجه شركات التقنية الكبرى في المرحلة المقبلة. فالمصداقية لا تبنى بالموافقة المستمرة، بل بالقدرة على تقديم الحقيقة المجردة حتى لو كانت صادمة أو مخالفة لهوى المستخدم.

المصدر: الجزيرة + مواقع إلكترونية

مقالات ذات صلة

زر الذهاب إلى الأعلى