
رقمنة – خالد الاحمد
في بداية الشهر الجاري ، حصل شيء لافت: نقاش “أخلاقيات الذكاء الاصطناعي” ترك تويتر وخرج إلى الأرقام.
ليس كفكرة. كـ “توزيع” فعلي: تنزيلات، حذف، تقييمات، وترتيب في المتجر.
بحسب بيانات سوقية من جهات تتبع أداء التطبيقات، ارتفعت عمليات حذف ChatGPT في الولايات المتحدة بنسبة 295% خلال يوم واحد بعد إعلان شراكة OpenAI مع وزارة الدفاع الأميركية (DoD).
وبالتوازي، شهد تطبيق Claude من Anthropic نموًا حادًا في التنزيلات، ووصل إلى المركز الأول في متجر التطبيقات الأميركي في ذروة موجة التحول.
الفكرة ليست أن “جودة النموذج” تغيّرت فجأة.
المعادلة هنا مختلفة: الرمزية السياسية والقبول الاجتماعي صارت فجأة جزءًا من تسويق المنتج… حتى لو الشركة لم تقصد ذلك.
ماذا حدث بالضبط؟
1) شراكة OpenAI مع وزارة الدفاع
تقارير رسمية وإعلامية أشارت إلى شراكة/إدماج ChatGPT ضمن بيئات عمل حكومية وعسكرية مرتبطة بالوزارة، ضمن منصات مخصصة للاستخدام الآمن داخليًا.
2) رد فعل المستهلكين جاء سريعًا ومركزًا
- الحذف في أميركا قفز 295% يومًا بيوم مقارنة بالمعدل الطبيعي.
- تقارير إعلامية تحدثت عن ارتفاع كبير في موجة التقييمات السلبية (1 نجمة) ومناخ “مقاطعة” علني ووسوم من نوع “Cancel ChatGPT”.
- Claude استفاد من المزاج العام، ووصل إلى صدارة المتجر في الولايات المتحدة لفترة.
لماذا هذا مهم؟ لأن “الأخلاقيات” تحولت إلى رياضيات نمو
عادةً، نقاشات الأخلاقيات تبقى في نطاق المقالات والندوات.
لكن ما حصل هنا يوضح شيئًا عمليًا ومزعجًا لبعض الفرق:
صفقة حكومية واحدة يمكن أن تقلب:
- معدل التثبيت والحذف خلال أيام
- ترتيب التطبيق في المتجر
- المزاج العام حول العلامة
- وحتى سردية الشركة نفسها حول “الاستخدامات المسموحة”
وفي تغطيات حديثة، ظهر أن OpenAI وجدت نفسها في وضع دفاعي، مع جدل حول الصياغات والضمانات المتعلقة بالاستخدامات العسكرية والمراقبة، مقابل موقف Anthropic الذي اكتسب شعبية بين شريحة من المستخدمين.
التأثير الحقيقي على الشركات: نفس النموذج، وبيئة داخلية مختلفة تمامًا
إذا كنت مسؤولًا عن اعتماد مساعد ذكاء اصطناعي داخل شركة، فهذه القصة ترفع نوعًا جديدًا من المخاطر:
1) مخاطر “القبول الداخلي”
قد تختار أداة لأنها الأفضل تقنيًا.
ثم تكتشف أن فريقك يرى استخدامها “موقفًا سياسيًا” أو “تطبيعًا” مع جهة ما.
النتيجة؟
احتكاك. مقاومة صامتة. تراجع استخدام. أو جدل لا داعي له داخل المؤسسة.
2) مخاطر السمعة
حتى لو استخدامك داخلي ومغلق، قد يُسأل فريقك:
لماذا اخترتم هذه الأداة بالذات؟
هل راجعتم سياستها؟
هل الاستخدام يتماشى مع قيم الشركة؟
3) مخاطر التبعية Vendor Lock-in
عندما تتحول الأداة إلى رمز، يصبح تغييرها أصعب.
أنت لا تغيّر تطبيقًا. أنت تغيّر سردية.
ماذا يعني هذا للمنطقة العربية؟
في الشرق الأوسط، الحساسية تجاه السياسة أعلى، والجدل أسرع في التحول إلى “مواقف هوية”.
وهذا يجعل اعتماد أدوات AI داخل الشركات أكثر تعقيدًا، خصوصًا في قطاعات مثل:
- التعليم
- الإعلام
- القطاع غير الربحي
- الشركات التي تتعامل مع جمهور واسع
قد لا يتأثر كل المستخدمين.
لكن يكفي أن يتأثر الجزء الذي “يصنع الضجيج” كي تتحول القصة إلى أزمة اتصالات.
كيف تتعامل الفرق الذكية مع هذا النوع من الصدمات؟
إذا كنت تختار مساعد AI لشركتك، فهذه 7 خطوات عملية تقلل المخاطر:
- اعمل تقييم مخاطر سمعة قبل تقييم الأداء
ليس فقط: من الأفضل؟
بل: كيف سيفهمه الناس؟ - افصل “المزود” عن “النموذج” قدر الإمكان
اعتماد بنية تسمح بالتبديل بين مزودين (أو نماذج) يقلل التبعية. - ضع سياسة استخدام واضحة ومعلنة داخليًا
ما الذي نستخدمه؟ ولماذا؟ وما الذي لا نستخدمه إطلاقًا؟ - جهّز رسالة داخلية قصيرة
لو ظهرت أزمة، تريد نصًا جاهزًا يشرح منطق القرار وحدوده. - ابدأ بطيار صغير قبل الإطلاق الشامل
راقب ردود فعل الموظفين، ليس فقط مؤشرات الأداء. - راقب المتغيرات الخارجية
ترتيب المتاجر، موجات المقاطعة، الأخبار. لأنها أصبحت تؤثر على اعتمادك الداخلي. - خط رجعة واضح
متى نوقف؟ ومتى نبدّل؟ وما هي المؤشرات؟
الخلاصة
هذه ليست قصة “ChatGPT ضد Claude”.
هي قصة أن الذكاء الاصطناعي صار جزءًا من السياسة العامة حتى لو لم تطلب ذلك.
وأحيانًا… الجودة لا تتغير، لكن الشرعية الاجتماعية تتغير.
وهذا وحده يكفي ليقلب منتجًا في المتجر خلال يومين.




