رقمنة
الغد- ترجمة: علاء الدين أبو زينة
غوراف ميتال* – (معهد الإعلام المستقل) 25/4/2025
يقوم الذكاء الاصطناعي بتحويل الصناعات من خلال أتمتة العمليات، وتحسين الكفاءة، واكتشاف الأنماط التي قد يفوتها البشر. ومع ذلك، تزداد مع استمرار تطور الذكاء الاصطناعي التحديات التي يطرحها استخدامه. وبشكل خاص، تثير قضايا مثل جودة البيانات، والتحيز، والشفافية، ومخاوف الخصوصية أسئلة أخلاقية مهمة. ويتطلب ضمان عمل الذكاء الاصطناعي بشكل عادل وفعال تحسينًا مستمرًا وملاحظة دقيقة، خاصة في قطاعات مثل التأمين، حيث الدقة والثقة أمران بالغا الأهمية.
تشمل القضايا الرئيسية المثيرة للقلق بشأن الذكاء الاصطناعي ما يلي:
انخفاض جودة البيانات: تعتمد فعالية الذكاء الاصطناعي إلى حد كبير على جودة البيانات التي يستخدمها. فإذا كانت البيانات غير دقيقة أو غير مكتملة، فسوف يتأثر أداء الذكاء الاصطناعي.
وتحتل جودة البيانات هذه الأهمية البالغة في الذكاء الاصطناعي لأنها تؤثر بشكل مباشر على أداء نماذج الذكاء الاصطناعي ودقتها وموثوقيتها. وبذلك تكون جودة البيانات الرديئة هي العقبة الأساسية أمام نشر وتنفيذ مشاريع وعمليات الذكاء الاصطناعي والتعلم الآلي. “قمامة تدخل، قمامة تخرج” (GIGO)، وهو مفهوم مألوف لمستخدمي الحاسوب لأجيال، ينطبق تمامًا على الذكاء الاصطناعي. فإذا كان نموذج الذكاء الاصطناعي رديئًا أو غير دقيق أو غير ذي صلة، فستكون مخرجات النظام أيضًا ذات جودة رديئة، أو غير دقيقة أو غير ذات صلة.
يمكن أن تؤدي حتى خوارزميات الذكاء الاصطناعي الأكثر تطورًا إلى إنتاج مخرجات معيبة، بما يؤدي إلى ضعف الأداء والفشل. ينبغي أن يهدف نموذج الذكاء الاصطناعي عالي الجودة إلى الدقة والاتساق (بمعنى أن تتسم البيانات بأنها تتبع تنسيقًا وهيكلاً قياسيًا لتسهيل المعالجة والتحليل)، والاكتمال (لتجنب فقدان الأنماط والارتباطات الأساسية)، والتوقيت، والأهمية.
لضمان كفاءة نموذج الذكاء الاصطناعي، يحتاج المطورون إلى جمع البيانات ذات الصلة، والتي تعتمد على اختيار المصادر التي يتم استخلاص البيانات منها. ويصبح هذا التحدي أكثر صعوبة بسبب الحاجة إلى الحفاظ على الجودة والمعايير للتخلص من البيانات المكررة أو المتضاربة. وبعد ذلك، يجب تسمية البيانات بشكل صحيح، وهي عملية يمكن أن تستغرق وقتًا طويلاً وتظل عرضة للأخطاء. وفي الوقت نفسه، يجب تخزين البيانات بطريقة تمنع الوصول غير المصرح به وتحميها من التلف. ويشكل تسمم البيانات خطرًا آخر: وهو مفهوم يشير إلى هجوم متعمد يُشن على أنظمة الذكاء الاصطناعي، حيث يقوم المهاجمون بحقن بيانات ضارة أو مضللة في مجموعة البيانات، مما يؤدي إلى إنتاج مخرجات غير موثوقة -بل وحتى خطيرة في بعض الأحيان.
التحيز في نماذج الذكاء الاصطناعي
في بعض الأحيان، يمكن أن يكون الذكاء الاصطناعي متحيزًا، بمعنى أنه قد يعامِل بشكل غير عادل مجموعات معينة من الأشخاص بشكل مختلف. على سبيل المثال، إذا تم تدريب نظام الذكاء الاصطناعي على بيانات متحيزة، فقد يتخذ قرارات تميز ضد أفراد معينين بناء على عوامل، مثل العرق أو الجنس أو خصائص أخرى.
هناك نوعان أساسيان من التحيز: صريح وضمني. يشير التحيز الصريح إلى تحيز أو اعتقاد واعٍ ومتعمد تجاه مجموعة معينة من الناس. وفي المقابل يعمل التحيز الضمني من دون وعي، ويمكن أن يؤثر على القرارات من دون أن يدرك الشخص ذلك. وتسهم عوامل التكييف الاجتماعي، ووسائل الإعلام، والتعرض الثقافي في هذه القرارات.
يمكن أن يتسلل التحيز الخوارزمي بسبب أخطاء في البرمجة، مثل ترجيح المطوِّر بشكل غير عادل للعوامل في صنع القرار في الخوارزمية بناء على تحيزاته الواعية أو اللاواعية. على سبيل المثال، قد تستخدم الخوارزمية مؤشرات مثل الدخل أو المفردات للتمييز ضد الأشخاص من عرق أو جنس معين عن غير قصد. ويمكن للأشخاص أيضًا معالجة المعلومات وإصدار الأحكام بناء على البيانات التي اختاروها في البداية (التحيز المعرفي)، مع تفضيل مجموعات البيانات المستندة إلى الأميركيين بدلاً من أخذ عينات من بقية السكان في جميع أنحاء العالم.
ليس التحيز في الذكاء الاصطناعي مجرد قضية فنية، وإنما تحد مجتمعي، حيث يتم دمج أنظمة الذكاء الاصطناعي بشكل متزايد في عمليات صنع القرار في مجالات، مثل الرعاية الصحية، والتوظيف، وإنفاذ القانون، والإعلام وغيرها من المجالات الحرجة. ويمكن أن يحدث التحيز في مراحل مختلفة من مسار عمل الذكاء الاصطناعي، خاصة في جمع البيانات. وقد تكون المخرجات متحيزة إذا كانت البيانات المستخدمة لتدريب خوارزمية الذكاء الاصطناعي غير متنوعة أو غير ممثلة للبيانات الفعلية. على سبيل المثال، قد يؤدي التدريب الذي يفضل المتقدمين لوظيفة من الذكور والبيض إلى توصيات متحيزة للذكاء الاصطناعي في التوظيف.
ويمكن أن يؤدي وضع العلامات على بيانات التدريب أيضًا إلى التحيز لأنه يمكن أن يؤثر على التفسير المعطى للمخرجات. وقد يكون النموذج نفسه غير متوازن أو يفشل في مراعاة المدخلات المتنوعة، بحيث يفضل آراء الأغلبية على آراء الأقليات. ولجعل الذكاء الاصطناعي أكثر دقة وعدلاً، يحتاج الباحثون إلى إعادة تدريبه بانتظام. ويجب على الشركات، وخاصة شركات التأمين، التأكد من أنها تستخدم بيانات دقيقة وكاملة ومحدَّثة، مع ضمان أن تكون نماذجها عادلة للجميع.
الشفافية
تشكل الشفافية قضية رئيسية، حيث قد يكون من الصعب شرح كيفية اتخاذ الذكاء الاصطناعي قراراته. ويمكن أن يكون هذا الافتقار إلى الوضوح مشكلة لكل من العملاء والمنظمين الذين يرغبون في فهم كيفية عمل هذه الأنظمة. ولذلك تظل الشفافية في الذكاء الاصطناعي أمرًا ضروريًا لأنها توفر تفسيرًا واضحًا لسبب اتخاذ الذكاء الاصطناعي الاصطناعي قراراته وفهم أفعاله، بطريقة تسمح لنا بضمان أن تكون عادلة وموثوقة.
يمكن أن يساعد استخدام الذكاء الاصطناعي في مكان العمل في عملية التوظيف، ولكن لا يمكن تحقيق فهم الكيفية التي يقوم بها الذكاء الاصطناعي بذلك من دون تحيز إلا إذا كان شفافًا. ونظرًا إلى اكتساب الذكاء الاصطناعي أهمية متزايدة في قطاعات المجتمع، والأعمال، والرعاية الصحية ووسائل الإعلام والثقافة، تحتاج الحكومات والهيئات التنظيمية إلى وضع قواعد ومعايير وقوانين تضمن الشفافية في استخدام الذكاء الاصطناعي.
ترتبط الشفافية ارتباطًا وثيقًا بما يسمى “الذكاء الاصطناعي القابل للتفسير” (XAI)، الذي يسمح للغرباء عن المجال فهم سبب اتخاذ الذكاء الاصطناعي قراراته. سوف تبني مثل هذه القابلية للتفسير ثقة العملاء. ويشار إلى هذا الترتيب باسم “نظام الصندوق الزجاجي”، كنقيض لـ”نظام الصندوق الأسود”، حيث تكون النتائج أو المخرجات من الذكاء الاصطناعي شفافة، وأسباب القرارات التي تم اتخاذها بشأنها معروفة، أحيانًا حتى لمطور النظام.
أخطاء في تنبؤات الذكاء الاصطناعي
يمكن أن تنتج عن الذكاء الاصطناعي أحيانًا نتائج غير صحيحة، تعرف باسم “الإيجابيات الخاطئة” أو “السلبيات الزائفة”. ويحدث هذا لأن البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي غالبًا ما تكون غير كاملة، مما يترك مجالاً للأخطاء. إن من الطبيعة البشرية المبالغة في تقدير تأثير التكنولوجيا على المدى القصير والتقليل من تأثيرها على المدى الطويل. وينطبق هذا الاتجاه بالتأكيد على تنبؤات الذكاء الاصطناعي. والسؤال، بطبيعة الحال، هو: كم من الوقت على المدى الطويل.
يواجهنا ظهور “الذكاء الاصطناعي التوليدي” بأسئلة رئيسية حول فشل الذكاء الاصطناعي وكيف نفهمه. وكما يقر معظم الخبراء (والعديد من المستخدمين)، فإن مخرجات الذكاء الاصطناعي، بقدر ما يمكن أن تكون مذهلة وقوية بشكل لا يصدق، قد تكون أيضًا خاطئة وغير دقيقة -وفي بعض الأحيان غير منطقية على الإطلاق. وثمة مصطلح اكتسب شعبية لوصف هذه القابلية للخطأ -“هلوسة الذكاء الاصطناعي”.
جادلت الباحثة والمؤلفة صاحبة الكتب الأكثر مبيعًا، نعومي كلاين، في مقال لصحيفة “الغارديان” نُشر في أيار (مايو) 2023 بأن مصطلح “الهلوسة” لم يجسد سوى مشكلة فنية وأنه “من خلال الاستيلاء على كلمة شائعة الاستخدام في علم النفس والمخدرات وأشكال مختلفة من التصوف، فإن صناعة التكنولوجيا تغذي الأسطورة القائلة بأننا نكون، من خلال بناء هذه النماذج اللغوية الكبيرة، بصدد توليد ذكاء حيوي”.
ومع ذلك، تناول جميع مطوري الذكاء الاصطناعي الرئيسيين، بما في ذلك “غوغل”، و”ميكروسوفت”، و”أوبن آي. إيه”، هذه المشكلة على الملأ، سواء كانت تسمى هلوسة أم لا. على سبيل المثال، ذكرت وثيقة داخلية من “ميكروسوفت” أن “هذه الأنظمة مصممة لتكون مقنعة وليس صادقة”، مما يسمح بأن “المخرجات يمكن أن تبدو واقعية للغاية، ولكنها تتضمن عبارات غير صحيحة”. واعترفت شركة “ألفابيت”؛ الشركة الأم لشركة “غوغل”، بأنها مشكلة “لا يبدو أن أحدًا في هذا المجال قد حلها”. وهذا يعني أنه لا يمكن الاعتماد على مخرجات الذكاء الاصطناعي بالكامل في تنبؤاتها، وهي تحتاج إلى التحقق منها من مصادر موثوقة.
مخاوف الخصوصية
في كثير من الحالات، لا يمكن استخدام البيانات الحقيقية لتدريب الذكاء الاصطناعي بسبب مشكلات الخصوصية. بدلاً من ذلك، يتم إنشاء بيانات مزيفة بناء على بيانات حقيقية، مما قد يفضي إلى عدم الدقة وانخفاض سوية الأداء في نظام الذكاء الاصطناعي.
تشير خصوصية الذكاء الاصطناعي إلى حماية المعلومات الشخصية أو الحساسة التي يتم جمعها أو استخدامها أو مشاركتها أو تخزينها بواسطة أنظمة الذكاء الاصطناعي. أحد الأسباب التي تجعل الذكاء الاصطناعي يشكل خطرًا أكبر على خصوصية البيانات مقارنة بالتقنيات الرقمية الأخرى هو الحجم الهائل للمعلومات التي يحتاج الذكاء الاصطناعي إلى التدريب عليها: تيرابايت أو بيتابايت من النصوص أو الصور أو مقاطع الفيديو، والتي غالبًا ما تتضمن بيانات حساسة مثل معلومات الرعاية الصحية والبيانات الشخصية من مواقع التواصل الاجتماعي، وبيانات التمويل الشخصي، والبيانات البيومترية المستخدمة للتعرف على الوجه.
بينما يتم جمع البيانات الأكثر حساسية وتخزينها ونقلها، تزداد مخاطر التعرض لنماذج الذكاء الاصطناعي. وكما أوضح جيف كروم، مهندس “آي. بي. إم” المتميز، في مقطع فيديو عن تقنية شركته، فإن “هذه [البيانات] تنتهي بنقطة هدف كبيرة سيحاول شخص ما ضربها”. يمكن أن يحدث تسريب البيانات من نموذج الذكاء الاصطناعي من خلال التعرض العرَضي للبيانات الحساسة، مثل وجود ثغرة أمنية فنية أو خطأ أمني إجرائي. ومن ناحية أخرى، فإن استخراج البيانات هو سرقة للبيانات. ويمكن للمهاجم أو المتسلل أو مجرم الإنترنت أو خصم أجنبي أو أي جهة ضارة أخرى اختيار تشفير البيانات كجزء من هجوم برامج الفدية، أو استخدامها لاختطاف حسابات البريد الإلكتروني للمديرين التنفيذيين للشركات.
ولا يعد الأمر تسريب بيانات إلا عندما يتم نسخ البيانات أو نقلها إلى جهاز تخزين آخر تحت سيطرة المهاجم. وقد يأتي الهجوم في بعض الأحيان من تهديد داخلي -مثل موظف، أو شريك تجاري، أو مستخدم مخوّل آخر- يقوم عن عمد أو عن غير قصد بكشف البيانات نتيجة لخطأ بشري، أو سوء تقدير، أو جهل بإجراءات الأمان، أو بدافع الاستياء أو الطمع.
مستقبل الذكاء الاصطناعي في الكشف عن الاحتيال
مع تحسن تقنية الذكاء الاصطناعي، من المتوقع أن يصبح أكثر فاعلية في اكتشاف الاحتيال المعقَّد ومنعه. على سبيل المثال، دعونا نفكر في الاحتيال في التأمين على الهاتف. يحدث الاحتيال في التأمين على الهاتف، المعروف أيضًا باسم “الاحتيال على التأمين على الأجهزة” (لأنه يمكن أن يشير إلى الاحتيال الذي يشمل أجهزة الحاسوب المحمولة والأجهزة اللوحية، وكذلك الهواتف الذكية)، عندما يقدِّم شخص ما عمدًا مطالبة كاذبة إلى شركة التأمين الخاصة بجهازه، أو يؤكد زورًا أن جهازه قد فُقد أو سرق أو تلف، أو يبالغ في وصف مدى الضرر.
أظهر أحد الاستطلاعات أن 40 في المائة من جميع مطالبات التأمين احتيالية. وبالنسبة للشركات، يمكن أن يؤدي الاحتيال إلى خسائر كبيرة وإلى زيادة تكلفة الأقساط للمستهلكين. وقد زادت معدلات حوادث الاحتيال بشكل كبير. ووجدت دراسة استقصائية أجرتها “مؤسسة جافلين للأبحاث الاستراتيجية” أن المطالبات الاحتيالية بشأن الهواتف المحمولة زادت بنسبة 63 في المائة بين العامين 2018 و2019.
أصبحت سرقة الهواتف أكثر تطورًا وتنظيمًا، مما أدى إلى استخدام هجمات التصيد الاحتيالي والهندسة الاجتماعية للوصول إلى الأجهزة المسروقة وارتكاب عمليات الاحتيال وتقديم مطالبات كاذبة. في بعض الحالات، يقوم مالكو الهواتف بشراء وثائق تأمين عدة على الهاتف نفسه، ثم يدّعون تعرضه للسرقة أو الفقدان أو التلف من أجل الحصول على تعويضات مالية من شركات تأمين عدة.
وهناك نوع آخر من الاحتيال يجب الانتباه إليه. فبحسب جوناثان نيلسون، مدير إدارة المنتجات في شركة “هيا” (Hiya) المتخصصة في التأمين والخدمات المالية، ينبغي لشركات التأمين أن تكون يقظة إزاء الكيفية التي قد يُضلَّل بها عملاؤها أو يُستهدَفون من دون علمهم. يقول نيلسون: “أكثر الأمور شيوعًا التي قد تواجهها عندما تكون ضحية للاحتيال المتعلق بالسيارات أو التأمين أو الائتمانات، هو ما نسميه توليد العملاء المحتملين بطرق غير قانونية. والهدف الأساسي هو خداع المستلم لحمله على التسجيل لدى شركة تأمين طرف ثالث، قد تكون أو لا تكون على علم بأن عملاءها الجدد تم استقطابهم عبر هذه القناة الاحتيالية المشبوهة”.
الذكاء الاصطناعي يأتي للنجدة
من التطورات الواعدة استخدام نماذج التعلُّم العميق، التي تستطيع مقارنة المطالبات التأمينية الجديدة بملايين المطالبات السابقة بسرعة كبيرة. وتبحث هذه النماذج عن أنماط غير معتادة قد تشير إلى وجود احتيال، مثل أوصاف الأضرار الغريبة، أو تعدد المطالبات من الشخص نفسه، أو التناقضات في بيانات الموقع الجغرافي.
ولا تتبع هذه النماذج المتقدمة قواعد ثابتة فحسب، بل تتعلم وتتحسن مع كل معلومة جديدة تحللها. فعلى سبيل المثال، يمكنها فحص صور الهواتف التالفة، ومقارنتها بقواعد بيانات ضخمة، واكتشاف علامات التلاعب بالصور، وتقييم احتمالية وجود عملية احتيال.
وسيعزز “إنترنت الأشياء” جهود مكافحة الاحتيال عبر ربط البيانات القادمة من أجهزة متعددة، مثل الهواتف الذكية والأجهزة القابلة للارتداء. وسوف يسمح هذا لشركات التأمين بجمع معلومات فورية عن كيفية استخدام الأجهزة، ومواقعها، وأي أنشطة غير معتادة. وبالإضافة إلى ذلك، يتم تطوير منصات جديدة لمساعدة شركات التأمين على تبادل البيانات مجهولة الهوية حول الاحتيال، مما يسهل التعرف على الجناة المتكررين ومواكبة تطور أساليب الاحتيال.
مع استمرار تطور الذكاء الاصطناعي، سيكون تحقيق التوازن بين الابتكار والاعتبارات الأخلاقية أمرًا حاسمًا. بينما يمتلك الذكاء الاصطناعي القدرة على إحداث ثورة في كشف الاحتيال وفي العديد من الصناعات الأخرى، من الضروري معالجة الانحيازات، وتحسين جودة البيانات، وضمان الشفافية. ومن خلال الرقابة السليمة والتنفيذ المسؤول، يمكن للذكاء الاصطناعي أن يكون أداة قوية تعود بالنفع على الشركات والمستهلكين معًا.
*غوراف ميتال Gaurav Mittal: خبير في الأمن السيبراني وعلوم البيانات وتكنولوجيا المعلومات.
*نشر هذا المقال تحت عنوان How Can We Balance AI’s Potential and Ethical Challenges? في موقع Independent Media Institute.
التعليقات مغلقة.