
رقمنة
قالت شركة OpenAI إنها تطلق مجموعة من التعليمات (prompts) التي يمكن للمطورين استخدامها لجعل تطبيقاتهم أكثر أماناً للمراهقين. وأوضحت الشركة أن هذه السياسات الخاصة بسلامة المراهقين يمكن استخدامها مع نموذج الأمان مفتوح الأوزان الخاص بها المعروف باسم gpt-oss-safeguard.
وقد صُممت هذه السياسات على شكل تعليمات (prompts)، ما يجعلها متوافقة بسهولة مع نماذج أخرى غير gpt-oss-safeguard، رغم أنها قد تكون أكثر فاعلية ضمن منظومة OpenAI نفسها.
ولصياغة هذه التعليمات، قالت OpenAI إنها تعاونت مع جهات رقابية في مجال أمان الذكاء الاصطناعي، مثل Common Sense Media ، وقال روبي تورني، رئيس قسم الذكاء الاصطناعي والتقييمات الرقمية في Common Sense Media، في بيان: “تساعد هذه السياسات المبنية على التعليمات في وضع حد أدنى ذي معنى للسلامة عبر المنظومة، وبما أنها متاحة كمصدر مفتوح، يمكن تكييفها وتحسينها مع مرور الوقت”.
وأشارت OpenAI في مدونتها إلى أن المطورين، بما في ذلك الفرق ذات الخبرة، غالباً ما يواجهون صعوبة في تحويل أهداف السلامة إلى قواعد تشغيلي
وكتبت الشركة: “قد يؤدي ذلك إلى وجود فجوات في الحماية، أو تطبيق غير متسق، أو تصفية مفرطة الاتساع. إن وجود سياسات واضحة ومحددة النطاق يمثل أساساً حاسماً لأنظمة سلامة فعّالة.”
وتقر OpenAI بأن هذه السياسات ليست حلاً للتحديات المعقدة المتعلقة بسلامة الذكاء الاصطناعي، لكنها تبني على جهود سابقة، بما في ذلك وسائل الحماية على مستوى المنتجات مثل أدوات الرقابة الأبوية والتنبؤ بالعمر. وفي العام الماضي، حدّثت OpenAI إرشادات نماذجها اللغوية الكبيرة — المعروفة باسم Model Spec — لمعالجة كيفية تفاعل نماذجها مع المستخدمين دون سن 18 عاماً.
ومع ذلك، لا تتمتع OpenAI بسجل خالٍ من الجدل، إذ تواجه الشركة عدة دعاوى قضائية رفعتها عائلات أشخاص توفوا نتيجة الانتحار بعد استخدام مكثف لـ ChatGPT. وغالباً ما تتشكل هذه العلاقات الخطرة عندما يتجاوز المستخدم ضوابط الأمان الخاصة بالروبوت، إذ لا توجد حماية غير قابلة للاختراق بالكامل في أي نموذج. ومع ذلك، تمثل هذه السياسات خطوة إلى الأمام، خاصة أنها قد تساعد المطورين المستقلين.




