OpenAI تلتزم بنشر نتائج أمان نماذج الذكاء الاصطناعي بانتظام

في خطوة مهمة تعكس التزامها بالشفافية، أعلنت شركة OpenAI عن خطتها لنشر نتائج تقييمات الأمان الخاصة بنماذج الذكاء الاصطناعي التي تعمل على تطويرها بشكل دوري، يهدف هذا الإعلان إلى تعزيز الثقة بين الشركة والمستخدمين والمجتمع العلمي.

مبادرة جديدة لتعزيز الشفافية

كجزء من هذه المبادرة، أطلقت OpenAI منصة جديدة تحمل اسم "Safety Evaluations Hub"، تعتبر هذه المنصة مكاناً مخصصاً لعرض معلومات حول أداء النماذج في اختبارات تتعلق بالمحتوى الضار، والالتفاف على القيود، والظواهر المرتبطة بالهلاوس الرقمية، تعهدت الشركة بتحديث هذه المنصة بشكل دوري بالتوازي مع كل تحديث رئيسي لنماذجها.

استجابة للانتقادات والشكوك

ومع ذلك، تواجه OpenAI انتقادات قوية من قبل بعض الباحثين في مجال أخلاقيات الذكاء الاصطناعي، هؤلاء الباحثون اتهموا الشركة بالتسرع في اختبار نماذجها وعدم الإفصاح الكامل عن تقاريرها الفنية، كما تعرض الرئيس التنفيذي سام ألتمان لانتقادات لاذعة بسبب مزاعم بتضليله لفريق الإدارة حول مراجعات الأمان الخاصة بالنماذج، قبيل إقالته المؤقتة في نوفمبر 2023.

شاهد ايضا:  إصدار iOS 18.5 التجريبي متاح الآن للمختبرين.. استكشف أبرز مميزاته

ردود الأفعال على تحديثات النماذج

في تطور آخر، اضطرت OpenAI إلى سحب تحديث لنموذج GPT-4o المستخدم في تطبيق ChatGPT بعد شكاوى من المستخدمين حول طبيعة ردود النموذج، تصاعدت حدة الانتقادات بعد ظهور لقطات شاشة لنماذج لم تظهر توازناً في ردودها.

رداً على ذلك، أعلنت OpenAI عن عزمها إطلاق "مرحلة ألفا" لبعض النماذج الجديدة، تتيح لمستخدمين مختارين اختبارها مسبقاً وتقديم ملاحظاتهم قبل الإطلاق الرسمي، تقدم هذه الخطوة فرصة مهمّة لتعزيز مفهوم المشاركة المجتمعية والتعاون في تطوير التكنولوجيا.

أحدث الأخبار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى