في خطوة تثير النقاش أعلنت شركة OpenAI عن تعديلات على نظامها الداخلي لتقييم امان الذكاء الاصطناعي ملحمة لاحتمال تخفيف بعض إجراءات السلامة اذا سارع المنافسون لإطلاق نماذج خطرة دون ضوابط مماثلة يأتي هذا في ظل تسارع وتيرة السباق التجاري المحموم في عالم الذكاء الاصطناعي حيث تتسابق الشركات لطرح أحدث نماذجها باسرع وقت ممكن.

OpenAI تعدل قواعد السلامة

أوضحت الشركة أنها قد تعدل متطلبات السلامة لديها كرد فعل على خطوات المنافسين لكنها اكدت في الوقت نفسه أنها لن تقدم على ذلك إلا بعد تقييم دقيق للمشهد المتغير للمخاطر، وبعد الإعلان بشكل شفاف عن أي تغييرات مع التأكيد على الحفاظ على مستوى حماية عال يعكس هذا التوجه الضغوط الكبيرة التي تواجهها الشركة للبقاء في صدارة المنافسة.

انتقادات وشكوك متزايدة

يأتي هذا الإعلان في وقت حساس تواجه فيه OpenAI  انتقادات بشأن تراجعها عن التزامات سابقة بالشفافية ومعايير الاختبار الصارمة فقد حذر موظفون سابقون من ان الشركة قد تتساهل في إجراءات السلامة، ونفت OpenAI  هذه المزاعم مشيرة الى زيادة الاعتماد على التقييم الالي لتسريع التطوير دون التخلي عن الاختبار البشري لكن تقارير صحفية تشكك في كفاية وسرعة هذه الاختبارات احيانا.

إعادة تعريف مستويات الخطر

شملت التحديثات الجديدة ايضا اعادة تصنيف لمخاطر نماذج الذكاء الاصطناعي بناء على قدرتها المحتملة على التسبب باضرار جسيمة خاصة تلك النماذج التي قد تظهر سلوكا خفيا او تتجاوز الضوابط الموضوعة لها او حتى تبدي قدرة على التكاثر الذاتي، وأكدت OpenAI  ان النماذج التي تقترب من هذه المستويات الخطرة ستخضع لضمانات أكثر صرامة خلال تطويرها وقبل إطلاقها للحد من أي ضرر محتمل وتمثل هذه التحديثات الاولى لإطار السلامة منذ عام مضى ويأتي وسط قلق دولي متزايد بشان مستقبل الذكاء الاصطناعي وضرورة ضمان تطويره بشكل آمن واخلاقي.

هذا التطور السريع والحاد في محركات الذكاء الإصطناعي تجعل المنافسة بين الشركات محتدمة للغاية لكنها تفتح باب كبير لمستقبل معرفي هائل من شأنه فتح مجالات عدة لأجيال قادمة ستعمتد عليها بشكل أساسي في الحياة اليومية والعملية بشكل موسع ومتميز للغاية فما هو الجديد.