تقترح “Anthropic” إطارًا للشفافية في تطوير نموذج الذكاء الصناعي

Photo by 2H Media on Unsplash

تقترح “Anthropic” إطارًا للشفافية في تطوير نموذج الذكاء الصناعي

Reading Time: 3 min

Updated 2 times since publishing

قدمت شركة الذكاء الصناعي Anthropic إطارًا للشفافية يوم الاثنين للنماذج المتقدمة للذكاء الصناعي والشركات التي تطور أنظمة الذكاء الصناعي الرائدة، مع التأكيد على تطبيقه على المستوى الإقليمي أو الدولي. وقد حددت هذه الشركة الناشئة الإجراءات الأمنية، والخطوات العملية، والمعايير الدنيا لتعزيز الشفافية في مجال الذكاء الصناعي.

في عجلة من أمرك؟ هنا الحقائق السريعة:

  • اقترحت Anthropic إطارًا شفافًا لنماذج الذكاء الصناعي المتقدمة والشركات التي تطور أنظمة الذكاء الصناعي الرائدة.
  • تعترف الشركة التكنولوجية بالسرعة الكبيرة لتطور الذكاء الصناعي والحاجة الملحة للاتفاق على أطر السلامة لتطوير المنتجات الآمنة.
  • الإطار المقترح موجه للشركات الكبرى في الصناعة.

أوضحت Anthropic في إعلان على موقعها الإلكتروني أن تطور نماذج الذكاء الصناعي تقدم بشكل أسرع من إنشاء الحمايات والاتفاقيات من قبل الشركات والحكومات أو الأكاديميات. دعت الشركة التكنولوجية جميع الأطراف المعنية إلى تسريع جهودها لضمان التطوير الآمن لمنتجات الذكاء الصناعي وعرضت إطار الشفافية الخاص بها كنموذج أو مرجع.

“نحتاج إلى خطوات مؤقتة لضمان تطوير الذكاء الاصطناعي القوي جدا بشكل آمن، مسؤول وشفاف،” كما أفاد الإعلان. “لذا نقترح إطارًا شفافًا موجهًا، يمكن تطبيقه على المستوى الفيدرالي أو الولائي أو الدولي، والذي ينطبق فقط على أكبر أنظمة ومطوري الذكاء الاصطناعي، مع تحديد متطلبات الإفصاح الواضحة للممارسات الآمنة.”

تم تبسيط النهج الذي تتبعه شركة Anthropic لجعله مرنًا وخفيفًا. “لا ينبغي أن يعرقل الابتكار في مجال الذكاء الاصطناعي، ولا ينبغي أن يبطئ قدرتنا على إدراك فوائد الذكاء الاصطناعي – بما في ذلك اكتشاف الأدوية التي تنقذ الحياة، وتوصيل الفوائد العامة بسرعة، ووظائف الأمن القومي الحاسمة،” أوضحت الشركة.

أقرت الشركة التكنولوجية أن الأطر الصلبة والمعايير قد تصبح قديمة بسرعة مع تقدم التكنولوجيا بوتيرة سريعة.

تقترح Anthropic أن ينطبق متطلبات الشفافية للذكاء الصناعي فقط على المطورين للنماذج الحدودية الكبيرة، وذلك لتجنب فرض أعباء على الشركات الناشئة الصغيرة والمطورين ذوي الأثر المنخفض. الحد المقترح هو 100 مليون دولار في الإيرادات السنوية أو مليار دولار في الإنفاق الرأسمالي السنوي.

يجب على المطورين الكبار أيضًا إنشاء إطار عام للتطوير الآمن يتضمن كيفية التخفيف من المخاطر، بما في ذلك الأضرار الناجمة عن النماذج غير المتناسقة وإنشاء أسلحة كيميائية أو نووية أو بيولوجية أو إشعاعية.

إحدى الاقتراحات الأكثر صرامة تهدف إلى حماية المبلغين. “جعلها مخالفة قانونية صراحة لمختبر أن يكذب بشأن الامتثال للإطار الخاص به”، كتبت الشركة Anthropic في الوثيقة المشتركة. أكدت الشركة أن معايير الشفافية يجب أن تتضمن حداً أدنى أساسيًا وتبقى مرنة، مع متطلبات خفيفة للمساعدة في تحقيق التوافق.

تتوقع أنثروبك أن يكون الإعلان والإطار المقترح للشفافية بمثابة إرشادات للحكومات لاعتمادها كقانون وتشجيع “الممارسة المسؤولة”.

بعد إصدارها لأحدث نموذج AI لديها، Claude 4، قامت أنثروبك بتضمين تحذير أمان— حيث قامت بتسمية النموذج Opus 4 على المستوى الأمني 3 بسبب المخاطر المحتملة.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back