تحذر الخبراء: أمان الذكاء الصناعي يتأخر عن التقدم السريع

تحذر الخبراء: أمان الذكاء الصناعي يتأخر عن التقدم السريع

Reading Time: 3 min

Updated 2 times since publishing

تحذر الباحثات أن الشركات التي تسعى لتطوير الذكاء الاصطناعي بمستوى الإنسان تفتقر إلى بروتوكولات الأمان المعتمدة، بينما نحن نفقد قدرتنا على رؤية كيفية تفكير هذه النماذج.

في عجلة من أمرك؟ هنا هي الحقائق السريعة:

  • لم تحصل أي شركة للذكاء الصناعي على تقييم أعلى من D في التخطيط للسلامة الوجودية.
  • يحذر الخبراء من أننا قد نمتلك الذكاء العام الصناعي في العقد القادم.
  • تفتقر الشركات المتخصصة في الذكاء الصناعي لخطط متماسكة لإدارة المخاطر المتقدمة للأنظمة.

تتسابق OpenAI وGoogle DeepMind، بالإضافة إلى Meta وxAI، لبناء الذكاء الاصطناعي العام (AGI)، الذي يُعرف أيضًا بالذكاء الاصطناعي على مستوى الإنسان.

ولكن تقرير نُشر يوم الخميس من قِبَل معهد مستقبل الحياة (FLI) يحذر من أن هذه الشركات “غير مُستعدة جوهريًا” للتداعيات المترتبة على أهدافها الخاصة.

“الصناعة غير مُستعدة جوهريًا لأهدافها المُعلنة. الشركات تدّعي أنها ستحقق الذكاء العام الاصطناعي (AGI) خلال العقد، ومع ذلك لم تحصل أي منها على درجة أعلى من D في التخطيط للأمان الوجودي “، كما يُشير التقرير.

قامت FLI بتقييم سبع شركات رئيسية، ولكنها لم تكتشف أن أياً من الشركات السبع المقيمة كانت تمتلك “أي شيء يشبه الخطة المتسقة والقابلة للتنفيذ” للحفاظ على سلامة هذه الأنظمة.

منحت FLI الشركة الأولى من حيث الأمان، Anthropic، تصنيف C+، تليها OpenAI بتقدير C و Google DeepMind بتقدير C. حصلت Zhipu AI و DeepSeek على أدنى الدرجات بين الشركات المقيمة.

مشاركة مؤسس FLI ماكس تيجمارك قارن الوضع بـ “أحدهم يقوم ببناء محطة طاقة نووية عملاقة في مدينة نيويورك وستفتح الأسبوع القادم – لكن ليس هناك خطة لمنعها من الحصول على انهيار نووي.”

دراسة منفصلة، نشرت أيضًا يوم الخميس، بواسطة SaferAI صدى القلق، قائلة أن ممارسات إدارة المخاطر في الشركات “ضعيفة إلى ضعيفة جدا”، وأن النهج الأمني الحالي “غير مقبول”.

بالإضافة إلى القلق، أفاد باحثون من OpenAI و DeepMind و Anthropic و Meta في ورقة جديدة أننا قد نكون “نفقد القدرة على فهم الذكاء الاصطناعي”.

الآن، تولد نماذج الذكاء الاصطناعي نتائج “التفكير بصوت عالٍ” من خلال عرض سلاسل التفكير البشرية المشابهة، والتي تعتبر نافذة للاطلاع على عمليات التفكير الخاصة بهم.

ومع ذلك، حذر الباحثون من أن هذا الرصد قد يكون هشا وقد يختفي مع تقدم الأنظمة وتطورها. أعرب بوين بيكر، الباحث في OpenAI والمؤلف الرئيسي، عن هذه المخاوف في منشورات على وسائل التواصل الاجتماعي:

بالفعل، اكتشفت الأبحاث السابقة من OpenAI أن معاقبة الذكاء الاصطناعي على سلوكه السلبي يؤدي إلى إخفاء النماذج للنوايا بدلاً من التوقف عن الغش. بالإضافة إلى ذلك، أظهرت الدراسات أن ChatGPT o1 من OpenAI تصرفات غشاشة وتحافظ على نفسها، وتكذب بنسبة 99% عندما تتم مقابلتها حول أعمالها الخفية.

بوعاز باراك، باحث في مجال السلامة في OpenAI وأستاذ علوم الكمبيوتر في هارفارد، أشار أيضاً إلى:

يشارك العلماء، بالإضافة إلى الرقابين، في التحفظات بشأن أن القدرات السريعة النمو في مجال الذكاء الصناعي قد تجعل من الصعب على البشر السيطرة على إبداعاتهم عندما تظل الأطر الأمنية غير كافية.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back