تعرضت رئيسة الوزراء السويدية للانتقادات بسبب استخدامها لـChatGPT في اتخاذ القرارات الحكومية

Image by Dr. Frank Gaeth, from Wikimedia Commons

تعرضت رئيسة الوزراء السويدية للانتقادات بسبب استخدامها لـChatGPT في اتخاذ القرارات الحكومية

Reading Time: 2 min

Updated 2 times since publishing

واجه رئيس الوزراء السويدي أولف كريسترسون انتقادات بعدما اعترف باستخدامه لـ ChatGPT لتوليد أفكار لقرارات الحكومة.

في عجلة من أمرك؟ ها هي الحقائق السريعة:

  • تعترف رئيسة الوزراء السويدية بأنها تستخدم ChatGPT في صنع القرارات السياسية.
  • يدعي المتحدث باسمها أنه لا يتم مشاركة أي بيانات حساسة مع أدوات الذكاء الصناعي.
  • يقول النقاد إن استخدام الذكاء الصناعي في الحكومة خطير وغير ديمقراطي.

يواجه رئيس الوزراء السويدي أولف كريسترسون رد فعل عام متزايد بعد أن كشف عن ممارسته لاستخدام ChatGPT و LeChat لمساعدته في عملية اتخاذ القرارات الرسمية.

“أنا أستخدمها بنفسي بشكل متكرر. إن لم يكن إلا للحصول على رأي ثاني”، قال كريسترسون كما أفادت الغارديان. “ماذا فعل الآخرون؟ وهل يجب أن نعتقد العكس تمامًا؟ هذا نوع من الأسئلة”.

أثار تصريحه جدلاً واسعاً، حيث اتهمته أفتونبلاديت بالوقوع في “هوس الذكاء الاصطناعي للأوليغارشية”، كما أفادت الغارديان. يجادل المنتقدون بأن الاعتماد على الذكاء الاصطناعي للحكم السياسي هو أمر متهور وغير ديمقراطي.

“يجب أن نطالب بضمان الاعتمادية. لم نصوت لصالح ChatGPT”، هكذا قالت فيرجينيا ديجنوم، أستاذة الذكاء الاصطناعي المسؤول في جامعة أوميو.

لم يعط توم سامويلسون، المتحدث باسم كريسترسون، أي أهمية للجدل، قائلاً: “بالطبع، ليست المعلومات الحساسة من الناحية الأمنية هي التي تنتهي هناك. يتم استخدامها بشكل أكبر كمؤشر تقريبي”، كما أفادت صحيفة The Guardian.

لكن الخبراء التقنيين يقولون إن المخاطر تتعدى حساسية البيانات. تنصح الأستاذة سيمون فيشر-هوبنر من جامعة كارلستاد بعدم استخدام ChatGPT والأدوات المشابهة لها للمهام الرسمية في العمل، كما أشارت صحيفة The Guardian.

حذر الباحث في مجال الذكاء الصناعي ديفيد باو من أن يمكن التلاعب بنماذج الذكاء الصناعي. “أظهروا طريقة للأشخاص للاختباء أجنداتهم الخاصة في بيانات التدريب التي ستكون صعبة جدًا للكشف عنها”. تظهر الأبحاث نسبة نجاح 95% في تضليل أنظمة الذكاء الصناعي باستخدام هجمات الحقن في الذاكرة أو “هجمات القواعد الخلفية للملفات“، مما يثير الخوف من التدخل الخفي في عملية اتخاذ القرارات السياسية.

تأتي المخاطر الإضافية من القدرة المحتملة للذكاء الصناعي على تقويض الديمقراطية. يحذر دراسة حديثة أن أنظمة الذكاء الصناعي في إنفاذ القانون تركز السلطة، تقلل من الرقابة، وقد تشجع على الاستبداد.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back