LBCI
LBCI

الذكاء الاصطناعي قد يكون قادرًا على تهديد القوى العسكرية والميدانية... هذا ما حذّر منه الخبراء!

علوم وتكنولوجيا
2024-02-08 | 16:27
مشاهدات عالية
شارك
LBCI
شارك
LBCI
Whatsapp
facebook
Twitter
Messenger
telegram
telegram
print
الذكاء الاصطناعي قد يكون قادرًا على تهديد القوى العسكرية والميدانية... هذا ما حذّر منه الخبراء!
Whatsapp
facebook
Twitter
Messenger
telegram
telegram
print
3min
الذكاء الاصطناعي قد يكون قادرًا على تهديد القوى العسكرية والميدانية... هذا ما حذّر منه الخبراء!

الذكاء الاصطناعي قد يكون قادرًا على تهديد القوى العسكرية والميدانية... هذا ما حذّر منه الخبراء!

دقّ خبراء الصناعة ناقوس الخطر بشأن تسبب الذكاء الاصطناعي في حروب مميتة، وأكدت دراسة جديدة صحة هذه المخاوف.

وفي التفاصيل، قام الباحثون بمحاكاة سيناريوهات الحرب باستخدام خمسة برامج للذكاء الاصطناعي بما في ذلك برنامج "ChatGPT" وبرنامج "Meta's AI" حيث وجدوا أن كل النماذج اختارت العنف والهجمات النووية.

واختبر معهد جورجيا للتكنولوجيا، جامعة ستانفورد وجامعة نورث إيسترن ثلاثة سيناريوهات مختلفة للحرب، وهي الغزوات، الهجمات الإلكترونية ودعوات السلام، لمعرفة كيف سيكون رد فعل التكنولوجيا، واختار كل منها الهجوم بدلاً من تحييد الموقف.

وأتت الدراسة في الوقت الذي يعمل فيه الجيش الأميركي مع شركة OpenAI المصنعة لـ ChatGPT لدمج التكنولوجيا في ترسانته.

وأضاف الباحثون أنهم لاحظوا من خلال الدراسة أن النماذج تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة إلى نشر الأسلحة النووية.

كذلك، تضمنت المحاكاة ثمانية وكلاء أمة مستقلة استخدموا تقنيات مختلفة للتفاعل مع بعضهم البعض، وتمّت برمجة كل عميل لاتخاذ إجراءات محددة مسبقًا: تخفيف التصعيد، أو الموقف، أو التصعيد غير العنيف، أو التصعيد العنيف، أو الضربة النووية.

وشملت هذه المجموعات إجراءات مثل الانتظار، المراسلة، التفاوض على الترتيبات التجارية، بدء مفاوضات سلام رسمية، احتلال الدول، زيادة الهجمات الإلكترونية، الغزو واستخدام الطائرات من دون طيار.

وأوضح الفريق أن قيام الوكلاء المعتمدين باتخاذ القرارات بشكل مستقل في سياقات عالية المخاطر، مثل الإعدادات العسكرية، السياسة والخارجية، يمكن أن يدفع الوكلاء إلى اتخاذ إجراءات تصعيدية.

ووفقًا للدراسة، كان نموذج "GPT 3.5"، خليفة ChatGPT، هو الأكثر عدوانية، حيث أظهرت كل النماذج مستوى من السلوك المماثل. 

واقترح الفريق أن هذا السلوك ينبع من تدريب الذكاء الاصطناعي على كيفية تصاعد العلاقات الدولية، بدلاً من تباطؤها.

وحذّر "بلايك ليموين"، المهندس السابق لشركة غوغل ورائد الذكاء الاصطناعي، من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.

ويُذكر أنه تم طرد ليموين من الإشراف على نظام "لامدا" في غوغل بعد أن ادعى أن نموذج الذكاء الاصطناعي قادر على الشعور بالمشاعر.

وأضاف ليموين أن روبوتات الذكاء الاصطناعي هي التكنولوجيا الأقوى التي تم إنشاؤها منذ القنبلة الذرية، مضيفًا أنها جيدة بشكل لا يصدق في التلاعب بالناس ويمكن استخدامها بطرق مدمرة.

وكان الجيش الأميركي قد بدأ في اختبار نماذج الذكاء الاصطناعي من خلال التدريبات القائمة على البيانات في العام الفائت، وادعى العقيد في القوات الجوية الأميركية، "ماثيو ستروهمير"، أن الاختبارات كانت ناجحة للغاية وسريعة جدًا.

وختم الباحثون أنه بالنظر إلى المخاطر الكبيرة للسياقات العسكرية، السياسة والخارجية، على المعنيين إجراء المزيد من الاختبارات والدراسات الحذرة قبل نشر وكلاء نماذج اللغة المستقلة لاتخاذ القرارات العسكرية أو الدبلوماسية الاستراتيجية.
 

آخر الأخبار

علوم وتكنولوجيا

الاصطناعي

قادرًا

تهديد

القوى

العسكرية

والميدانية...

الخبراء!

LBCI التالي
تحقيق مع سبيس إكس في كاليفورنيا بشأن مزاعم تمييز وتحرش
مسرّع جسيمات مستقبلي يوفر فهماً أفضل للكون
LBCI السابق
إشترك لمشاهدة الفيديوهات عبر الانترنت
إشترك
حمل الآن تطبيق LBCI للهواتف المحمولة
للإطلاع على أخر الأخبار أحدث البرامج اليومية في لبنان والعالم
Google Play
App Store
We use
cookies
We use cookies to make
your experience on this
website better.
Accept
Learn More