تكنولوجيا أمريكية لتجنب أخطاء «الذكاء الاصطناعي»

حجم الخط
0

لندن ـ «القدس العربي»: توصلت وزارة الدفاع الأمريكية «البنتاغون» إلى تقنية جديدة من شأنها منع آلات القتل التي تعمل بالذكاء الاصطناعي من الانحراف في ساحة المعركة، وبالتالي التقليل من الأخطاء التي يُمكن لهذه الروبوتات أو الآلات ارتكابها.

وقال تقرير نشرته جريدة «دايلي ميل» البريطانية، واطلعت عليه «القدس العربي» إن التقنية الجديدة التي ابتكرتها «البنتاغون» تقوم بحماية الآلات من الانحراف في ساحات المعارك، وهو الانحراف الذي يحدث بسبب «الضوضاء» البصرية التي تخدع الروبوتات وتؤدي لارتكابها بعض الأخطاء القاتلة.
وقد دق مسؤولو البنتاغون ناقوس الخطر بشأن «الفئات الفريدة من نقاط الضعف في الذكاء الاصطناعي أو الأنظمة المستقلة» والتي يأملون أن تتمكن الأبحاث الجديدة من إصلاحها.
وتم تكليف البرنامج، المسمى ضمان قوة الذكاء الاصطناعي ضد الخداع «GARD» منذ عام 2022 بتحديد كيفية التلاعب بالبيانات المرئية أو مدخلات الإشارات الإلكترونية الأخرى للذكاء الاصطناعي من خلال الإدخال المحسوب للضوضاء.
وقام علماء الكمبيوتر مع أحد مقاولي وزارة الدفاع الأمريكية بتجربة تصحيحات متلونة مصممة لخداع الأنظمة القائمة على الذكاء الاصطناعي لعمل معرفات مزيفة.
وقال أحد كبار المسؤولين في البنتاغون الذي يدير البحث: «يمكنك بشكل أساسي، عن طريق إضافة ضوضاء إلى صورة أو جهاز استشعار، كسر خوارزمية التعلم الآلي النهائية». وتأتي هذه الأخبار في الوقت الذي أدت فيه المخاوف من قيام البنتاغون «ببناء روبوتات قاتلة» إلى وضع قواعد أكثر صرامة للذكاء الاصطناعي للجيش الأمريكي، والتي تنص على ضرورة الموافقة على جميع الأنظمة قبل النشر.
وأضاف المسؤول مات توريك، نائب مدير مكتب الابتكار المعلوماتي التابع لوكالة مشاريع الأبحاث الدفاعية المتقدمة «DARPA»: «يمكنك أيضاً، من خلال معرفة تلك الخوارزمية، إنشاء هجمات يمكن تنفيذها فعلياً».
ومن الناحية الفنية، من الممكن «خداع» خوارزمية الذكاء الاصطناعي لارتكاب أخطاء حرجة في المهام، ما يجعل الذكاء الاصطناعي يخطئ في التعرف على مجموعة متنوعة من التصحيحات أو الملصقات المنقوشة لجسم مادي حقيقي غير موجود بالفعل.
وعلى سبيل المثال، يمكن أن يخطئ الذكاء الاصطناعي في تعريف حافلة مكتظة بالمدنيين على أنها دبابة، إذا تم تمييزها بـ«الضوضاء البصرية» الصحيحة، كما قال أحد مراسلي الأمن القومي في أحد الأمثلة على عمليات الخداع.
وباختصار، يمكن أن تؤدي تكتيكات «الضوضاء» الرخيصة والخفيفة الوزن إلى قيام الذكاء الاصطناعي العسكري الحيوي بتصنيف المقاتلين الأعداء بشكل خاطئ على أنهم حلفاء، والعكس صحيح، خلال مهمة حرجة.
وأظهرت عمليات تدقيق البنتاغون أن الباحثين في برنامج (GARD) ذو الميزانية المتواضعة أنفقوا 51 ألف دولار في التحقيق في تكتيكات الضوضاء المرئية والإشارات منذ عام 2022.
ويتضمن ما هو عام من أعمالهم دراسة أجريت عامي 2019 و2020 توضح كيف يمكن تفسير الضوضاء البصرية، التي يمكن أن تبدو مجرد زينة أو غير مهمة للعين البشرية، مثل ملصق «العين السحرية» في التسعينيات، على أنها جسم صلب بواسطة الذكاء الاصطناعي.
وتمكن علماء الكمبيوتر بالتعاون مع شركة «MITRE Corporation» وهي شركة مقاولات دفاعية، من إحداث ضوضاء بصرية ظنها الذكاء الاصطناعي خطأً على أنها تفاح على رف متجر بقالة، أو حقيبة متروكة في الخارج، وحتى أشخاص.
وقال توريك: «سواء كان ذلك عبارة عن هجمات يمكن تحقيقها فعلياً أو أنماط ضوضاء تتم إضافتها إلى أنظمة الذكاء الاصطناعي، فقد قام برنامج GARD ببناء دفاعات حديثة ضد تلك الهجمات».
وأضاف: «لقد تم توفير بعض هذه الأدوات والقدرات إلى المكتب الرقمي والذكاء الاصطناعي الرئيسي بوزارة الدفاع».
وشكل البنتاغون المكتب الرقمي والذكاء الاصطناعي «CDAO» في عام 2022 ليكون بمثابة مركز لتسهيل اعتماد الذكاء الاصطناعي وتقنيات التعلم الآلي ذات الصلة بشكل أسرع في جميع أنحاء الجيش.
وقامت وزارة الدفاع «DoD» مؤخراُ بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط «الكثير من الالتباس حول «كيفية تخطيطها لاستخدام آلات صنع القرار الذاتي في ساحة المعركة»، وفقاً لنائب مساعد وزير الدفاع الأمريكي لتطوير القوات والقدرات الناشئة مايكل هورويتز.
وأوضح هورويتز في إحدى الفعاليات في شهر يناير الماضي أن «التوجيه لا يحظر تطوير أي أنظمة للذكاء الاصطناعي، ولكنه سيوضح ما هو مسموح به وما هو غير مسموح به» ويدعم «الالتزام بالسلوك المسؤول» أثناء تطوير أنظمة الحكم الذاتي القاتلة.
وبينما يعتقد البنتاغون أن التغييرات يجب أن تريح عقول الجمهور، قال البعض إنهم غير «مقتنعين» بالجهود المبذولة.
وقال مارك براكيل، مدير منظمة «معهد مستقبل الحياة» إن «هذه الأسلحة تحمل خطراً كبيراً للتصعيد غير المقصود». وأوضح أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وترى أنه تهديد، وبالتالي مهاجمة القوى الأجنبية دون سبب، ودون «ضوضاء بصرية» عدائية متعمدة.
وقال براكيل إن النتيجة يمكن أن تكون مدمرة لأنه «بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تزيد من خطر وقوع حوادث في النقاط الساخنة مثل مضيق تايوان».
وتسعى وزارة الدفاع الأمريكية بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

إشترك في قائمتنا البريدية