مخاوف من إنشاء روبوتات قاتلة تثير قواعد أكثر صرامة للذكاء الاصطناعى
أدت المخاوف من أن البنتاجون ينشئ روبوتات قاتلة إلى قواعد أكثر صرامة للذكاء الاصطناعي، والتي تتطلب الموافقة على جميع الأنظمة قبل النشر، حيث قامت وزارة الدفاع (DoD) مؤخرًا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط الكثير من الارتباك حول كيفية تخطيطها لاستخدام آلات صنع القرار الذاتي في ساحة المعركة.
وأوضح مايكل هورويتز، نائب مساعد وزير الدفاع، في حدث هذا الشهر، “أن التوجيه لا يحظر تطوير أي أنظمة، ولكنه سيوضح ما هو مسموح به وما هو غير مسموح به ويدعم الالتزام بالسلوك المسؤول، أثناء تطويره للقيادة الذاتية.”
وتسعى وزارة الدفاع بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.
وقال مارك براكيل، مدير منظمة (FLI): “تحمل هذه الأسلحة خطرًا كبيرًا للتصعيد غير المقصود”، مضيفا أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وترى أنه تهديد”.
وقال براكيل، إن النتيجة يمكن أن تكون مدمرة لأنه بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي تشبه حادثة الصاروخ النرويجي، ويمكن أن تزيد من خطر وقوع حوادث.
وشجعت وزارة الدفاع اتخاذ تدابير عالمية لمراقبة أسلحة الذكاء الاصطناعي من خلال دعوة الدول الأخرى إلى تأييد الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي، وحتى نوفمبر، أيدت 47 دولة هذه المبادرة.
وقال هورويتز خلال جلسة نقاش، إن وزارة الدفاع تركز اهتمامها على بناء ثقة الجمهور في التكنولوجيا وأن الوزارة ملتزمة بالالتزام بالقانون الإنساني الدولي.
ولا يقتصر تطوير الأنظمة العسكرية المستقلة على الولايات المتحدة فحسب، بل إن الصين وروسيا تمتلكان ترساناتهما الخاصة من الأسلحة التي تعمل بالذكاء الاصطناعي والتي تستخدم حاليا في حربين.
وأعلن البنتاجون أنه سيطلق العنان للآلاف من المركبات ذاتية القيادة المدعومة بالذكاء الاصطناعي بحلول عام 2026 لمواكبة خصوم أمريكا.