الحرب في عصر الذكاء الاصطناعي!

Photo of author

By العربية الآن

الحرب في عصر الذكاء الاصطناعي

غلاف دمج فيديو: فايز الدويري وسلام خضر- الذكاء الاصطناعي وحرب إسرائيل على غزة - فلسطين المصدر: شاشة الجزيرة
إسرائيل خصصت وحدة لتطوير تقنيات الذكاء الاصطناعي للتطبيقات العسكرية (الجزيرة)

التحديات الفلسطينية في عصر التكنولوجيا الحديثة

في مشهد مؤلم، يظهر الفلسطينيون وهم يقاومون بأبسط الوسائل القتالية، يتصدرهم العصا الخشبية، أمام آلة حرب متقدمة مثل “الدرونز”، وخاصة خلال الأحداث التي تلت استشهاد “يحيى السنوار”. هذا يوضح بجلاء الصمود الفلسطيني، الذي يستند لا إلى قوة السلاح بحد ذاته، بل إلى عزيمة وإرادة قوية تُشكل دليلاً على الثبات في مواجهة العنف والتدمير.

الذكاء الاصطناعي في صلب الصراع

يشهد العالم اليوم تحولًا خارقًا مع صعود الذكاء الاصطناعي ودخوله كمكون رئيسي في النزاعات. لم تعد الحروب تقتصر على المواجهات التقليدية، بل باتت الخوارزميات تلعب دورًا رئيسيًا في توجيه العمليات العسكرية. ويظهر ذلك بوضوح في العدوان الجاري على غزة، حيث تسخر إسرائيل تقنيات الذكاء الاصطناعي في عملياتها الحربية، مما يغير معالم الصراع ويزيد من تعقيد الأمور.

التنافس العالمي حول الذكاء الاصطناعي

تتنافس القوى الكبرى، مثل الولايات المتحدة والصين، في مجال الذكاء الاصطناعي، بهدف تحقيق السيطرة على المستقبل، حيث تستثمر مليارات الدولارات لتطوير أنظمة ذكية تعزز من قدراتها العسكرية.

التسلسل الصارم لاستهداف الأهداف الفلسطينية

تعتمد إسرائيل على أنظمة الذكاء الاصطناعي في استهدافها للأفراد والأماكن، وبحسب ما يظهر من منهجية، فإن العملية تشمل عدة مراحل:

  • جمع البيانات: بواسطة نظام مثل “Alchemist”، يتم جمع معلومات عن الأهداف عبر الأقمار الصناعية والدرونز.
  • تحديد الأهداف: من خلال نظام “Blue Wolf” للتعرف على الوجه، يحدد الأفراد المطلوبين.
  • رصد الأهداف: عن طريق نظام “Gospel” الذي يتخذ القرار النهائي حول الأهداف.
  • تنظيم الهجمات: بواسطة نظام “Fire Factory”، الذي يحدد نوع الهجوم المطلوب.

قضايا أخلاقية وقانونية

تثير هذه الطُرق العديد من التساؤلات حول الجوانب الأخلاقية والقانونية لاستخدام الذكاء الاصطناعي في الحرب. يتطلب القانون الدولي الإنساني وجود قيادة بشرية تكون مسؤولة عن كل قرار عسكري، مما يطرح تساؤلات حول المسؤولية في حال حدوث أخطاء في الحسابات. فقد تؤدي هذه الأخطاء إلى فقدان العائلات بشكل كامل، وهو ما يحدث حاليًا في غزة.

في ظل تلك التحديات، يبرز التساؤل: هل يمكن للإنسان فرض قيود أخلاقية فعالة تمنع إساءة استخدام الذكاء الاصطناعي؟

كما أن السرية المحيطة بتطوير أنظمة الذكاء الاصطناعي قد يؤدي إلى استخدام هذه التكنولوجيا بشكل مفرط، مما يثير مخاوف من تفلتها من السيطرة البشرية، تمامًا كما حدث مع الأسلحة النووية. يبقى السؤال مطروحًا: هل يمكن للبشر وضع ضوابط أخلاقية فعّالة للحيلولة دون حدوث ذلك؟

الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.

أضف تعليق

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.