حذّرت فرانشيسكا ألبانيزي، المقرّرة الخاصة للأمم المتحدة المعنية بحقوق الإنسان في الأراضي الفلسطينية المحتلة، من استخدام تقنيات الذكاء الاصطناعي في العمليات العسكرية، معتبرة أن بعض هذه الأنظمة، التي يُشار إليها إعلاميًا بأسماء مثل “Where is Daddy”، تثير مخاوف خطيرة تتعلق بالقانون الدولي الإنساني وحماية المدنيين.
وجاءت تصريحات ألبانيزي في سياق نقاش دولي متصاعد حول دور الخوارزميات والأنظمة المؤتمتة في اختيار الأهداف العسكرية، وما إذا كانت هذه التقنيات تُستخدم بطريقة تقلّص التدخل البشري وتزيد من احتمالات وقوع أضرار واسعة في صفوف المدنيين، ولا سيما الأطفال.
ما هو “Where is Daddy”؟
بحسب ما ورد في تحقيقات صحفية وتقارير حقوقية غير رسمية، يُستخدم مصطلح “Where is Daddy” لوصف نظام يعتمد على الذكاء الاصطناعي وتقنيات التتبع، يُقال إنه يهدف إلى تحديد مواقع أشخاص مشتبه بانتمائهم إلى فصائل مسلّحة، وربط تحركاتهم بوجودهم داخل منازلهم أو قرب عائلاتهم.
ولا توجد حتى الآن وثائق رسمية علنية تؤكد التسمية أو تفاصيل التشغيل التقنية لهذا النظام، إلا أن تداول المصطلح جاء ضمن نقاشات أوسع عن أنظمة أخرى ذُكرت في السياق نفسه، مثل “Lavender”، والتي أثارت جدلًا مشابهًا حول أتمتة القرار العسكري.
تصريحات ألبانيزي: القلق من أتمتة القتل
أكدت ألبانيزي أن استخدام الذكاء الاصطناعي في النزاعات المسلحة لا يُعفي الأطراف المتحاربة من مسؤولياتها القانونية، مشددة على أن:
• القانون الدولي الإنساني يقوم على مبدأ التمييز بين المدنيين والمقاتلين
• ومبدأ التناسب في استخدام القوة
• وضرورة المساءلة البشرية عن أي قرار يؤدي إلى إزهاق الأرواح
وقالت إن الاعتماد على أنظمة مؤتمتة أو شبه مؤتمتة قد يؤدي إلى خفض العتبة الأخلاقية لاستخدام القوة، ويجعل الخسائر المدنية “نتيجة متوقعة حسابيًا” بدل أن تكون استثناءً يجب تجنّبه.
الأطفال في قلب التحذير
وأشارت المقرّرة الأممية إلى أن الأطفال هم الفئة الأكثر تضررًا من هذا النوع من الحروب عالية التقنية، موضحة أن الأسئلة التي يطرحها أطفال فقدوا ذويهم، مثل: “أين أبي؟”، لم تعد مجرد مأساة إنسانية، بل شاهدًا على فشل منظومة الحماية الدولية في عصر الحروب المؤتمتة.
جدل سياسي وردود فعل
أثارت تصريحات ألبانيزي ردود فعل سياسية حادة، لا سيما في الولايات المتحدة ودوائر داعمة لإسرائيل، حيث اعتُبرت تصريحاتها “مسيّسة”. في المقابل، أكدت منظمات حقوقية دولية أن ما تطرحه المقرّرة الخاصة يدخل في صميم ولايتها القانونية، والمتمثلة في رصد الانتهاكات والتحذير من مخاطرها، بغضّ النظر عن الطرف المسؤول.
البعد القانوني
من منظور القانون الدولي، يشدد خبراء على أن:
• الذكاء الاصطناعي لا يتحمّل المسؤولية القانونية
• المسؤولية تبقى على عاتق القادة العسكريين وصنّاع القرار
• أي استخدام للتكنولوجيا يؤدي إلى قتل غير مشروع للمدنيين قد يرقى إلى انتهاك جسيم لاتفاقيات جنيف
خلاصة
يثير الجدل حول “Where is Daddy” وغيره من أنظمة الذكاء الاصطناعي العسكرية أسئلة عميقة حول مستقبل الحروب، وحدود التكنولوجيا، وقدرة القانون الدولي على مواكبة نزاعات تُدار بالخوارزميات. وبينما يستمر الجدل السياسي، تؤكد الأمم المتحدة أن حماية المدنيين لا يمكن أن تكون خيارًا تقنيًا، بل التزامًا قانونيًا وأخلاقيًا لا يسقط بالتكنولوجيا.
اقرأ ايضًا:

