حماس کی جانب سے سات اکتوبر 2023 کو اسرائیل پر اچانک حملے کے فوری بعد کے ہفتوں میں اسرائیلی دفاعی افواج نے مبینہ طور پر جان بوجھ کر شہریوں کے گھروں کو نشانہ بنایا اور قتل کے اہداف کی نشاندہی کے لیے مبینہ طور پر لیونڈر نامی مصنوعی ذہانت پر مبنی پروگرام استعمال کیا، جس کے نتیجے میں تقریباً نہ ہونے کے برابر انسانی جائزے کے ساتھ کیے گئے فیصلوں کی بنیاد پر متعدد بم دھماکے ہوئے۔
ایک رپورٹ کے مطابق ایک موقعے پر اس نظام نے غزہ میں بڑے پیمانے پر نگرانی کرتے ہوئے بمباری کے لیے 37 ہزار اہداف کی فہرست تیار کی، جن میں حماس کے متعدد نچلے درجے کے مبینہ ارکان بھی شامل تھے جو عام طور پر بمباری کی کارروائیوں کا نشانہ نہیں بنتے تھے۔
+972 میگزین اور لوکل کال کی جانب سے سامنے آنے والے الزامات چھ اسرائیلی انٹیلی جنس افسران کے انٹرویوز پر مبنی ہیں جو غزہ میں حماس کے ساتھ تنازعے کے دوران خدمات انجام دے چکے تھے اور اہداف کی تحقیقات کے لیے مصنوعی ذہانت کے استعمال میں ملوث تھے۔
ایک افسر نے بتایا کہ سسٹم میں ان کا کردار لیونڈر کے اہداف کے فیصلوں پر محض ’ربڑ سٹیمپ‘ کے طور پر تھا، جنہوں نے ذاتی طور پر سسٹم کی سفارشات کا جائزہ لینے میں صرف چند سیکنڈز صرف کیے تھے۔
مزید پڑھ
اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)
افسران نے کہا کہ انہوں نے حماس کے ارکان کو ان کے گھروں میں اس وقت نشانہ بنایا جب وہ عام شہریوں کے ساتھ تھے، کیونکہ انٹیلی جنس ٹولز کے ذریعے ان کے مقام کی تصدیق کرنا آسان ہو گیا تھا۔
مبینہ طور پر حملوں پر غور کرنے والے منصوبہ ساز حماس کے ایک نچلے درجے کے کارکن کو نشانہ بنانے کے دوران ممکنہ طور پر 15 یا 20 شہریوں کو مارنے کے لیے بھی تیار تھے۔
ایک افسر نے نام ظاہر نہ کرنے کی شرط پر بتایا کہ ’ہمیں حماس کے کارکنوں کو صرف اس وقت مارنے میں میں دلچسپی نہیں تھی جب وہ کسی فوجی عمارت میں ہوں یا کسی فوجی سرگرمی میں ملوث ہوں۔
’اس کے برعکس اسرائیلی ڈیفنس فورسز (آئی ڈی ایف) نے پہلے آپشن کے طور پر بغیر کسی ہچکچاہٹ کے ان کے گھروں پر بمباری کی۔ ایک خاندان کے گھر پر بم باری کرنا بہت آسان ہے۔ یہ نظام ان حالات میں ان کی تلاش کے لیے بنایا گیا ہے۔‘
آئی ڈی ایف نے تحقیقات کے جواب میں اداروں کو بتایا: ’ایک (انٹیلی جنس) تجزیہ کار کی طرف سے آزادانہ جانچ پڑتال کی ضرورت ہے، جس سے اس بات کی تصدیق ہو کہ آئی ڈی ایف کی ہدایات اور بین الاقوامی قوانین میں طے شدہ شرائط کے مطابق شناخت شدہ اہداف پر حملہ جائز ہے۔‘
مبصرین نے ان حربوں کو غیر انسانی قرار دیتے ہوئے تنقید کا نشانہ بنایا ہے۔
’الشبکہ: دی فلسطینی پالیسی نیٹ ورک‘ کے فیلو طارق کینی شاوا نے ان رپورٹوں کو ’تکلیف دہ‘ قرار دیا ہے۔
دوسری جانب ڈسٹری بیوٹڈ اے آئی ریسرچ انسٹی ٹیوٹ کے ایلکس ہنا نے ایکس پر اپنے پیغام میں لکھا کہ ’یہ تکلیف دہ اور امریکہ کے لیے مصنوعی ذہانت کی جنگ کا مستقبل ہے۔‘
اسرائیل کے ایلیٹ یونٹ 8200 کی جانب سے تیار کردہ لیونڈر سسٹم کا استعمال کرنے والے ایک انٹیلی جنس افسر نے دی گارڈین کو بتایا کہ ’سات اکتوبر کے بعد فوجی اکثر اپنے ساتھیوں کے فیصلے سے زیادہ اس نظام پر بھروسہ کر رہے تھے۔‘
افسر نے مزید کہا: ’میری یادداشت میں ایسی کوئی مثال نہیں ہے۔ سات اکتوبر کو مجھ سمیت وہاں ہر ایک نے اپنوں کو کھو دیا۔ مشین نے یہ کام بڑے آرام سے کر دیا اور اس سے یہ آسان ہو گیا۔‘
دی گارڈین کو دیے گئے ایک بیان میں آئی ڈی ایف نے تصدیق شدہ فوجی اہداف کی معلومات کے لیے مصنوعی ذہانت کے استعمال کی تردید کی اور کہا کہ ’لیونڈر کو مختلف ذرائع سے معلومات اکٹھا کرنے کے لیے استعمال کیا گیا تھا تاکہ دہشت گرد تنظیموں کے عسکری ارکان کے بارے میں تازہ ترین معلومات حاصل کی جا سکیں۔‘
مزید کہا گیا کہ ’آئی ڈی ایف ایسا مصنوعی ذہانت کا نظام استعمال نہیں کرتی جو دہشت گردوں کی شناخت یا یہ پیش گوئی کرنے کی کوشش کرتا ہے کہ آیا کوئی شخص دہشت گرد ہے یا نہیں۔ انفارمیشن سسٹم ہدف کی شناخت کے عمل میں تجزیہ کاروں کے لیے صرف ٹولز ہیں۔‘
غزہ کی وزارت صحت کے مطابق اسرائیل کی جارحیت کے دوران ایک اندازے کے مطابق 33 ہزار فلسطینی جان سے جا چکے ہیں، جن میں اکثریت عام شہریوں کی ہے۔
اسرائیل کو اپنی کارروائیوں، جن میں رہائشی علاقوں، ہسپتالوں اور پناہ گزین کیمپوں کو نشانہ بنایا گیا، میں عام شہریوں کی بڑی تعداد میں اموات کی وجہ سے مسلسل جانچ پڑتال کا سامنا کرنا پڑ رہا ہے۔
آئی ڈی ایف کا کہنا ہے کہ حماس اکثر سویلین علاقوں میں فوجی آپریشن کی منصوبہ کرتی ہے تاکہ عام شہریوں کو ڈھال کے طور پر استعمال کیا جا سکے۔
پیر (یکم اپریل) کو غزہ میں ایک اسرائیلی فضائی حملے میں ورلڈ سینٹرل کچن کے سات امدادی کارکنوں کی موت کے بعد آئی ڈی ایف کی ہدف بنانے کی حکمت عملی کو بین الاقوامی سطح پر ایک بار پھر تنقید کا نشانہ بنا جا رہا ہے۔
© The Independent