’ایٹم بم سے خطرناک قاتل روبوٹ‘ دنیا میں استعمال ہو رہے ہیں

میں خود مختار ہتھیاروں سے پھوٹتے چار بنیادی خطرات دیکھ رہا ہوں۔ پہلا مسئلہ غلط شناخت کا ہے۔ ہدف کا تعین کرتے ہوئے کیا خود مختار ہتھیار دشمن فوجی اور کھلونا بندوقوں سے کھیلتے بارہ سالہ بچوں میں فرق کر پائے گا؟

انسان دوست تنظیمیں ایسے ہتھیاروں کی ترقی پر پابندیاں عائد کرنے اور ضابطہ اخلاق وضع کرنے کی کوششیں کر رہی ہیں (فائل تصویر: اے ایف پی)

 لیبیا کی خانہ جنگی سے متعلق اقوام متحدہ کی شائع ہونے والی حالیہ رپورٹ کے مطابق گذشتہ برس قاتل روبوٹس کے نام سے معروف خود مختار ہتھیاروں کے نظام نے شاید پہلی بار انسانوں کو قتل کیا ہے۔ تاریخ اسے ہتھیاروں کی نئی دوڑ کا نقطہ آغاز قرار دے سکتی ہے، ایک ایسا نقطہ آغاز جو ممکنہ طور پر انسانیت کا خاتمہ ثابت ہو سکتا ہے۔

خود مختار ہتھیاروں کا نظام مہلک ہتھیاروں سے لیس ایسے روبوٹس ہیں جو آزادانہ طور پر کام کرتے ہیں، جن کے ہدف کے تعین اور اسے نشانہ بنانے کے فیصلے میں انسان اثر انداز نہیں ہوتے۔ دنیا بھر کی افواج خود مختار ہتھیاروں کی تحقیق اور تیاری پر بھاری سرمایہ خرچ کر رہی ہیں۔ 2016 سے 2020 کے درمیان محض امریکہ نے خود مختار ہتھیاروں پر اٹھارہ بلین ڈالر خرچ کیے۔

جبکہ دوسری طرف حقوق انسانی اور انسان دوست تنظیمیں ایسے ہتھیاروں کی ترقی پر پابندیاں عائد کرنے اور ضابطہ اخلاق وضع کرنے کی کوششیں کر رہی ہیں۔ خارجہ پالیسی کے ماہرین خبردار کر رہے ہیں کہ روک ٹوک کے بغیر انتشار انگیز خود مختار ہتھیاروں والی ٹیکنالوجیز موجودہ جوہری حکمت عملیوں کو خطرناک حد تک غیر مستحکم کر دیں گی کیونکہ ایک تو وہ سٹریٹجک غلبے کا تصور ہی یکسر تبدیل کر دیں گی جس سے پری ایمپٹیو حملوں کے خطرات بڑھ جائیں گے اور دوسرا کیونکہ وہ کیمیائی، حیاتیاتی، ریڈیولوجیکل اور بذات خود جوہری ہتھیاروں کے ساتھ مدغم ہو سکتی ہیں۔

 انسانی حقوق کے ایسے محقق کے طور پر جو مصنوعی ذہانت کو ہتھیاروں سے لیس ہونے کے معاملے کو باریک بینی سے دیکھ رہا ہے میں اس نتیجہ پر پہنچا کہ خود مختار ہتھیاروں والی ٹیکنالوجی جوہری ہتھیاروں والے ممالک کے لیے غیر مستحکم توازن اور منتشر حفاظتی انتظامات کا باعث بنیں گی۔ مثال کے طور پر امریکی صدر کے جوہری ہتھیار پھینکنے کے انتہائی محدود اختیار کو یہ غیر مستحکم اور زیادہ منتشر بنا دے گی۔

مہلک غلطیاں اور بلیک باکسز

میں خود مختار ہتھیاروں سے پھوٹتے چار بنیادی خطرات دیکھ رہا ہوں۔ پہلا مسئلہ غلط شناخت کا ہے۔ ہدف کا تعین کرتے ہوئے کیا خود مختار ہتھیار دشمن فوجی اور کھلونا بندوقوں سے کھیلتے بارہ سالہ بچوں میں فرق کر پائے گا؟ شہریوں کے جنگی مقام چھوڑنے اور باغیوں کے حکمت عملی کے تحت پیچھے ہٹنے میں فرق کر سکے گا؟

مسئلہ یہ نہیں کہ مشینیں ایسے غلطیاں کریں گی اور انسان نہیں۔ انسانی غلطی اور الگورتھم کی غلطی میں فرق ایسے ہی ہے جیسے کسی کو خط میل کرنے اور ٹوئٹر پر شئیر کرنے میں ہے۔ متعین ہدف کو نشانہ بنانے والے روبوٹس سسٹمز جو الگورتھم پر چلتے ہیں ان کی تباہی کا پیمانہ، دائرہ کار اور رفتار پورے براعظم کو تباہ کر سکتی ہے جبکہ اس کے مقابلے میں ہدف کے تعین میں کسی انسان کی غلطی جیسا کہ افغانستان میں امریکی ڈرون حملہ تھا، بہت معمولی نظر آتی ہے۔

خود مختار ہتھیاروں کے ماہر پال شائرے رن وے گن کے استعارے سے یہ فرق واضح کرتے ہیں۔ رن وے گن ایسی خراب مشین کو کہتے ہیں جس کی لبلبی دب جانے کے بعد وہ مسلسل فائرنگ کرتی رہتی ہے۔ رن وے گن کا جب تک ایندھن ختم نہ ہو اس وقت تک گولیاں برساتی رہتی ہے کیونکہ اسے پتہ ہی نہیں ہوتا وہ غلطی کر رہی ہے۔ رن وے گنز انتہائی خطرناک ہیں لیکن خوش قسمتی سے انہیں چلانے والے انسان ہوتے ہیں جو ایندھن کا سلسلہ منقطع کر سکتے ہیں یا اس کا رخ محفوظ سمت میں موڑ سکتے ہیں۔ خود مختار ہتھیار اپنی بنت میں ایسا حفاظتی نظام رکھتے ہی نہیں۔

ایک اہم بات یہ ہے کہ مصنوعی ذہانت سے چلنے والے ہتھیاروں کے اس نظام کو رن وے گن کی طرح بے قابو ہونے کے لیے کسی خرابی کی بھی ضرورت نہیں۔ جیسا کہ مختلف صنعتوں میں الگورتھم کی غلطیوں پر ہونے والی کئی تحقیقات سے واضح ہے کہ سب سے عمدہ الگورتھمز جو ڈیزائن کے مطابق کام کرتے ہیں وہ خود مختار طریقے سے اپنی غلطیاں ٹھیک کر کے درست نتائج اخذ کر سکتے ہیں لیکن اس کے باوجود انتہائی بھیانک قسم کی غلطیاں انتہائی تیزی سے دنیا بھر میں پھیل جاتی ہیں۔

مثال کے طور پر پٹسبرگ کے ہسپتالوں میں اعصابی نظام سے متعلق وضع کیے گئے ایک نیٹ ورک ڈیزائن نے نمونیہ کے مریضوں میں دمے کی شناخت خطرہ کم کرنے والے عنصر کے طور پر کی، گوگل کے زیر استعمال تصاویر پہچاننے والے سافٹ ویئر نے ایفرو امریکنز کو گوریلا شناخت کیا اور ملازمت کے امیدواران کی منظم درجہ بندی کے لیے ایمازون کی استعمال کردہ ایک مشین نے عورتوں کو منفی نمبر دیے۔

مسئلہ محض یہ نہیں کہ جب مصنوعی ذہانت غلطی کرتی ہے تو وہ غلطی بڑے پیمانے کی ہوتی ہے۔ بلکہ جب وہ غلطی کرتی ہے تو اکثر و بیشتر اس کے تیار کنندگان نہیں جان پاتے کہ اس نے ایسا کیوں کیا اور اس لیے اسے ٹھیک کرنے سے قاصر ہوتے ہیں۔ مصنوعی ذہانت سے جڑا بلیک باکس مسئلہ خود مختار ہتھیاروں کے نظام کو اخلاقی طور پر ذمہ دارانہ تصور کرنا تقریباً ناممکن بناتا ہے۔ 

پھیلاؤ کے مسائل

اگلے دو خطرات کم اور بڑے پیمانے پر اس کے پھیلاؤ سے متعلق ہیں۔ پہلے کم پیمانے پر پھیلاؤ کی بات کرتے ہیں۔ اس وقت خود مختار ہتھیاروں کے میدان میں جو افواج سرگرم عمل ہیں وہ یہ فرض کیے بیٹھی ہیں کہ خود مختار ہتھیار اور ان کا استعمال ان کی دسترس میں رہے گا۔ لیکن اگر ہتھیاروں کی ٹیکنالوجی نے دنیا کو کوئی چیز سکھائی ہے تو وہ یہ ہے کہ ہتھیاروں کا پھیلاؤ روکا نہیں جا سکتا۔

مارکیٹ کے دباؤ کے نتیجے میں خود مختار ہتھیاروں کی تیاری اور بڑے پیمانے پر فروخت کلاشنکوف کے متبادل کے طور پر دیکھی جا سکتی ہے، قاتل روبوٹس جو سستے، موثر اور پوری دنیا میں پھیلاؤ کی وجہ سے جن پر پابندی تقریباً ناممکن ہو گی۔ خود مختار ’کلاشنکوف‘ ہتھیار عالمی اور مقامی دہشت گردوں سمیت حکومتی باغیوں کے ہاتھ لگ سکتے ہیں۔

تاہم بڑے پیمانے پر پھیلاؤ بھی اتنا ہی خطرناک ہے۔ مسلسل ایک دوسرے سے آگے نکلنے کی خاطر قومیں کیمیائی، حیاتیاتی، ریڈیولوجیکل اور ایٹمی ہتھیاروں سمیت مہلک خود مختار ہتھیار تیار کرنے کے راستے پر نکل سکتی ہیں۔ ہتھیاروں کے مہلک پن میں اضافے کے اخلاقی خدشات ہتھیاروں کے زیادہ استعمال سے بڑھ جائیں گے۔

بڑے پیمانے پر خود مختار ہتھیاروں کے پھیلاؤ سے ممکنہ طور پر زیادہ جنگیں ہوں گی کیوں کہ یہ ان دو بنیادی وجوہات کا خاتمہ کر دیں گے جن کی بدولت ماضی میں جنگیں کم اور مختصر دورانیے کے لیے لڑی گئیں یعنی بیرون ملک شہریوں اور اپنے فوجیوں کے بارے میں تشویش۔ ممکنہ طور پر ان ہتھیاروں کے ساتھ مہنگے اخلاقی نگران بھی منسلک ہوں گے جن کا مقصد عام شہریوں کو نقصان سے بچانا ہو گا بلکہ امریکہ کے نمائندہ خصوصی Agnes Callamard کے الفاظ ادھار لیے جائیں تو ’سرجیکل سٹرائیک کی اساطیر‘ کے استعمال سے اخلاقی احتجاج کو دبانا کو گا۔

خود مختار ہتھیاروں سے اپنے سپاہیوں کو جنگ میں جھونکنے کا خطرہ اور ضرورت دونوں کم ہو جائیں گی جس سے ڈرامائی حد تک وہ جنگی اخراجات کم ہو جائیں گے جو قومیں جنگ شروع کرنے اور اس دوران کرتی ہیں۔

Asymmetric Wars، ایسی جنگیں جو کمزور ٹیکنالوجی والی قوموں کی سرزمینوں پر لڑی جاتی ہیں، ان کی تعداد ممکنہ طور پر بڑھ جائے گی۔ سرد جنگ کے زمانے میں سوویت یونین اور امریکی فوجی دستوں کی مداخلت سے عالمی سطح پر جنم والی غیر مستحکم صورت حال کو یاد کیجیے جو پہلی پراکسی وار سے لے کر آج تک جاری ہے۔ اس سب کو ہر اس ملک سے ضرب دے لیجئیے جو بڑے پیمانے پر خود مختار ہتھیار تیار کرنے کے لیے کمربستہ ہے۔

جنگی قوانین کو سبوتاژ کرنا

بالآخر خود مختار ہتھیار جنگی جرائم اور مظالم کے خلاف انسانی ساختہ آخری رکاوٹیں یعنی عالمی جنگی قوانین بھی پامال کر دیں گے۔ 1864 کے جنیوا کنونشن سے شروع ہو کر بعد میں مسلسل ارتقا سے گزرنے والے یہ قوانین عالمی سطح پر وہ باریک لکیر ہیں جو جنگ کو قتل عام سے الگ کرتے ہیں۔ یہ قوانین اس بات کو یقینی بناتے ہیں کہ جنگ کے دوران بھی اپنے عمل کا لوگوں سے حساب مانگا جا سکتا ہے کیونکہ مخالف سپاہی کو قتل کرنے کے حق کا مطلب یہ نہیں کہ آپ کے پاس عام شہریوں کو مارنے کی بھی کھلی چھٹی ہے۔ کٹہرے میں کھڑا کیے جانے کی ایک نمایاں مثال فیڈرل ری پبلک آف یوگوسلاویہ کے سابق صدر Slobodan Milosevic کی ہے جن سے اقوام متحدہ کے بین الاقوامی ٹربیونل برائے جنگی جرائم کی طرف سے سابق یوگوسلاویہ میں انسانیت سوز جنگی جرائم کے حوالے سے باقاعدہ جواب طلبی کی گئی۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

لیکن خود مختار ہتھیاروں سے جواب طلبی کیسے کی جا سکتی ہے؟ اگر روبوٹ سے جنگی جرائم سرزد ہوتے ہیں تو اس کی ذمہ داری کون لے گا؟ کسے کٹہرے میں کھڑا کیا جائے گا؟ ہتھیار کو؟ سپاہی کو؟ سپاہی کے کمانڈر کو؟ ہتھیار تیار کرنے والی کارپوریشن کو؟ غیر سرکاری تنظیمیں اور عالمی قوانین کے ماہرین فکر مند ہیں کہ خود مختار ہتھیاروں سے جواب دہی کا عمل تعطل کا شکار ہو جائے گا۔

جنگی جرائم کا ارتکاب کرنے والے خود مختار ہتھیار کو جس سپاہی نے چھوڑا ہو گا اگر اس پر ذمہ داری ڈالتے ہوئے اسے گرفتار کر لیا گیا تو پراسیکیوٹرز کو مجرمانہ فعل اور مجرمانہ نیت دونوں ثابت کرنا ہوں گے۔ کیونکہ وہ خود مختار ہتھیار اپنی بنت میں کچھ بھی غیر متوقع کام کر سکتے ہیں سو قانونی لحاظ سے یہ ثابت کرنا مشکل اور اخلاقی لحاظ سے غیر منصفانہ ہو گا۔ میرا خیال ہے خود مختار ہتھیاروں کے ماحول کے مطابق آزادانہ طور پر کیے گئے فیصلے سپاہی کی مداخلت کے مقابلے میں کہیں زیادہ ہوں گے۔

 نقصان کی ذمہ داری اوپر بیٹھی قیادت یا محاذ جنگ پر موجود سپاہی پر ڈالنے سے قانونی اور اخلاقی مشکلات آسان نہیں ہو جائیں گی۔ خود مختار ہتھیاروں پر انسانوں کو بامعنی دسترس دینے والے قوانین کے بغیر دنیا میں جنگی جرائم ہوں گے لیکن جنگی مجرم نہیں جنہیں ذمہ دار ٹھہرایا جا سکے۔ جنگی قوانین کا ڈھانچہ اور عملدرآمدی قوت بھی اچھی خاصی کمزور پڑ جائے گی۔

ایک نئی عالمی دوڑ

ایک ایسی دنیا کا تصور کیجئے جہاں افواج، باغی گروہ اور عالمی و مقامی دہشت گرد نظریے کی حد تک دنیا میں کسی بھی وقت کسی بھی جگہ بغیر کسی رکاوٹ لامحدود مہلک طاقت کا استعمال کر سکتے ہوں اور نتیجتاً انہیں پوچھنے والا بھی کوئی نہ ہو۔ یہ ایک ایسی دنیا ہے جہاں ناگزیر الگورتھمز کی غلطیاں شدید تباہ کن ہو سکتی ہیں، جہاں ایمازون اور گوگل جیسی بڑی بڑی کمپنیاں پورے کے پورے شہر نیست و نابود کر سکتی ہیں۔

میرے خیال کے مطابق دنیا کو جوہری ہتھیاروں کی تیاری جیسا تباہ کن مقابلہ دوبارہ شروع نہیں کرنا چاہیے۔ اسے ان اقدامات سے گریز کرنا چاہیے جس سے انسانوں کی تکالیف میں اضافے کا خدشہ ہو۔


یہ مضمون پہلے ’دی کنورسیشن‘ پر شائع ہوا

whatsapp channel.jpeg

زیادہ پڑھی جانے والی ٹیکنالوجی