مصنوعی ذہانت سے انسانیت کو خطرہ ہے: ایک ہزار ماہرین کا انتباہ

ماہرین نے کہا ہے کہ اگر کمپنیاں مصنوعی ذہانت ٹیکنالوجی پر خود کام نہیں روکتیں تو حکومتوں کو مداخلت کرنی چاہیے۔

ماہرین کے مطابق مصنوعی ذہانت کی تحقیق اب ایسے مقام پر آ گئی ہے کہ اسے کوئی کنٹرول نہیں کر سکتا (پکسا بے)

ایک ہزار سے زائد ماہرین نے خبردار کیا ہے کہ ’مصنوعی ذہانت کے تجربات‘ سے انسانیت کو خطرہ ہے اور انہیں اس وقت تک روک دینا چاہیے جب تک یہ یقینی نہ بنا لیا جائے کہ ان سے انسان کو کوئی خطرہ نہیں۔

انہوں نے کہا ہے کہ محققین کو چاہیے کہ مصنوعی ذہانت کے نظام کی تیاری پر آئندہ چھ ماہ تک کام روک دیں، اور اگر وہ ایسا نہیں کرتے تو حکومتوں کو مداخلت کرنی چاہیے۔

یہ نتائج ایک نئے کھلے خط میں اخذ کیے گئے ہیں اور اس پر ایلون مسک اور ایپل کمپنی کے شریک بانی سٹیو ووزنیاک سمیت اس شعبے کے ماہرین اور ٹیکنالوجی رہنماؤں کے دستخط ہیں۔

خط میں لکھا ہے کہ مصنوعی ذہانت کے نمایاں امکانات مثبت ہیں۔ انسانیت ٹیکنالوجی کے ساتھ ’پھلتے پھولتے مستقبل سے لطف اندوز ہو سکتی ہے‘ اور اب ہم ’مصنوعی ذہانت کے موسم گرما‘ کے مزے لے سکتے ہیں جس میں ہم ان چیزوں کو اپنا سکتے ہیں جو پہلے سے تخلیق کردہ ہیں۔

لیکن اگر سائنس دان نئے ماڈلز کی تربیت کرتے رہے تو ہو سکتا ہے دنیا کو اس سے کہیں زیادہ مشکل صورت حال کا سامنا کرنا پڑے۔

خط کے مصنفین نے لکھا، ’حالیہ مہینوں میں مصنوعی ذہانت کی لیبارٹریاں زیادہ طاقتور ایسے ڈیجیٹل دماغ تیار اور استعمال کرنے کی دوڑ میں لگی ہیں جنہیں کوئی بھی سمجھ، ان کے متعلق پیش گوئی، یا قابل اعتماد طور پر کنٹرول نہیں کر سکتا۔‘

مصنوعی ذہانت کے خطرات پر مبنی خط پر ٹوئٹر، ایپل اور ٹیسلا کے بانیوں اور چیف ایگزیکٹوز کے علاوہ برکلے، پرنسٹن اور دیگر یونیورسٹیوں کے شعبے کے ماہرین کے دستخط بھی شامل ہیں۔

اس وقت سب سے جدید عوامی طور پر دستیاب مصنوعی ذہانت کا سسٹم جی پی ٹی4 ہے، جسے اوپن اے آئی نامی کمپنی نے بنایا اور اس ماہ کے شروع میں ریلیز کیا تھا۔

خط میں کہا گیا کہ مصنوعی ذہانت کی لیبارٹریوں کو اس سے زیادہ طاقتور کسی بھی نظام پر کام، کم از کم آئندہ چھ ماہ کے لیے روک دینا چاہیے۔

مصنفین نے لکھا، ’یہ وقفہ عوام کے سامنے لایا جائے اور قابل تصدیق ہونا چاہیے، اور اس میں تمام کلیدی ایکٹرز شامل ہونے چاہییں۔ اگر فوری طور پر اس طرح کا تعطل نہیں ہو سکتا، تو حکومتوں کو لازمی مداخلت کرنی اور ایک عارضی پابندی لگانی چاہیے۔‘

انہوں نے کہا کہ ان چھ ماہ کے دوران مصنوعی ذہانت کی لیبارٹریوں اور ماہرین دونوں کو مصنوعی ذہانت کے سسٹم کے ڈیزائن کے لیے نئے اصول بنانے پر کام کرنا چاہیے۔ ان کا مطلب یہ ہونا چاہیے کہ ان کے تحت بنایا گیا کوئی بھی نظام ’معقول شک سے بالاتر حد تک محفوظ‘ ہے۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

اس کا مطلب عام طور پر مصنوعی ذہانت کا کام روکنا نہیں، بلکہ نئے ماڈلز اور صلاحیتوں میں بہتری لانے کو روکنا ہو گا۔

 اس کے بجائے اس تحقیق کو ’آج کے طاقتور، جدید ترین نظاموں کو زیادہ درست، محفوظ، قابل تشریح، شفاف، مضبوط، ہم آہنگ، قابل اعتماد اور وفادار بنانے پر دوبارہ توجہ مرکوز کیا جانا چاہیے۔‘

اسی تعطل کے دوران پالیسی سازوں کو بھی وقت مل سکتا ہے کہ کہ وہ مصنوعی ذہانت کے لیے نئے گورننس سسٹم بنائیں۔

اس میں ایسی اتھارٹیز کا قیام بھی  شامل ہو گا جو اس کی ترقی پر نظر رکھ سکیں اور اس بات کو یقینی بناسکیں کہ وہ خطرناک مقاصد کی طرف نہیں بڑھ رہی۔

فی الوقت اس خط پر پنٹریسٹ، سکائپ، ایپل اور ٹیسلا کے بانیوں اور چیف ایگزیکٹوز کے دستخط ہیں۔ ان میں برکلے، پرنسٹن اور دیگر یونیورسٹیوں کے شعبے کے ماہرین بھی شامل ہیں۔

جو کمپنیاں اپنے مصنوعی ذہانت کے سسٹم پر کام کر رہی ہیں ان میں سے کچھ، جیسا کہ جیسے گوگل کی سرپرست کمپنی الفابیٹ کی ملکیت والی برطانوی مصنوعی ذہانت کی کمپنی ڈیپ مائنڈ کے محققین نے بھی اس خط پر دستخط کیے ہیں۔

ایلون مسک اوپن اے آئی کے بانیوں میں سے ایک تھے، جنہوں نے 2017 کے آخر میں لانچ ہونے پر فنڈنگ کی تھی۔ لیکن حالیہ مہینوں میں وہ بظاہر اس کے کام کے زیادہ مخالف ہو گئے ہیں۔ وہ یہ دلیل دیتے ہیں اس کی توجہ نئے سسٹمز ہیں اور انہیں غلط طریقے سے منافع کمانے کے لیے بنایا جا رہا ہے۔

© The Independent

whatsapp channel.jpeg

زیادہ پڑھی جانے والی ٹیکنالوجی