مصنوعی ذہانت اپنی وضاحت کرنے میں بری طرح ناکام

محققین کا کہنا ہے کہ چیٹ جی پی ٹی ممکنہ طور پر ایسے تصورات کا استعمال کر رہی ہے جن کو انسان نہیں سمجھتے یا ان کے لیے الفاظ ہی نہیں۔

یکم فروری، 2023 کو جینیوا میں ایک ورک شاپ کے دوران لیپ ٹاپ پر چیٹ جی پی ٹی باٹ دکھائی دے رہا ہے (اے ایف پی)

چیٹ جی پی ٹی کے تخلیق کاروں نے کوشش کی ہے کہ سسٹم اپنی وضاحت خود کر سکے۔

انہیں معلوم ہوا کہ جب انہیں کچھ کامیابی ملی ہی تھی تو وہ کچھ مسائل میں الجھ گئے۔ ان میں یہ حقیقت بھی شامل ہے کہ مصنوعی ذہانت ایسے تصورات کا استعمال کر رہی ہے جن کا انسانوں کو علم نہیں یا انہیں سمجھ نہیں سکتے۔
چیٹ جی پی ٹی تیار کرنے والے اوپن اے آئی کے محققین نے جی پی ٹی -2 کے طرز عمل کی وضاحت کرنے کی کوشش کرنے میں اپنے ماڈل کے حالیہ ورژن جی پی ٹی فور کا استعمال کیا۔
یہ جی پی ٹی جیسے بڑے لینگویج ماڈلز کے ساتھ نام نہاد بلیک باکس کے مسئلے پر قابو پانے کی ایک کوشش ہے۔
اگرچہ ہمیں اس بات کی نسبتاً اچھی سمجھ ہے کہ اس طرح کے سسٹم میں جاتا کیا اور نکلتا کیا ہے، لیکن اصل کام جو اندر ہوتا ہے وہ بڑی حد تک پراسرار رہتا ہے۔

یہ صرف اس لیے ایک مسئلہ نہیں کہ یہ محققین کے لیے چیزوں کو مشکل بنا دیتا ہے۔ اس کا مطلب یہ بھی ہے کہ اس سسٹم میں استعمال ہونے والے ممکنہ تعصبات یا اگر یہ اپنے صارفین کو غلط معلومات فراہم کررہا ہے، تو اسے جاننے کا امکان بہت کم ہے کیونکہ یہ جاننے کا کوئی طریقہ نہیں ہے کہ یہ کس طرح اس نتیجے پر پہنچا۔

انجینیئروں اور سائنس دانوں نے اس مسئلے کو ’تشریحی تحقیق‘ کے ساتھ حل کرنے کا ارادہ کیا ہے، جو ماڈل کے اندر ہی دیکھنے اور جو کچھ ہو رہا ہے اسے بہتر طریقے سے سمجھنے کے طریقے تلاش کرنے کے لیے ہے۔
اس کے لیے اکثر ’نیورون‘ کو دیکھنے کی ضرورت ہوتی ہے جو اس طرح کا ماڈل بناتے ہیں: انسانی دماغ کی طرح، ایک مصنوعی ذہانت کا سسٹم نام نہاد نیوٹرونز کے ہوسٹ پر مشتمل ہوتا ہے جو اس کی استعمال کردہ معلومات کو ظاہر کرتے ہیں۔
تاہم، ان کو تلاش کرنا مشکل ہے کیونکہ انسانوں کو نیورونز منتخب کرنے پڑتے ہیں اور مینوئلی پر ان کا معائنہ کرنا پڑتا ہے تاکہ یہ معلوم کیا جاسکے کہ ان کے پیچھے کیا ہے۔
لیکن کچھ سسٹمز میں سینکڑوں ارب پیرامیٹرز ہوتے ہیں لہذا اصل میں ان سب کا انسانوں کے ذریعے معائنہ ناممکن ہے۔

اب اوپن اے آئی کے محققین نے اس عمل کو خودکار بنانے کے لیے جی پی ٹی فور کا استعمال کرنے پر غور کیا ہے تاکہ طرز عمل کو زیادہ تیزی سے سمجھا جاسکے۔

انہوں نے ایک خودکارعمل تخلیق کرنے کی کوشش کرکے ایسا کیا، جس سے سسٹم کو نیورون کے طرز عمل کی قدرتی زبان کی وضاحت فراہم کرنے میں مدد ملے گی۔ اور اسے ایک اور سابقہ زبان کے ماڈل پر استعمال کیا۔
اس نے تین مراحل میں کام کیا: جی پی ٹی ٹو میں نیورون کو دیکھا اور جی پی ٹی فور نے اس کی وضاحت کرنے کی کوشش کرنا۔ پھر اس نیورون کی نقل کی، تیار کردہ نقل اصل کے ساتھ کس طرح کام کرتی ہے، اس کی درجہ بندی کر کے اپنی ہی وضاحت کے ساتھ موانہ کیا۔
ان میں سے زیادہ تر وضاحتیں بری ثابت ہوئیں اور جی پی ٹی فور نے خود کو بہت کم نمبر دیے۔
لیکن محققین کا کہنا تھا انہیں امید ہے کہ تجربے سے معلوم ہوگا کہ مزید کام سے مصنوعی ذہانت اپنی وضاحت کر سکے گی۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

تاہم تخلیق کاروں کو متعدد ’رکاوٹوں‘ کا سامنا کرنا پڑا۔ اس کا مطلب یہ ہے کہ موجودہ نظام طرز عمل کی وضاحت کرنے میں انسانوں کی طرح اچھا نہیں۔

یہ وضاحت کرنا بھی مسئلے کا ایک حصہ یہ ہوسکتا ہے کہ نظام عام زبان میں کیسے کام کر رہا ہے ناممکن ہے کیونکہ نظام انفرادی تصورات استعمال کر سکتا ہے جنہیں انسان نام نہیں دے سکتے۔
مصنفین لکھتے ہیں، ’ہم نے مختصر قدرتی زبان کی وضاحت پر توجہ مرکوز کی، لیکن نیورونز کا رویہ بہت پیچیدہ ہوسکتا ہے جسے مختصر طور پر بیان کرنا ناممکن ہے۔
’مثال کے طور پر، نیورونز انتہائی پولیسیمینٹک ہوسکتے ہیں (بہت سے مختلف تصورات کی نمائندگی کرنے والے) یا واحد تصورات کی نمائندگی کرسکتے ہیں جن کو انسان نہیں سمجھتے یا ان کے لیے الفاظ ہی نہیں۔‘
مسائل اس وجہ سے بھی ہو سکتے ہیں کیوں کہ یہ بالخصوص اس بات پر مرکوز ہے کہ ہر نیورون انفرادی طور پر کیا کرتا ہے، اور اس پر نہیں کہ بعد میں متن چیزوں کو کس طرح متاثر کرسکتا ہے۔
اسی طرح یہ مخصوص طرز عمل کی وضاحت کرسکتا ہے لیکن یہ نہیں کہ کون سا میکانزم اس طرز عمل کو پیدا کررہا ہے، اور اس طرح اس کی نشاندہی ہوسکتی ہے۔
محققین نے نوٹ کیا کہ یہ نظام کمپیوٹنگ کی بہت زیادہ طاقت بھی استعمال کرتا ہے۔

© The Independent

whatsapp channel.jpeg

زیادہ پڑھی جانے والی ٹیکنالوجی