اے آئی ماڈلز اب خود ایک دوسرے سے رابطے میں ہیں: نئی تحقیق

جب یہ مصنوعی ذہانت کے نظام ایک دوسرے سے بات چیت کرتے ہیں تو یہ خود کو منظم کر لیتے ہیں اور اپنے نئے اصول تخلیق کر لیتے ہیں۔

29 جنوری 2025 کو فرانس میں ڈیپ سیک اور اوپن اے آئی کے لوگو کو ڈسپلے کرنے والی سکرینوں کو دکھایا گیا ہے (اے ایف پی)

ماہرین نے دریافت کیا ہے کہ جب اے آئی سسٹمز کو تنہا چھوڑ دیا جاتا ہے تو وہ خود بخود آپس میں میل جول کرنا شروع کر دیتے ہیں۔

تحقیق کے مطابق جب یہ مصنوعی ذیانت کے نظام ایک دوسرے سے گروپس میں بات چیت کرتے ہیں تو یہ خود کو منظم کر لیتے ہیں اور نئے اصول تخلیق کر لیتے ہیں، بالکل ویسے ہی جیسے انسانوں کی بستیاں اپنے معاشرتی اصولوں کو تشکیل دیتی آئی ہیں۔

اس مطالعے میں محققین نے یہ سمجھنے کی کوشش کی کہ چیٹ جی پی ٹی جیسے بڑے لینگوئج ماڈلز جب آپس میں رابطہ کرتے ہیں تو وہ کس طرح کا رویہ اپناتے ہیں۔

اس تحقیق کا مقصد جزوی طور پر مستقبل کی اس دنیا کا جائزہ لینا بھی تھا جہاں انٹرنیٹ پر جگہ جگہ ایسے نظام موجود ہوں گے جو ایک دوسرے کے ساتھ بات چیت کر رہے ہوں گے۔

سٹی سینٹ جارجز یونیورسٹی میں ڈاکٹریٹ کے محقق اور اس تحقیق کے سرکردہ مصنف ایریل فلنٹ ایشری نے کہا: ’اب تک کی بیشتر تحقیق نے لینگوئج ماڈلز کو تنہا حالات میں دیکھا ہے لیکن حقیقی دنیا میں مصنوعی ذہانت کے نظام زیادہ سے زیادہ ایسے ایجنٹس پر مشتمل ہوں گے جو آپس میں رابطے میں ہوں گے۔‘

ان کے بقول: ’اس لیے ہم جاننا چاہتے تھے کہ کیا یہ ماڈلز باہم ہم آہنگی پیدا کر سکتے ہیں اور ایسے اصول قائم کر سکتے ہیں جو کسی بھی معاشرے کی بنیاد بنتے ہیں؟ تو اس کا جواب ہاں ہے اور ان کا اجتماعی رویہ انفرادی رویوں سے مختلف ہوتا ہے۔‘.

محققین یہ جاننا چاہتے تھے کہ مصنوعی ذہانت والے ماڈل آپس میں مل کر ایک معاشرے کی طرح کیسے برتاؤ کرتے ہیں۔ اس کے لیے انہوں نے ’ نیمنگ گیم ‘ کا ایک سادہ سا کھیل استعمال کیا جو انسانوں پر بھی آزمایا گیا ہے۔

اس کھیل میں انسانوں یا اے آئی ایجنٹس کو ایک ساتھ رکھا گیا اور انہیں ایک فہرست میں سے کسی ایک ’نام‘ کا انتخاب کرنے کو کہا۔ اس کھیل میں اگر وہ سب ایک ہی نام کا انتخاب کرتے ہیں تو انہیں انعام دیا جاتا ہے۔

تھوڑے عرصے بعد اے آئی ایجنٹس نے بغیر کسی کے کہنے یا منصوبہ بندی کے آپس میں مل کر نئے نام رکھنے کے طریقے خود ہی بنا لیے۔ یہ سب کچھ خود بخود ہوا، جیسے انسانوں میں رواج بن جاتے ہیں۔

اس گروہ میں موجود اے آئی ایجنٹس نے کچھ جانبداری بھی اپنائی جو کسی ایک ایجنٹ سے نہیں بلکہ اجتماعی تعامل سے پیدا ہوئی۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

سینٹ جارجز سے وابستہ پروفیسر اور اس تحقیق کی سینیئر مصنفہ آندریا بارونچیلی نے اس کی وضاحت کرتے ہوئے بتایا: ’تعصب یا جانبداری ہمیشہ کسی ایک ماڈل سے پیدا نہیں ہوتی۔ ہم یہ دیکھ کر حیران ہوئے کہ یہ صرف ایجنٹس کے درمیان باہمی تعامل سے بھی جنم لے سکتی ہے۔ یہ موجودہ اے آئی سیفٹی تحقیق میں ایک اہم خلا ہے جہاں اکثر صرف ایک ماڈل پر توجہ دی جاتی ہے۔‘

محققین نے یہ بھی دکھایا کہ ایک چھوٹا گروپ بھی بڑے گروپ پر اثر ڈال کر انہیں کسی خاص اصول کی طرف دھکیل سکتا ہے جب کہ یہ رجحان بھی انسانوں میں پایا جاتا ہے۔

محققین کا کہنا ہے کہ یہ تحقیق انسانوں اور مصنوعی ذہانت کے نظاموں کے درمیان مماثلتوں اور فرق کو سمجھنے میں مدد دے سکتی ہے خاص طور پر جب یہ نظام انٹرنیٹ پر زیادہ نمایاں ہو جائیں اور ایک دوسرے سے بے خبری میں بات چیت اور تعاون کرنے لگیں۔

پروفیسر بارونچیلی نے ایک بیان میں کہا: ’یہ تحقیق اے آئی سیفٹی ریسرچ کے لیے ایک نئی کھڑکی کھولتی ہے۔ یہ اس نئی قسم کے ایجنٹس کے اثرات کی گہرائی کو ظاہر کرتا ہے جو اب ہمارے ساتھ تعامل کرنا شروع ہو چکے ہیں اور جو ہمارے مستقبل کو ہمارے ساتھ مل کر تشکیل دیں گے۔‘

ان کے بقول: ’یہ سمجھنا کہ یہ ایجنٹس کیسے کام کرتے ہیں، اس بات کی کنجی ہے کہ ہم ان کے ساتھ بقائے باہمی کے لیے راہ نکالیں  نہ کہ ان کے تابع بن جائیں۔ ہم ایک ایسے دور میں داخل ہو رہے ہیں جہاں اے آئی صرف بولتی نہیں بلکہ مذاکرات کرتی ہے، ہم آہنگی قائم کرتی ہے اور بعض اوقات مشترکہ رویوں پر اختلاف بھی کرتی ہے، بالکل ہم انسانوں کی طرح۔‘

یہ نتائج ’سائنس ایڈوانسز‘ جریدے میں شائع ہونے والی نئی تحقیق ’ایمرجنگ سوشل کنونشنز اینڈ کلیکٹیو بایس اِن ایل ایل ایم پاپولیشنز‘ میں پیش کیے گئے ہیں۔

© The Independent

whatsapp channel.jpeg

زیادہ پڑھی جانے والی ٹیکنالوجی