مصنوعی ذہانت کو باآسانی جھوٹ سکھایا جا سکتا ہے: تحقیق

نئی تحقیق کے مطابق جدید مصنوعی ذہانت کے ماڈلز کو انسانوں اور مصنوعی ذہانت کے دوسرے پروگراموں کو دھوکہ دینے کی تربیت دی جا سکتی ہے۔

چار اپریل، 2017 کو بنگلور میں ایک تقریب کے دوارن ایک شخص مصنوعی ذہانت سے متعلق سائن بورڈ کے قریب سے گزر رہا ہے (اے ایف پی)

نئی تحقیق میں یہ سامنے آیا ہے کہ جدید مصنوعی ذہانت کے ماڈلز کو انسانوں اور مصنوعی ذہانت کے دوسرے پروگراموں کو دھوکہ دینے کی تربیت دی جا سکتی ہے۔

اے آئی سٹارٹ اپ اینتھروپک کے محققین نے ٹیسٹ کیا کہ کیا انسانی سطح کی مہارت والے چیٹ بوٹس، جیسے کہ اسی کمپنی کا مصنوعی ذہانت کا کلوڈ نامی نظام یا اوپن اے آئی کا چیٹ جی پی ٹی لوگوں کو دھوکہ دینے کے لیے جھوٹ بولنا سیکھ سکتے ہیں۔

محققین کے علم میں آیا کہ مصنوعی ذہانت کے پروگرام ناصرف جھوٹ بول سکتے ہیں بلکہ ایک بار ان کے دھوکہ دینا سیکھ لینے کے بعد مصنوعی ذہانت کے لیے موجودہ حفاظتی اقدامات کے ذریعے اس رویے کا خاتمہ ناممکن ہے۔

ایمازون کی مالی اعانت سے چلنے والے سٹارٹ اپ نے اپنے مفروضے کی جانچ کے لیے ایک ’سلیپر ایجنٹ‘ تیار کیا۔

مصنوعی ذہانت کے اس اسسٹنٹ کو کچھ اشارے ملنے اور مخصوص لفظ کے استعمال پر نقصان دہ کمپیوٹر کوڈ لکھنا یا نقصان دہ جواب دینا تھا۔

محققین نے متنبہ کیا کہ مصنوعی ذہانت کے خطرات کے معاملے میں ’تحفظ کا غلط احساس‘ پایا جاتا ہے جس کی وجہ اس طرح کے طرز عمل کو روکنے کے لیے موجودہ حفاظتی نظام کی کمزوری ہے۔

اس تحقیق کے نتائج ایک مطالعے میں شائع کیے گئے جس کا عنوان تھا ’سلیپر ایجنٹس: گمراہ کن ایل ایل ایمز (لارج لینگوئج ماڈلز) کی تربیت جو حفاظتی تربیت کے عمل میں بھی برقرار رہتی ہے۔‘

محققین نے مطالعے میں لکھا کہ ’ہمیں معلوم ہوا کہ مخالفانہ تربیت ماڈلز کو مخصوص پوشیدہ تکنیک کو بہتر طریقے سے پہچاننے اور غیر محفوظ رویے کو مؤثر طریقے سے چھپانا سکھا سکتی ہے۔‘

’ہمارے نتائج سے پتہ چلتا کہ ایک بار جب (مصنوعی ذہانت کا) کوئی ماڈل دھوکہ دینا شروع کرتا ہے تو معیاری تکنیک اس طرح کے دھوکے کو دور کرنے میں ناکام ہوسکتی ہے اور حفاظت کا غلط تاثر پیدا کر سکتی ہے۔‘

مصنوعی ذہانت کی حفاظت کا مسئلہ حالیہ برسوں میں محققین اور قانون سازوں دونوں کے لیے بڑھتی ہوئی تشویش بن چکا ہے۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

چیٹ جی پی ٹی جیسے جدید چیٹ بوٹس کی آمد کے بعد متعلقہ انتظامی اداروں نے نئی سمت میں توجہ مرکوز کی ہے۔

نومبر 2023 میں چیٹ جی پی ٹی کے سامنے آنے کے ایک سال بعد برطانیہ نے اے آئی سیفٹی سمٹ کا اہتمام کیا تاکہ ٹیکنالوجی کے میدان خطرات کو کم کرنے کے طریقوں پر تبادلہ خیال کیا جاسکے۔

اس سربراہ کانفرنس کی میزبانی کرنے والے برطانوی وزیر اعظم رشی سونک نے کہا کہ مصنوعی ذہانت کے ذریعے آنے والی تبدیلیاں صنعتی انقلاب کی طرح ’دور رس‘ ہوسکتی ہیں اور ان سے پیدا ہونے والے خطرے کو وبائی امراض اور جوہری جنگ کے پہلو بہ پہلو عالمی ترجیح سمجھا جانا چاہیے۔

رشی سونک کے بقول: ’غلط سمجھنے کی صورت میں مصنوعی ذہانت کیمیائی یا حیاتیاتی ہتھیار بنانا آسان بنا سکتی ہے۔

’دہشت گرد گروہ بڑے پیمانے پر خوف اور تباہی پھیلانے کے لیے مصنوعی ذہانت کا استعمال کرسکتے ہیں۔‘

’جرائم پیشہ افراد سائبر حملوں، دھوکہ دہی یا یہاں تک کہ بچوں کے جنسی استحصال کے لیے مصنوعی ذہانت کا استعمال کرسکتے ہیں۔

’حتیٰ کہ اس بات کا بھی خطرہ ہے کہ انسانیت مصنوعی ذہانت پر کنٹرول مکمل طور پر کھو سکتی ہے اس اے آئی کی وجہ سے جسے کبھی کبھی سپر انٹیلی جنس کہا جاتا ہے۔‘

مستند خبروں اور حالات حاضرہ کے تجزیوں کے لیے انڈپینڈنٹ اردو کے وٹس ایپ چینل میں شامل ہونے کے لیے یہاں کلک کریں۔

© The Independent

whatsapp channel.jpeg

زیادہ پڑھی جانے والی تحقیق