کیسے اے آئی کی جعلی آوازوں پر مبنی فراڈ انٹرنیٹ پر خطرہ بن رہے ہیں؟

سینسٹی کمپنی مختلف اداروں کی مدد کے لیے ویڈیو کال میں شامل افراد کے چہروں اور آوازوں کو ہر چند سیکنڈ بعد سکین کرتی ہے تاکہ جعلی ویڈیو کو پکڑا جا سکے۔ لیکن انسانوں کے لیے ایسے ڈیپ فیک کو پکڑنا تقریباً ناممکن ہے۔

دنیا بھر میں انٹرنیٹ پر ڈیپ فیک آڈیو فراڈ کافی تیزی سے بڑھ رہے ہیں (تصویر: اینوتو)

یہ بالکل ایک الجھا ہوا منظر لگ رہا تھا۔ نوڈلز اور جسمانی اعضا کسی حد تک انسانی شکل بناتے ہوئے دکھائی دے رہے تھے، مگر زیادہ تر ونسنٹ وین گوخ کی بے ترتیب اور غیر متاثرکن پینٹنگ جیسا منظر تھا۔

خود فریش پرنس، ول سمتھ، کسی حد تک پہچانے جا سکتے تھے، لیکن صرف اپنے 90 کی دہائی کے بالوں کے مخصوص انداز اور نئے دور کی صرف ٹھوڑی پر موجود داڑھی کی وجہ سے۔ ویڈیو کلپ میں حقیقی انسان جیسا کچھ نہیں تھا۔ یہ ول اسمتھ نہیں تھے جو سپیگٹی کھا رہے تھے۔ بلاشبہ نہیں۔

یہ 2023  کی بات ہے۔ ایک مختصر کلپ سامنے آیا جو اس وقت کے مقبول ترین جنریٹیو اے آئی سافٹ ویئر کی عکاسی کرتا تھا۔ اس کلپ میں ماڈل سکوپ کے ٹیکسٹ ٹو ویڈیو جنریٹر کے ذریعے ہالی ووڈ اداکار ول سمتھ کو سپگیٹی کھاتے ہوئے دکھایا گیا۔ دیکھنے میں وہ منظر کسی بے ترتیب اور الجھی ہوئی پینٹنگ جیسا لگ رہا تھا۔

اس ویڈیو کو ریڈاِٹ پر پوسٹ کیا گیا اور لوگوں نے اس کا خوب مذاق اڑایا۔ کچھ لوگ البتہ یہ سوچنے لگے کہ شاید یہی اگلی بڑی ٹیکنالوجی ہے۔ اس وقت میٹاورس غیر مقبول ہو رہا تھا اور این ایف ٹیز(نان فنجیبل ٹوکن یا ڈیجیٹل اثاثے کی ملکیت کا ثبوت) اپنی قدر تقریباً کھو چکے تھے۔

آج کے دن تک آتے آتے صورت حال کافی بدل چکی ہے۔ گوگل کے نئے پروگرام وی ای او تھری کی مدد سے بنائی گئی ایک تازہ اے آئی ویڈیو میں ول سمتھ دوبارہ سپگیٹی کھاتے دکھائی دیتے ہیں۔ نوڈلز کی آواز اب بھی کچھ عجیب ہے لیکن دیکھنے میں منظر اتنا حقیقی ہے کہ یقین کرنا مشکل ہے۔

یہ ویڈیو تیار کرنے والی اے آئی کی برق رفتاری سے ترقی کی واضح مثال ہے۔ ٹیکسٹ، ویڈیو، تصاویر اور آڈیو کی تخلیق کے ساتھ ڈیپ فیک ٹیکنالوجی میں بھی انتہائی تیزی سے بہتری آئی ہے جس سے ٹیکنالوجی کمپنیاں اور ان کے سرمایہ کار بے حد خوش ہیں۔ مگر یہی ٹیکنالوجی اب بدنیت افراد کے بھی کام آ رہی ہے۔

سیاسی گمراہی کے لیے اس کا استعمال اب عام ہو گیا ہے، مگر اس کے حقیقی اثرات پر اب بھی بحث جاری ہے۔ لیکن اگر ول سمتھ کو مصنوعی طور پر سپگیٹی کھلاتی ہوئی ویڈیو بن سکتی ہے، تو پھر آپ کی، آپ کے باس کی یا آپ کے خاندان والوں کی ایسی ویڈیوز کیوں نہیں بن سکتیں؟

صرف ایک کلک میں لائیو ڈیپ فیک

2018 سے ’سینسٹی‘ کمپنی ڈیپ فیک کے پھیلاؤ اور اس کے ذریعے ہونے والی دھوکہ دہی پر نظر رکھے ہوئے ہے۔ سینسٹی کی ایک رپورٹ کے مطابق اس وقت اے آئی کے ذریعے چہرہ بدلنے، ہونٹوں کی حرکت اور تاثرات کو مصنوعی طور پر پیدا کرنے والے 2298 سافٹ ویئر دستیاب ہیں، جن میں سے کئی اوپن سورس ہیں۔ یعنی ہر کوئی آسانی سے جدید ٹیکنالوجی استعمال کر سکتا ہے۔

سینسٹی کے شریک بانی فرانچیسکو کَوالی نے بتایا کہ ’پہلے میں تجویز کرتا تھا کہ کسی ویڈیو کال میں لوگوں سے کہیں کہ وہ اپنا ہاتھ چہرے کے سامنے لائیں تاکہ ڈیپ فیک واضح ہو جائے۔ مگر اب ایسے ماڈل آ گئے ہیں جن میں آپ اپنا چہرہ چھوئیں یا روشنی ڈالیں تب بھی وہ ڈیپ فیک ماڈل ٹوٹتے نہیں۔‘

گذشتہ سال گِٹ ہب پر ایک پروگرام بہت مشہور ہوا جس میں لوگ اپنی شکل کو رابرٹ ڈاؤنی جونیئر یا مارک زکربرگ کی شکل میں تبدیل کر رہے تھے۔ اس پروگرام کا دعویٰ تھا کہ صرف تین کلک میں لائیو ڈیپ فیک بن سکتا ہے۔ لیکن اسی ٹیکنالوجی کا منفی استعمال بھی عام ہے۔ گذشتہ سال ایک مالیاتی کمپنی کے ملازم کو ویڈیو کال کے دوران ڈیپ فیک ویڈیو سے دھوکہ دے کر 25 کروڑ ڈالر کا فراڈ کیا گیا۔ اس کال میں اس کے ساتھیوں کے چہرے اور آوازیں سب جعلی تھیں۔

ایلن ٹیورنگ انسٹی ٹیوٹ کی 2024 کی رپورٹ میں کہا گیا کہ تقریباً 90 فیصد لوگ اس مسئلے پر تشویش کا شکار ہیں لیکن ڈیپ فیک پہچاننے کی صلاحیت پر انہیں اعتماد نہیں۔ کوالی کہتے ہیں کہ ڈیپ فیک بنانے کے لیے آپ کی صرف ایک تصویر کافی ہے، اور آپ کی تصاویر شاید پہلے ہی میٹا کے اے آئی ماڈلز کی تربیت کے لیے استعمال ہو چکی ہوں۔

سینسٹی کمپنی مختلف اداروں کی مدد کے لیے ویڈیو کال میں شامل افراد کے چہروں اور آوازوں کو ہر چند سیکنڈ بعد سکین کرتی ہے تاکہ جعلی ویڈیو کو پکڑا جا سکے۔ لیکن انسانوں کے لیے ایسے ڈیپ فیک کو پکڑنا تقریباً ناممکن ہے۔

آڈیو فیک اصل خطرہ ہیں

گلاسگو یونیورسٹی کی پروفیسر للیان ایڈورڈز کہتی ہیں کہ ڈیپ فیک ویڈیو کے مقابلے میں جعلی آڈیوز زیادہ خطرناک ہیں۔ ان کا کہنا ہے کہ اگر ویڈیو جعلی ہو تو اس کے پکڑے جانے کے امکانات زیادہ ہوتے ہیں، لیکن آڈیو زیادہ ذاتی اور مؤثر ہوتی ہے۔

حال ہی میں کینیڈا میں ایک خاتون کو اس کے بیٹے کی آواز میں کال آئی۔ خاتون نے مشکوک ہو کر فون بند کر دیا اور اپنے سوئے ہوئے بیٹے کو فون کر کے تصدیق کی۔ معلوم ہوا کہ وہ کال جعلی تھی۔ اس خاتون کا کہنا تھا کہ ’وہ بالکل میرے بیٹے کی آواز تھی۔‘ ایسی آڈیو بنانا اب صرف چند منٹ کی ریکارڈنگ سے ممکن ہے۔

ایڈورڈز کے مطابق ڈیپ فیک ویڈیوز کا 90 سے 95 فیصد غیر اخلاقی مواد پر مبنی ہوتا ہے اور اس کا نشانہ زیادہ تر خواتین بنتی ہیں۔ انٹرنیٹ کے مختلف حصوں میں خواتین، مشہور شخصیات حتیٰ کہ بچوں کی بھی جعلی تصاویر اور ویڈیوز بنائی جا رہی ہیں۔

مزید پڑھ

اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)

نیوڈیفائی ایپس، جن میں اے آئی پروگرام کسی تصویر کو مصنوعی طریقے سے غیر اخلاقی عریاں تصویر میں بدل دیتے ہیں، بھی مقبول ہو رہی ہیں۔ یہ تصاویر سوشل میڈیا پر بھی پھیل رہی ہیں، اور سوشل میڈیا پلیٹ فارمز ان کی روک تھام میں مشکل کا شکار ہیں۔ میٹا کے نمائندے نے سی بی ایس نیوز کو بتایا: ’ان استحصالی ایپس کے پیچھے موجود لوگ اپنی حکمت عملی مسلسل بدلتے رہتے ہیں تاکہ پکڑے جانے سے بچ سکیں۔‘

خوش قسمتی سے اس معاملے پر برطانیہ میں واضح قوانین موجود ہیں۔ یہاں ڈیپ فیک تصاویر اور ویڈیوز بنانا اور پھیلانا دونوں ہی غیر قانونی ہیں۔

کیا عدالتی نظام تیار ہے؟

لیکن یہ سوال اہم ہے کہ ہمارے عدالتی اور دیگر نظام ایسی ٹیکنالوجی سے نمٹنے کے لیے تیار ہیں؟ فرض کریں ٹریفک یا گاڑی کھڑی کرنے کا کوئی جھگڑا ہو جائے اور کوئی شخص جعلی تصویر یا ویڈیو سے عدالت کو گمراہ کرے تو کیا ہو گا؟ انشورنس کمپنیاں بھی جعلی کلیمز سے پہلے ہی پریشان ہیں۔

جب مصنوعی ذہانت خود ہمارے خلاف ہو جائے

شاید اس ٹیکنالوجی کا سب سے بڑا نقصان وہ گمراہی ہے جو ہم خود اپنے لیے پیدا کر رہے ہیں۔ آکسفورڈ یونیورسٹی کی پروفیسر سینڈرا واخٹر نے چیٹ جی پی ٹی جیسی ٹیکنالوجی پر تحقیق کی جو غلط معلومات بہت اعتماد کے ساتھ فراہم کرتی ہے۔ وہ کہتی ہیں کہ ’یہ نظام آپ کو حقیقت نہیں بتاتا، بلکہ آپ کو بس مصروف رکھنے کے لیے ہے۔‘

گذشتہ برسوں میں ایسی بھی اطلاعات سامنے آئیں جن کے مطابق چیٹ جی پی ٹی کے غلط مشوروں نے لوگوں کی نجی زندگیوں میں مسائل پیدا کیے۔ اس کے باوجود تقریباً 40 کروڑ افراد ہفتہ وار اسے استعمال کر رہے ہیں اور یہ تعداد بڑھ رہی ہے۔

حال ہی میں ایک جعلی ویڈیو وائرل ہوئی جس میں ’جذباتی مدد فراہم کرنے والے کینگرو‘ کو طیارے میں سوار ہونے سے روکا گیا۔ بہت سے لوگوں نے اسے حقیقی سمجھا۔ ہم سب اس طرح کی جعلی ویڈیوز دیکھنے کے عادی ہو گئے ہیں۔ یہ ہماری نفسیات کا امتحان ہے کہ کیا ہم حقیقت اور فریب میں فرق کر پائیں گے یا نہیں۔

یہ واضح ہے کہ ’غلط ذاتی معلومات‘ کے اس دور میں ہمیں قانونی اور تکنیکی کے ساتھ ساتھ نفسیاتی تحفظ کی بھی اشد ضرورت ہے۔ اور اگر کبھی ہم دھوکہ کھا جائیں، تو شاید ہمیں یاد رکھنا چاہیے کہ آخر ہم انسان ہی تو ہیں۔

© The Independent

whatsapp channel.jpeg

زیادہ پڑھی جانے والی ٹیکنالوجی