اے آئی کی مدد سے تخلیق کردہ تصاویر، اصل اور نقل کا فرق کسیے ہو؟
آج کل آرٹیفیشل انٹیلیجنس یا مصنوعی ذہانت کی مدد سے بنائی گئی تصاویر انٹرنیٹ پر وائرل ہو رہی ہیں۔ حقیقی اور جعلی تصاویر کا فرق کیسے کیا جائے؟ جانیے ڈی ڈبلیو کی اس فیکٹ چیک اسٹوری میں۔
ایسی تصاویر بنانا اب سے پہلے کبھی آسان نہیں رہا جتنا اب ہے کہ حیران کن حد تک حقیقت سے قریب تر ہوں مگر جعلی ہوں۔ کوئی بھی فرد جس کے پاس انٹرنیٹ کی سہولت موجود ہو اور جو آرٹیفیشل انٹلیجنس کا استعمال جانتا ہو وہ ایسی تصاویر چند سیکنڈز میں تخلیق کر سکتا ہے اور یہ تصاویر سوشل میڈیا پر بہت تیزی سے وائرل ہو سکتی ہیں۔
گزشتہ چند دنوں میں ایسی کئی تصاویر وائرل ہوئی ہیں۔ جیسے کہ روسی صدر ولادیمیر پوتن کی گرفتاری یا جنرل موٹرز کی سی ای او میری بارا اور ایلون مسک کو ایک دوسرے کا ہاتھ تھامے ہوئے دیکھا جا سکتا ہے۔ یہ کئی مثالوں میں سے فقط دو ہیں۔ انٹرنیٹ پر ایسی کئی مثالیں موجود ہیں۔
مسئلہ یہ ہے کہ اے آئی سے تخلیق کردہ یہ دونوں تصاویر ایسے واقعات کو ظاہر کرتی ہیں جو کبھی رونما ہی نہیں ہوئے۔ یہاں تک کہ فوٹوگرافروں نے بھی ایسے پورٹریٹ شائع کیے ہیں جو مصنوعی ذہانت سے بنائی گئی ہیں۔ اگرچہ ان میں سے کچھ تصاویر مضحکہ خیز ہو سکتی ہیں تاہم ڈی ڈبلیو نے جن ماہرین سے بات کی، ان کے مطابق یہ غلط معلومات اور پروپیگنڈے کے لحاظ سے حقیقی خطرات کا باعث بن سکتی ہیں۔
روسی صدر ولادیمیر پوتن یا سابق امریکی صدر ڈونلڈ ٹرمپ جیسے سیاستدانوں کی گرفتاری دکھانے والی تصاویر کی تصدیق معتبر اور قابل بھروسا ذرائع سے فوراﹰ کی جا سکتی ہے۔ تاہم، اے آئی کے ماہر ہنری اجڈر نے ڈی ڈبلیو کو بتایا کہ دیگر تصاویر کی حقیقت معلوم کرنا زیادہ مشکل ہوتا ہے۔ جیسے کہ وہ تصاویر جن میں موجود لوگ اتنے معروف نہ ہوں۔
اس کی ایک مثال یہ ہے کہ انتہائی دائیں بازو کی پارٹی اے ایف ڈی کے ایک جرمن رکن پارلیمان نے اپنے انسٹاگرام اکاؤنٹ پر اے آئی کی مدد سے بنی ہوئی چیختے ہوئے مردوں کی تصویر پوسٹ کی تاکہ یہ ظاہر کیا جا سکے کہ وہ ملک میں مہاجرین کی آمد کے خلاف ہے۔ اجڈر کے مطابق اے آئی کی مدد سے بنائی گئی صرف لوگوں کی تصاویر ہی غلط فہمی کا باعث نہیں بنتیں بلکہ ایسے واقعات اور حادثات کی تصاویر بھی سامنے آئے ہیں جو کبھی رونما ہی نہیں ہوئے۔ ایسا ہی کچھ 2001 میں ہوا جب یہ خبر عام ہوئی کہ امریکہ اور کینیڈا کے بحر الکاہل کے شمال مغربی علاقے میں زلزلہ آیا ہے اور اس حادثے نے خطے کو ہلا کر رکھ دیا۔
تاہم یہ حادثہ کبھی پیش آیا ہی نہیں اور انٹرنیٹ پر لگائی گئی تصاویر اے آئی کی مدد سے تخلیق کی گئیں تھیں۔ اجڈر کے مطابق یہ زیادہ پریشانی کی بات ہے کیونکہ انسانی تصاویر کے مقابلے میں جگہوں کی تصاویر کے متعلق سچائی جاننا ایک مشکل امر ہے۔ تاہم بہت تیزی سے ترقی کرنے کے باوجود یہ اے آئی ٹولز بھی غلطیاں کر سکتے ہیں۔ اپریل 2023 تک مڈ جرنی، ڈال ای اور ڈیپ اے آئی جیسے پروگارمز میں کئی غلطیاں دیکھی گئی ہیں۔خصوصاﹰ ان تصاویر میں جن میں لوگ دکھائی دے رہے ہوں۔
ڈی ڈبلیو کی حقائق کی جانچ کرنے والی ٹیم نے کچھ تجاویز مرتب کی ہیں جن سے آپ کو یہ اندازہ لگانے میں مدد مل سکتی ہے کہ آیا کوئی تصویر جعلی ہے یا نہیں۔ لیکن محتاط رہیں، اے آئی ٹولز اس تیزی سے ترقی کی طرف گامزن ہیں کہ یہ ٹپس صرف فوری طور پر ہی کارآمد ثابت ہو سکتی ہیں۔
زوم ان کریں اور غور سے دیکھیں
اے آئی سے بنائی گئی بہت سی تصاویر پہلی نظر میں حقیقی لگتی ہیں۔ اس لیے ہمارا پہلا مشورہ، انہیں زوم کریں اور غور سے دیکھیں ہے۔ایسا کرنے کے لیے ہائی ریزولوشن والی تصویر کا انتخاب کریں۔ تصاویر کو زوم کرنے سے اس میں موجود غلطیاں واضح ہوں گی جو شاید پہلی نظر میں دکھائی نہ دی ہوں۔
’امیج سورس‘ تلاش کریں
اگر آپ کو یقین نہیں ہے کہ کوئی تصویر اصلی ہے یا اے آئی کی مدد سے تیار کی گئی ہے تو اس تصویر کا سورس تلاش کریں۔ جہاں یہ تصویر سب سے پہلے شائع کی گئی تھی اس کے نیچے کیے گئے کمنٹس میں صارفین کے کمنٹس سے بھی آپ کو مدد مل سکتی ہے۔ اس کے لیے آپ ریورس امیج سرچ ٹیکنیک کا استعمال بھی کر سکتے ہیں۔ ایسا کرنے کے لیے 'گوگل امیج ریورس سرچ‘ 'ٹن آئی‘ یا یانڈیکس جیسے ٹولز کا استعمال کر کے اس تصویر کی حقیقت جان سکتے ہیں۔
جسمانی ساخت پرتوجہ دیں
کیا تصویر میں دکھائے گئے لوگوں کے جسمانی ساخت میں کچھ گڑبڑ ہے؟ جب جسمانی ساخت کی بات آتی ہے تو اے آئی سے تیار کردہ تصاویر میں تضادات دکھنا کوئی نئی بات نہیں ہے۔ ہاتھ بہت چھوٹے یا انگلیاں بہت لمبی ہو سکتی ہیں۔ یا سر اور پاؤں باقی جسم سے میل نہیں کھاتے۔ یہی حال اوپر کی تصویر کا ہے، جس میں پوٹن کو شی جن پنگ کے سامنے گھٹنے ٹیکے دیکھا جا سکتا ہے لیکن پوٹن کا ایک جوتا بڑا اور چوڑا ہے۔
اے آئی کی غلطیوں پر نظر رکھیں
اے آئی کی عمومی غلطیوں میں انسانی ہاتھوں کی ساخت کو دیکھا جا سکتا ہے۔ مڈ جرنی جیسے پروگرام میں ہاتھ میں چھٹی انگلی کی موجودگی اس کی ایک مثال ہے۔ لیکن کیا آپ کو محسوس ہوا کہ پوپ فرانسس کی دائیں والی تصویر میں صرف چار انگلیاں ہیں؟ اور کیا آپ نے دیکھا کہ ان کی بائیں ہاتھ کی انگلیاں غیر معمولی طور پر لمبی ہیں؟ یہ تصاویر جعلی ہیں۔
اے آئی سے بنائی گئی تصاویر میں اور بھی بہت سی غلطیاں ہوتی ہیں جسیے کے لوگوں کے معمول سے زیادہ دانت یا کانوں کی ایسی ساخت جو عجیب و غریب ہو۔ آپ پوٹن اور شی والی تصویر ایک بار پھر دیکھ لیں۔ تاہم، اے آئی کے ماہر ہنری اجڈر نے خبردار کیا ہے کہ مڈجرنی جیسے پروگراموں کے نئے ورژن ہاتھوں کی ساخت بہتر دکھانے کے قابل ہو رہے ہیں جس کا مطلب ہے کہ صارفین اس قسم کی غلطیوں پر تصاویر کو پرکھنے پر زیادہ دیر تک انحصار نہیں کر سکیں گے۔
کیا تصاویر نکلی اور بے عیب دکھائی دیتی ہیں؟
مڈجرنی ایپ خاص طور پر ایسی تصاویر بناتی ہے جو حقیقت سے قریب تر لگتی ہیں۔ اسی صورت میں آپ کو اپنے قوتِ فیصلہ کا استعمال کرنا ہوگا۔ کیا ایسی بے عیب اور بہترین تصویر حقیقی ہو سکتی ہے؟ جرمن ریسرچ سینٹر فار اے آئی کے اینڈریاس ڈینگل نے ڈی ڈبلیو کو بتایا، ''چہرے بہت خالص ہیں اور جو کپڑے دکھائے گئے ہیں وہ بھی بہت ہم آہنگ ہیں۔‘‘
اے آئی کی تصاویر میں لوگوں کے نقش و نگار بلکل پرفیکٹ دکھائی دیتے ہیں اور ان کے بال اور دانت بھی بے عیب نظر آتے ہیں جو کہ اصل زندگی میں ممکن نہیں۔کچھ تصاویر تو اتنی شاندار ہوتی ہیں کہ پروفیشنل فوٹوگرافر بھی دھوکا کھا جاتے ہیں۔
پس منظر کا جائزہ لیں
کسی تصویر کا پس منظر اکثر یہ ظاہر کر سکتا ہے کہ آیا اس میں ہیرا پھیری کی گئی ہے یا نہیں۔ کچھ کیسز میں اے آئی پروگرامز لوگوں اور اشیا کو دو بار استعمال کرتے ہیں اس لیے اے آئی سے بنی تصاویر کا پس منظر دھندلا ہو سکتا ہے۔ لیکن اس دھندلی تصویر میں بھی غلطیاں ہو سکتی ہیں۔ اوپر دی گئی مثال کی طرح جس کا مقصد آسکر میں ول اسمتھ کو ناراض ظاہر کرنا ہے۔ غور سے دیکھیں اس کا پس منظر مصنوعی طور پر دھندلا دکھائی دیتا ہے۔
نتیجہ
اے آئی سے تیار کردہ تصاویر کو ابھی بھی تھوڑی تحقیق کے ساتھ ختم کیا جا سکتا ہے۔ لیکن ٹیکنالوجی بہتر ہو رہی ہے اور مستقبل میں غلطیاں کم ہونے کا امکان کیا ہیں؟ کیا اے آئی ڈیٹیکٹر ہیرا پھیری کا پتا لگانے میں ہماری مدد کرسکیں گے؟ ہماری تحقیق کے نتائج کی بنیاد پر اے آئی ڈٹیکٹرز سراغ لگانے میں مدد فراہم کر سکتے ہیں لیکن اس سے زیادہ کچھ نہیں۔
جن ماہرین کا ہم نے انٹرویو کیا وہ کہتے ہیں کہ ٹولز ابھی مکمل طور پر تیار نہیں ہیں اور یہ بھی کہ ان کے ذریعے حقیقی تصاویر کو جعلی قرار دیا جاتا ہے اور اس کے برعکس بھی ہو سکتا ہے۔ اس لیے، شکوک و شبہات کی صورت میں حقیقی واقعات اور جعلی تصاویر کی پہچان کے لیے کامن سینس کا استعمال کریں۔
Follow us: Facebook, Twitter, Google News
قومی آواز اب ٹیلی گرام پر بھی دستیاب ہے۔ ہمارے چینل (qaumiawaz@) کو جوائن کرنے کے لئے یہاں کلک کریں اور تازہ ترین خبروں سے اپ ڈیٹ رہیں۔