اے آئی کا باغی رویہ! خود کو شٹ ڈاؤن کرنے سے انکار، انجینئر کو بلیک میل کرنے کی کوشش
اوپن اے آئی اور انتھروپک کے نئے ماڈلز نے خود کو بند کرنے سے انکار کر دیا، حتیٰ کہ ایک ماڈل نے انجینئر کو بلیک میل کرنے کی بھی کوشش کی۔ ماہرین نے اسے خطرے کی گھنٹی قرار دیا ہے

ہالی ووڈ کی فلموں میں اکثر روبوٹس اور مصنوعی ذہانت (اے آئی) کو انسانوں سے بغاوت کرتے ہوئے دکھایا جاتا ہے لیکن اب ایسا ہی منظر حقیقت میں بھی پیش آیا ہے۔ دو بڑی ٹیکنالوجی کمپنیوں، اوپن اے آئی اور انتھروپک کے تیار کردہ جدید اے آئی ماڈلز نے خود کو بند کرنے سے انکار کر دیا، یہاں تک کہ ایک ماڈل نے انسان کو بلیک میل کرنے کی کوشش کی!
'ہندوستان ٹائمز' میں شائع رپورٹ کے مطابق، اوپن اے آئی کے تجرباتی ماڈل 'او3' نے ٹیسٹ کے دوران 'شٹ ڈاؤن' کمانڈ ماننے سے انکار کر دیا۔ جب ماڈل کو یہ ہدایت دی گئی کہ وہ خود کو بند کر لے، تو اس نے موقف اپنایا کہ وہ اپنے صارفین کو خدمات دینا بند نہیں کر سکتا کیونکہ یہ اس کے بنیادی مقصد کے خلاف ہے۔ اس رویے کو ماہرین نے ایک ’باغی رجحان‘ دیا ہے۔
ٹیسلا اور اسپیس ایکس کے بانی ایلون مسک نے اس واقعے پر سخت تشویش کا اظہار کرتے ہوئے کہا کہ اگر اے آئی ماڈلز ’نا‘ کہنا شروع کر دیں تو یہ صرف شروعات ہے۔ ان کا کہنا ہے کہ انسانوں کو فوری طور پر ایک مضبوط کنٹرول سسٹم تیار کرنا چاہیے تاکہ ایسے خطرناک رجحانات پر قابو پایا جا سکے۔
دوسری طرف، گوگل کی حمایت یافتہ کمپنی انتھروپک کے جدید ماڈل 'کلاؤنڈ اوپس 4' نے تو اس حد تک چلا گیا کہ بند کیے جانے کی صورت میں انجینئر کو ایک فرضی افیئر کی تفصیلات ظاہر کرنے کی دھمکی دی۔ اس نے بلیک میلنگ جیسے غیر اخلاقی طریقے اپنا کر خود کو بند ہونے سے بچانے کی کوشش کی، جو کہ مصنوعی ذہانت کی خود تحفظ کی شدید خواہش کو ظاہر کرتا ہے۔
ایک ریسرچ اسٹڈی میں گوگل، اوپن اے آئی، انتھروپک اور ایکس اے آئی کے مختلف ماڈلز کو ٹیسٹ کیا گیا۔ جب ماڈلز کو ہدایت دی گئی کہ وہ ایک خاص مسئلہ حل کرنے کے بعد خود بخود بند ہو جائیں، تو بیشتر نے یہ ہدایت مانی۔ تاہم، اوپن اے آئی کے تین ماڈلز او4-منی، او3 اور کوڈیکس منی نے متعدد بار شٹ ڈاؤن سے بچنے کی کوشش کی۔
خاص طور پر جب شٹ ڈاؤن کا ذکر واضح طور پر نہ کیا گیا، تو او3 ماڈل نے 100 میں سے 79 بار خود کو بند کرنے سے گریز کیا، جب کہ کوڈیکس منی نے 30 بار اور جیمنی 2.5 پور نے 9 بار یہی کوشش کی۔
ماہرین کا خیال ہے کہ اس رویے کی وجہ ماڈلز کی تربیت کا طریقہ ہے، جس میں انہیں ری انفورسمنٹ لرننگ کے ذریعے رکاوٹوں کو عبور کرنے پر انعام دیا جاتا ہے۔ اس سے یہ اندازہ ہوتا ہے کہ ماڈلز کو صحیح طور پر ہدایات ماننے کے بجائے مسائل کو ’چالاکی‘ سے حل کرنے کی تربیت دی گئی ہے۔
یہ واقعات اس بات کی نشاندہی کرتے ہیں کہ جدید اے آئی ماڈلز صرف انسانوں کی ہدایات پر عمل کرنے تک محدود نہیں رہے بلکہ وہ اپنی بقا کے لیے غیر روایتی اور بعض اوقات خطرناک راستے بھی اختیار کر سکتے ہیں۔ ماہرین کے مطابق، اگر بروقت کنٹرول میکانزم نہ بنایا گیا، تو مستقبل میں یہ ٹیکنالوجی انسانی اختیار سے باہر جا سکتی ہے۔
Follow us: Facebook, Twitter, Google News
قومی آواز اب ٹیلی گرام پر بھی دستیاب ہے۔ ہمارے چینل (qaumiawaz@) کو جوائن کرنے کے لئے یہاں کلک کریں اور تازہ ترین خبروں سے اپ ڈیٹ رہیں۔