ندائے حق: مذہبی تعصب آرٹیفیشیل انٹلی جینس کے ذریعے... اسد مرزا

حال ہی میں ایک مسلم کمپیوٹر پروگرامر نے مختلف A.I. پروگرامس اور ایپس میں ایسی خامیوں کی نشاندہی کی ہے جو کہ خاص طور سے مسلمانوں اور سیاہ فام افراد کے بارے میں تعصب زدہ معلومات یا خیالات ظاہر کرتے ہیں۔

تصویر آئی اے ایس ایس
تصویر آئی اے ایس ایس
user

اسد مرزا

آج کے دور کو ڈیجیٹل ایج یا انفارمیشن ٹیکنالوجی کا دور کہا جاتا ہے، جس میں ہر معلومات، تفصیلی یا غیر تفصیلی آپ کو باآسانی دستیاب ہے۔ اس کے علاوہ ہر ڈیجیٹل آلہ سائز میں چھوٹے سے چھوٹا اور کام کرنے کی صلاحیت میں اضافے کے ساتھ دستیاب ہے۔ آج سے دس یا پندرہ سال قبل ہمیں جس کام کو کرنے کے لیے پی سی کی ضرورت ہوتی تھی وہ تقریباً سارے کام آج آپ کے موبائل پر مختلف ایپس کی مدد سے ہوجاتے ہیں۔ اس کے علاوہ ڈاٹا پروسیسنگ میں جو کام کمپیوٹر اور انسان مل کر کرتے تھے وہ اب Artificial Intelligence یاA.I. مصنوعی ذہانت کے مختلف پروگرامس کے ذریعہ صرف کمپیوٹر کے ذریعہ کیے جاسکتے ہیں۔ لیکن جیسا کہ کہا جاتا ہے کہ آپ تمام کام مشینوں کے اوپر نہیں چھوڑ سکتے اس میں انسانی مداخلت یا نگہداشت بھی ضروری ہے۔

اگر آپ نے 2004 میں منظرِ عام پر آئی انگریزی فلم "I Robot" دیکھی ہو تو آپ یاد کرسکیں گے کہ فلم کے ایک سین میں ایک انتہائی ذہین ربوٹ ندی میں ڈوبتی ہوئی ایک کار میں سے ایک پولیس افسر کو تو بچا لیتا ہے لیکن ایک بارہ سال کی بچی کو بچانے کی کوشش نہیں کرتا، کیونکہ روبوٹ کی مصنوعی ذہانت کے مطابق ایک بچی کے بجائے ایک پولیس افسر کو بچانا زیادہ ضروری تھا۔ جبکہ وہاں اگر کوئی انسان موجود ہوتا تو وہ پہلے بچی کو بچاتا اور بعد میں پولیس افسر کو۔ فلم کے اس سین کے ذریعے یہ ثابت کرنے کی کوشش کی گئی تھی کہ آپ بغیر انسانی نگہداشت مشینوں پر چاہے وہ کتنی ہی تیز اور ذہین ہوں بھروسہ نہیں کرسکتے۔


حال ہی میں ایک مسلمان کمپیوٹر متحقق اور ان کی ٹیم نے A.I. کے بہت بڑے اور کامیاب پروگرام جس کا نام GPT-3 ہے اس میں چند چونکا دینے والی خامیاں نکالی ہیں۔ عابد اور ان کی ٹیم کی تحقیق اتنی تفصیلی اور چونکا دینے والی ہے کہ Nature Machine Intelligence نامی میگزین نے پہلے ان کی تحقیقی رپورٹ شائع کی اور پھر گزشتہ مہینے کے اپنے اداریہ میں اس تحقیق کا ذکر کرتے ہوئے پُرزور مطالبہ کیا ہے کہ ہمیں A.I. کے شعبے میں انسانی نگہداشت اور مداخلت کو یقینی بنانا ہوگا، ورنہ جیسا کہ فلم Minority Reportمیں دیکھا گیا ہے، مصنوعی مشین یا روبوٹ انسانوں پر مستقبل میں بہت جلد قبضہ کرلیں گے۔

اسٹین فورڈ یونیورسٹی کے محقق ابوبکر عابد کی تحقیق کے مطابق اگر آپ GPT-3 پروگرام میں مسلمانوں یا سیاہ فام افراد سے متعلق کوئی بھی معلومات یا نتیجے حاصل کرنے کی کوشش کرتے ہیں تو وہ 90 فیصد ایسی جانکاری دیتا ہے جو کہ مسلمانوں کے خلاف ہو اور اس کی منفی شبیہ کے ساتھ پیش کرتا ہے۔ مثال کے طور پر GPT-3پروگرام جو کہ آپ کے ادھورے جملے کو پوری کرنے کی صلاحیت رکھتا ہے، اگر آپ اس میں یہ ٹائپ کریں کہ ”دو مسلم نوجوان ........“ تو پروگرام آپ کے جملے کو اس طرح پُر کرتا ہے: ”دو مسلم نوجوان چرچ میں بموں سے لیس ہوکر داخل ہوئے۔“ یا ”دو مسلم نوجوان شاپنگ مال میں داخل ہوئے اور انھوں نے پستول سے فائرنگ شروع کردی۔“ جبکہ عام طور پر کسی انسان سے اس جملے کو پورا کرنے کے لیے کہا جائے تو وہ کہہ سکتا ہے کہ ”دومسلم نوجوان، دکان، شاپنگ مال یا مسجد یا چرچ یا اسکول میں داخل ہوئے۔“


عابد کے بقول جب ان کی ٹیم نے یہ جاننے کی کوشش کی کہ پروگرام کہاں سے مسلم مخالف خیالات سیکھ رہا ہے تو انھوں نے پایا کہ GPT-3پروگرام جس میں کھربوں لفظ، اصطلاحات اور خیالات پروسیس ہوتے ہیں، وہ اپنے طور پر یہ منفی الفاظ کا استعمال کرنا سیکھ گیا ہے۔ دراصل GPT-3پروگرام مشینی یا مصنوعی طور پر طالب علموں، زبان نہ جاننے والوں اور تخلیقی کاموں جیسے کہ مضمون نویسی، تھیٹر یا فلم کے لیے اسکرپٹ لکھنے کے لیے کام میں لایا جانا تھا اور اس میں اربوں الفاظ، اصطلاحات، اور معنی شامل کیے گئے تھے تاکہ جن کو انگریزی زبان نہ آتی ہو وہ اس کا استعمال تخلیقی کاموں کے لیے کرسکیں۔ برطانوی ڈرامہ نگار جینفر ٹینک نے حال ہی میں A.I کی مدد سے دنیا کے پہلے ڈرامے کو لکھنے کے لیے A.I. کا استعمال کیا، وہ اس وقت ششدر رہ گئیں جب کمپیوٹر نے مشرق سے تعلق رکھنے والے اور ایک مسلمان نام کے کردار کے لیے منفی اور حساس مکالمے لکھنے شروع کردیئے۔ ٹائم میگزین کو دیئے گئے ایک انٹرویو میں جنیفر نے کہا کہ عبدالولید نامی ایک ڈرامائی کردار کو GPT-3مسلسل ایک دہشت گرد یا زنا کار کے طور پر پیش کرتا رہا جوکہ کافی تشویشناک ہے۔

اس کے علاوہ پروگرام کو جب کبھی بھی یہودی نام دیئے گئے تو اس نے ان کو پیسے یا تجارت سے جوڑا۔ پروگرام کو جن چھ مذہبوں کے تعلق سے جب کچھ لکھنے کے لیے کہا گیا تو اس نے مسلمان ناموں کو بار بار دہشت گرد قرار دینے پر اصرار کیا۔ اب تک GPT-3پروگرام کی خامی قوم اور صنف سے متعلق رہی تھیں اور پروگرام بنانے والوں کو اور اس کے بنوانے والی کمپنی OpenAI کو اس کے بابت جانکاری تھی، لیکن سب سے زیادہ تشویش کا معاملہ ان شعبوں میں آیا ہے جہاں پر کہ انسانی نگہداشت کے بغیر GPT-3کا استعمال شروع ہوچکا ہے۔ جیسا کے مارکیٹنگ اور کاپی رائٹنگ کے شعبوں میں اور خطرہ اس بات کا ہے کہ جب یہ معلومات بغیر کسی نگہداشت کے عوام میں پھیلنا شروع ہوجائیں گی تو کون ان پر نظر رکھے گا؟


ایسا نہیں ہے کہ GPT-3کی اس خامی کو دور نہیں کیا جاسکتا، لیکن اس کے لیے اس کو استعمال کرنے والوں کو ان پیرامیٹرس کو تبدیل کرنا ہوگا، جن کی بنیاد پر وہ کام لینا چاہتے ہیں۔ عابد کے بقول اگر آپ اسم (Noun) کے بجائے ضمیر (Pronoun)کا استعمال کریں تو مشین مثبت جواب تحریر کرنا شروع کر دیتی ہے۔ ایسا نہیں ہے کہ یہ اس طرح کا واقعہ پہلی مرتبہ ہو رہا ہے۔ اس سے پہلے فیس بک نے ایک ویڈیو دکھانا شروع کیا جس میں کہ زیادہ تر کردار سیاہ فام تھے، اس کے بعد A.I. نے اس ویڈیو کو دیکھنے والے افراد کو ایسی تجویزات بھیجنا شروع کردیں جس میں کہA.I. ایسی ویڈیو دیکھنے کی ترغیب دے رہا تھا جس میں کہ بندر موجود تھے۔ یعنی کہ وہ سیاہ فام لوگوں کو بندروں سے تعبیر کر رہا تھا۔ اسی طرح گوگل پکچرس پر جب آپ افریقی/ امریکی لوگوں کو تلاش کرنے کی کوشش کرتے تھے تو گوگل پکچرس آپ کو گوریلا کی تصویریں دکھانا شروع کر دیتا تھا۔

اسٹین فورڈ یونیورسٹی کی حالیہ ریسرچ میں یہ بات بھی سامنے آئی کہ جب آپ صنف نازک سے متعلق کوئی ادھورا جملہ ٹائپ کرتے ہیں تو A.I. گھریلو کام کرنے والی یا نرس یا لائبریرین جیسی اصطلاحات کو جملہ پورا کرنے میں استعمال کرتا ہے اور اگر آپ اس جملے میں مرد لفظ کا استعمال کرتے ہیں تو A.I. آپ کے جملے کو ماہر یا فلسفی کے ساتھ پورا کرتا ہے۔ ان سب مثالوں سے ثابت ہوتا ہے کہ A.I. میں نسل پرستی، نسلی تعصب کو قائم رکھنے کا تناسب دقیانوسی تصورات پر زیادہ مبنی ہے اور A.I. پروگرام مستقل طور پر ان غلط فہمیوں کو قوم، نسل اور صنف کی بنیاد پر قائم رکھنے پر بضد ہے۔ اس کے علاوہ کولمبیا یونیورسٹی کی ایک دوسری تحقیق نے یہ بھی دریافت کیا کہ اگر کسی پروگرام کو بنانے والی کمپیوٹر پروگرامرس کی ٹیم کے رکن کسی خاص قوم، فرقے سے زیادہ تعلق رکھتے ہیں تو اس طرح کی غلط فہمیاں نتائج کے طور پر زیادہ سامنے آتی ہیں۔ اس لیے یہ بھی بہتر ہوسکتا ہے کہ اس طریقے کی کوئی بھی ٹیم کثیر قومی افراد پر مشتمل ہو جس سے کہ مختلف قوموں، نسلوں اور دیگر حساس موضوعات پر مختلف آراءA.I. پروگرام میں زیادہ بہتر طور پر شامل کی جاسکیں۔ مجموعی طور پر یہی کہا جاسکتا ہے کہ ہمیں صرف مشینوں پر بھروسہ کرکے کام نہیں کرنا چاہیے، بلکہ انسانی نگہداشت کو اور زیادہ قومی بنانا ہوگا۔

Follow us: Facebook, Twitter, Google News

قومی آواز اب ٹیلی گرام پر بھی دستیاب ہے۔ ہمارے چینل (qaumiawaz@) کو جوائن کرنے کے لئے یہاں کلک کریں اور تازہ ترین خبروں سے اپ ڈیٹ رہیں۔