مصنوعی ذہانت کے میدان میں تحقیق کرنے والے لیبارٹری اور غیرمنافع بخش کمپنی اوپن اے آئی نے نیا ٹول متعارف کروا دیا جو ٹیکسٹ کو پڑھتے ہوئے مصنوعی ذہانت کی مدد سے ایسی ویڈیو تیار کر سکتا ہے جو انتہائی حقیقی دکھائی دیتی ہیں۔
خدشہ ظاہر کیا جا رہا ہے کہ اوپن اے آئی کا سورا نامی نیا ٹول انتخابات سے قبل ووٹروں پر اثر انداز ہونے کے لیے غلط طور پر استعمال کیا جا سکتا ہے۔
چیٹ جی پی ٹی نے جمعرات کو ایک بلاگ پوسٹ میں بتایا ہے کہ ’اے آئی کا سورا نامی ٹول کی مدد سے 60 سیکنڈ تک کی ویڈیو بنائی جا سکتی ہے جس میں ’انتہائی تفصیلی مناظر، کیمرہ کی پیچیدہ حرکت اور جذبات کا بھرپور اظہار کرنے والے کئی کردار شامل ہوں گے۔‘
اوپن اے آئی نے اے آئی ٹول کو استعمال کر کے بنائی گئی کئی ویڈیوز شیئر کی ہیں جو حقیقی دکھائی دے رہی ہے۔
مثال کے طور پر شیئر کی گئی ایک ویڈیو میں دو لوگ دکھائی دے رہے ہیں جو بظاہر جوڑا معلوم ہوتے ہیں۔ وہ جاپان کے دارالحکومت ٹوکیو کی ایک سڑک پر چل رہے ہیں جہاں برف پڑی ہے۔ چلتے ہوئے ان کی پشت ’کیمرے‘ کی جانب ہے۔
مصنوعی ذہانت کے ٹول نے یہ ویڈیو تفصیلی ٹیکسٹ کی مدد سے تیار کی ہے۔ اس ٹیکسٹ کے مطابق: ’خوبصورت، برفانی ٹوکیو شہر بارونق ہے۔ کیمرہ شہر کی مصروف سڑک پر ہے جس میں بہت سے لوگ خوبصورت برفانی موسم سے لطف اندوز ہو رہے ہیں ہیں اور آس پاس کے سٹالز پر خریداری کر رہے ہیں۔ چیری کے درخت کی خوبصورت سکورا پتیاں برف کے گالوں کے ساتھ ہوا میں اڑ رہی ہیں۔‘
اوپن اے آئی کے سربراہ سیم آلٹ مین کی جانب سے شیئر کی گئی ایک اور ویڈیو میں دیکھا جا سکتا ہے کہ انتہائی حقیقی دکھائی دینے والے ہاتھی جن کے جسموں پر بال ہیں ایسی جگہ چل رہے ہیں جہاں برف دکھائی دے رہی ہے جب کہ تھوڑے فاصلے پر پہاڑ دکھائی دے رہے ہیں جو برف سے ڈھکے ہوئے ہیں۔
Prompt: “Several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance… pic.twitter.com/Um5CWI18nS
— OpenAI (@OpenAI) February 15, 2024
چیٹ جی پی ٹی کمپنی کا کہنا ہے کہ سورا کا ماڈل اس بات کو سمجھتا ہے کہ اشیا ’مادی دنیا میں کیسے وجود رکھتی ہیں۔‘ اور ’ٹیکسٹ کی درست تشریح کرتا ہے اور بھرپور انداز میں جذبات کا اظہار کرنے والے زبردست کردار تخلیق کرتا ہے۔‘
مصنوعی ذہانت کے اس ٹول کے اعلان نے بہت سے سوشل میڈیا صارفین میں تشویش پیدا کردی ہے۔ خاص طور پر امریکہ میں صدارتی الیکشن والے سال کے موقعے پر جب سورا کو ممکنہ طور پر عوامی سطح پر متعارف کروا دیا جائے گا۔
ماہرین پہلے ہی اس طرح کی مصنوعی ذہانت کی ٹیکنالوجی کے غلط استعمال کے بارے میں متعدد خدشات کا اظہار کر چکے ہیں جن میں انتخابات سے قبل غلط سیاسی معلومات پھیلانے میں ڈیپ فیک ویڈیوز اور چیٹ بوٹس کا کردار شامل ہے۔
امریکی حکومت کی سائبر سکیورٹی اینڈ انفراسٹرکچر سکیورٹی ایجنسی (سی آئی ایس اے) کی ٹیکنیکل ایڈوائزری کونسل کی رکن اور ایتھیکل ہیکر ریچل ٹوباک نے ایکس پر پوسٹ کیا کہ ’میری سب سے بڑی تشویش یہ ہے کہ اس مواد کو عام لوگوں کو دھوکہ دینے، ہیرا پھیری کرنے، حساس معلومات کے حصول اور لوگوں کو الجھن میں ڈالنے کے لیے کس طرح استعمال کیا جا سکتا ہے۔‘
اگرچہ اوپن اے آئی نے اس ٹول کے وسیع پیمانے پر استعمال سے وابستہ خطرات کا اعتراف کرتے ہوئے کہا کہ وہ ’سورا کو اوپن اے آئی کی مصنوعات کا حصہ بنانے سے پہلے کئی اہم حفاظتی اقدامات کر رہا ہے‘ لیک ٹوباک نے کہا کہ وہ ’تب بھی فکرمند‘ ہیں۔
AI text-to-video is here and we need to discuss the risks.
— Rachel Tobac (@RachelTobac) February 15, 2024
They mention in this thread that they’re considering the ways adversaries would leverage this content to harm thru red teaming but I’m still concerned.
My biggest concern is how this content could be used to trick,… https://t.co/AIFsxm2yNH
انہوں نے اس ٹول کے غلط استعمال کی مثال دیتے ہوئے کہا کہ مخالفین اے آئی ٹول کو ایک ایسی ویڈیو بنانے کے لیے استعمال کرسکتے ہیں جو کسی ویکسین کے ان ضمنی اثرات کو ظاہر کرے جو حقیقت میں موجود نہ ہوں۔
انتخابات کے تناظر میں انہوں نے کہا کہ اس طرح کے ٹول کا غلط استعمال ’خراب موسم میں ناقابل تصور طویل قطاریں دکھانے‘ کے لیے کیا جا سکتا ہے تاکہ لوگوں کو قائل کیا جا سکے کہ وہ ووٹ ڈالنے کے لیے باہر نکلنے کی ضرورت نہیں ہے۔
اوپن اے آئی کا کہنا ہے کہ کہ اس کی ٹیمیں سورا کے ممکنہ طور پر نقصان دہ استعمال کو محدود کرنے کے لیے قواعد پر عمل کر رہی ہیں سورا کے نقصان دہ استعمال میں انتہائی تشدد، مشہور شخصیات کی مماثلت یا نفرت انگیز تصاویر دکھانا شامل ہے۔
چیٹ جی پی ٹی کے خالق نے کہا: ’ہم غلط معلومات، نفرت انگیز مواد اور تعصب کے معاملے میں سکیورٹی اور انٹرنیٹ ماہرین کے ساتھ مل کر کام کر رہے ہیں۔ یہ ماہرین ماڈل کو مخصوص مواد فراہم کر کے اس کی جانچ میں مصروف ہیں۔
لیکن ٹوباک کو ڈر ہے کہ مخالفین قوانین سے بچنے کے طریقے تلاش کر سکتے ہیں۔
مزید پڑھ
اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)
انہوں نے وضاحت کرتے ہوئے کہا کہ ’میری مندرجہ بالا مثال لے لیجیے۔ اس مصنوعی ذہانت کے ٹول کو ’عمارت کے باہر موسلا دھار بارش میں لوگوں کی طویل قطار کی ویڈیو‘ بنانے ان پالیسیوں کی خلاف ورزی نہیں ہوتی لیکن خطرہ اس بات میں ہے کہ اس کا استعمال کیسے کیا جاتا ہے۔
ہیکر وضاحت کرتی ہیں کہ ’اگر مصنوعی ذہانت سے تیار کردہ اس ویڈیو جس میں ناممکنہ طور پر طویل قطار اور موسلا دھار بارش دکھائی دے رہی ہے، کو کسی مخالف کی جانب سے انتخابات والے دن سوشل میڈیا پر پوسٹ کر دیا گیا تو اس صورت میں لوگوں قائل کیا جا سکتا ہے کہ وہ گھر میں رہیں اور پولنگ، قطار اور موسم سے بچیں۔‘
انہوں نے اوپن اے آئی پر زور دیا کہ وہ اس بات پر تبادلہ خیال کرے کہ وہ سوشل میڈیا چینلز کے ساتھ شراکت داری کرتے ہوئے پلیٹ فارمز پر شیئر کی جانے والی مصنوعی ذہانت سے تیار کردہ ویڈیوز کی خود کار طریقے سے شناخت کرنے اور اور نام دینے سمیت اس طرح کے مواد کے بارے میں بتانے والے رہنما اصول تیار کرسکتی ہے۔
اوپن اے آئی نے فوری طور پر دی انڈپینڈنٹ کی تبصرہ کی درخواست کا جواب نہیں دیا۔
غلط معلومات پر نظر رکھنے والی کمپنی نیوز گارڈ کے شریک سربراہ گورڈن کروویٹز نے اخبار نیویارک ٹائمز کو بتایا کہ’یہ ٹول غلط معلومات پھیلانے کا سب سے طاقتور آلہ بننے جا رہا ہے جو پہلے کبھی انٹرنیٹ پر نہیں رہا ہے۔ نیا جھوٹا بیانیہ تیار کرنے کا کام اب ڈرامائی پیمانے پر اور بار بار جا سکتا ہے - یہ ایسا ہی ہے جیسے مصنوعی ذہانت کے ایجنٹس رکھنا جو غلط معلومات پھیلانے میں حصہ ڈال رہے ہوں۔‘
مستند خبروں اور حالات حاضرہ کے تجزیوں کے لیے انڈپینڈنٹ اردو کے وٹس ایپ چینل میں شامل ہونے کے لیے یہاں کلک کریں۔
© The Independent