’سائنس‘ اور ’سپرنگر نیچر‘ گروپ سمیت دنیا کے سرفہرست سائنسی جرائد نے نئی ادارتی پالیسیوں کا اعلان کیا ہے جس کے تحت محققین پر سائنسی مطالعات لکھنے کے لیے چیٹ جی پی ٹی جیسے آرٹیفشل انٹیلی جنس بوٹس کے استعمال پر پابندی لگا دی گئی۔
’اوپن اے آئی‘ کے چیٹ جی پی ٹی بوٹ نے دسمبر میں صارفین کے سوالات کا جواب دینے کی صلاحیت حاصل کرنے کے بعد انسانوں جیسی آؤٹ پٹ کے ساتھ اہمیت اختیار کر لی تھی جس کے بعد بہت سے ماہرین نے خبردار کیا تھا کہ ٹیکنالوجی میں اس پیش رفت کی وجہ سے اہم رکاوٹیں کھڑی ہو سکتی ہیں۔
مصنوعی ذہانت سے وابستہ کچھ محققین نے اس لینگویج ماڈل کو ایک بڑی پیشرفت کے طور پر سراہا ہے جو تمام صنعتوں میں انقلاب برپا کر کرنے کے ساتھ ساتھ یہ گوگل سرچ انجن جیسے ٹولز کی جگہ بھی لے سکتا ہے۔
تجرباتی چیٹ بوٹ کی ریلیز کے بعد گوگل انتظامیہ نے مبینہ طور پر کمپنی کے سرچ انجن کے کاروبار کے لیے ’کوڈ ریڈ‘ بھی جاری کیا۔
اے آئی (آرٹیفشل انٹیلی جنس) چیٹ بوٹ نے تحقیقی مطالعات کا خلاصہ کرنے، وجوہات اور منطقی سوالات کے جوابات دینے کی صلاحیتیں بھی ظاہر کی ہیں جب کہ حال ہی میں بزنس سکول اور میڈیکل امتحانات میں کامیابی حاصل کرنے کے لیے بھی اہم کردار ادا کیا ہے۔
تاہم اے آئی چیٹ بوٹ کے صارفین کو یہ شکایت بھی ہے کہ یہ بعض اوقات کچھ سوالات پر واضح غلطیوں کے ساتھ بظاہر معقول لیکن غلط جوابات فراہم کرتا ہے۔
I've probably been the only person who's not shared views on ChatGPT in research writing on this platform; so here are some ground rules for their use from us at @nature - key message: no LLM tool will be accepted as a credited author on a research paperhttps://t.co/iEwNzFRu3J
— Magdalena Skipper (@Magda_Skipper) January 24, 2023
سائنس جرنلز کے چیف ایڈیٹر ہولڈن تھورپ نے اس بارے میں کہا کہ پبلشنگ گروپ اپنی پالیسیوں کو اپ ڈیٹ کر رہا ہے تاکہ یہ واضح کیا جا سکے کہ چیٹ جی پی ٹی (یا کسی دوسرے اے آئی ٹولز) کے ذریعے تیار کردہ کسی بھی متن کو سائنسی کام میں استعمال نہیں کیا جا سکتا اور نہ ہی ایسے ٹولز کی جانب سے فراہم کردہ اعداد و شمار، تصاویر یا گرافکس کو استعمال کیا جائے گا۔
مزید پڑھ
اس سیکشن میں متعلقہ حوالہ پوائنٹس شامل ہیں (Related Nodes field)
ان کے بقول: ’ایک اے آئی پروگرام مصنف نہیں ہو سکتا۔‘
جریدے کے ایڈیٹر کا یہ بھی کہنا ہے کہ ان پالیسیوں کی خلاف ورزی لیگ میں پلیجرازم یا غیر منصفانہ طور پر مطالعہ کی تصاویر میں ہیرا پھیری جیسی سائنسی بدانتظامی کا حصہ مانی جا سکتی ہے۔
انہوں نے کہا کہ مطالعاتی مقاصد کے لیے تحقیقی مقالوں میں مصنوعی ذہانت کی جانب سے تیار کردہ جائز اور جان بوجھ کر تیار کردہ ڈیٹا سیٹ نئی پالیسی سے متاثر نہیں ہوں گے۔
Here's my editorial on ChatGPT, which features Elsa, Willy Loman, and our updated policies saying don't even try it. https://t.co/ooNO2vADp7
— Holden Thorp, Science EIC (@hholdenthorp) January 26, 2023
تقریباً تین ہزار جرائد شائع کرنے والے ’سپرنگر نیچر‘ گروپ نے منگل کو شائع ہونے والے ایک اداریے میں بھی اس تشویش کا اظہار کیا کہ ماڈل استعمال کرنے والے لوگ مصنوعی ذہانت کے ذریعے لکھے ہوئے متن کو اپنے طور پر استعمال کر سکتے ہیں یا ایسے سسٹمز کا استعمال کرتے ہوئے نامکمل لٹریچر ریویو ریسرچ تیار کر سکتے ہیں۔
پبلشنگ گروپ نے پہلے سے لکھے اور اب تک شائع ہونے والے متعدد مطالعات کی طرف اشارہ کیا جن کو چیٹ جی پی ٹی نے باضابطہ مصنف کے طور پر تسلیم کیا ہے۔
گروپ نے، یہ استدلال پیش کرتے ہوئے کہ مصنوعی ذہانت والے ٹولز انسانی مصنفین کی طرح جواب دہی اور ذمہ داری نہیں لے سکتے، اعلان کیا کہ اس طرح کے لینگویج ماڈل ٹولز کو ’ریسرچ پیپر پر ایک کریڈٹ مصنف کے طور پر قبول کیا جائے گا۔‘
سپرنگر نیچر نے کہا کہ مطالعے کے دوران اس طرح کے ٹولز استعمال کرنے والے محققین کو سائنسی مقالے کے ‘طریقہ کار‘ یا ’معاونت کاروں‘ کے سیکشنز میں ان ٹولز کے بارے میں بتانا ہو گا۔
ڈھائی ہزار سے زیادہ جرائد پلیٹ فارمز چلانے والے ’ایلسیویئر‘ کی طرح دیگر پبلشنگ گروپس نے بھی چیٹ جی پی ٹی کی جانب سے اہمیت حاصل کرنے کے بعد مصنف کے کردار کے بارے میں اپنی پالیسیوں پر نظر ثانی کی ہے۔
ایلسیویئر گروپ نے اعلان کیا کہ اس طرح کے مصنوعی ذہانت کے ماڈلز کو ’تحقیقاتی مضمونوں کی پڑھنے کی اہلیت اور زبان کو بہتر بنانے کے لیے استعمال کیا جا سکتا ہے لیکن ان اہم کاموں کو تبدیل کرنے کے لیے نہیں جو مصنفین انجام دے سکتے ہیں جیسا کہ ڈیٹا کی وضاحت کرنا یا سائنسی نتائج اخذ کرنا۔‘
© The Independent