OpenAI Preparedness Framework Bawqar Aur Mehfooz AI
OpenAI نے اپنے نئے فریم ورک کے بارے میں معلومات کا اشتراک کیا ہے جسے preparedness framework کہتے ہیں۔ اس فریم ورک کا مقصد یہ یقینی بنانا ہے کہ AI کو محفوظ اور ذمہ دارانہ طریقے سے تیار کیا گیا ہے۔OpenAI نے AI ماڈلز کو مزید محفوظ اور مفید بنانے میں مدد کے لیے preparedness framework کے نام سے ایک پلان کا ابتدائی ورژن بھی جاری کیا ہے۔
سیکیورٹی کے لیے OpenAI کی نئی حکمت عملی
AI کمپنی نے کچھ تبدیلیاں کی ہیں کہ وہ چیزوں کو کیسے محفوظ رکھتی ہیں۔ انہوں نے سیکورٹی کے بارے میں مشورہ دینے کے لیے ایک خصوصی گروپ بنایا ہے۔ بورڈ اب بھی نئے AI سسٹم کو استعمال کرنے سے انکار کر سکتے ہیں، چاہے قیادت یہ سمجھتے ہوں کہ یہ محفوظ ہے۔
یہ خبر OpenAI کے لیے بہت ہی دلچسپ ہے، ایک ایسی کمپنی جس کا سال واقعی پرجوش تھا لیکن ایگزیکٹو بورڈ میں ہنگامہ دیکھا ہے۔ Sam Altman، جو کہ CEO ہیں، کو برطرف کر دیا گیا اور پھر نومبر 2023 میں ایک ہفتے کے اندرSam Altman نے اپنی ملازمت واپس لے لی۔
کچھ لوگ جو کمپیوٹر کو زیادہ سمارٹ بنانے کی کوشش کر رہے ہیں وہ پریشان ہیں کہ ہم ان خطرات کے بارے میں کافی نہیں جانتے ہیں جو کمپیوٹرز کے بہت زیادہ سمارٹ ہو جانے کی صورت میں ہو سکتے ہیں۔ وہ مزید مطالعہ شروع کرنا چاہتے ہیں اور یہ جاننا چاہتے ہیں کہ انہیں کیسے محفوظ رکھا جائے۔ ایسا کرنے کے لیے، وہ اپنے کام کرنے کا طریقہ بدل رہے ہیں۔
AI میں تحفظات: محققین کی فکرمندی
OpenAI سپر سمارٹ لوگوں کی ایک ٹیم کی طرح ہے جو اس بات کو یقینی بنا رہے ہیں کہ ان کے بنائے ہوئے روبوٹس اور کمپیوٹرز محفوظ ہیں اور کسی قسم کی پریشانی کا باعث نہیں ہیں۔ وہ مسلسل سیکھ رہے ہیں اور کسی بھی مسئلے کو سمجھنے اور پیش گوئی کرنے میں بہتر ہو رہے ہیں۔ وہ اس بات کو بھی یقینی بنا رہے ہیں کہ یہ روبوٹ اور کمپیوٹر اپنے آپ کو کسی بھی بری چیز سے بچا سکتے ہیں جو ہو سکتا ہے۔
کمپنی کا کہنا ہے کہ “تباہ کن خطرے کا مطلب واقعی ایک بڑا خطرہ ہے جس پر بہت زیادہ پیسہ خرچ ہو سکتا ہے اور بہت سے لوگوں کو نقصان پہنچ سکتا ہے یا یہاں تک کہ ہلاک ہو سکتا ہے۔ یہ خطرہ صرف ایک نہیں بلکہ مختلف چیزوں سے آ سکتا ہے۔”
We are systemizing our safety thinking with our Preparedness Framework, a living document (currently in beta) which details the technical and operational investments we are adopting to guide the safety of our frontier model development.https://t.co/vWvvmR9tpP
— OpenAI (@OpenAI) December 18, 2023
Sam Altman کے خیالات: مساوی مواقع اور پیشرفت
واشنگٹن پوسٹ کے مطابق Sam Altman نامی ایک شخص کا خیال ہے کہ چھوٹی کمپنیوں کو بڑی کمپنیوں کے برابر مواقع ملنے چاہئیں جب یہ ان خراب چیزوں سے نمٹنے کی بات آتی ہے جو AI کر سکتی ہیں۔ لیکن وہ یہ بھی چاہتا ہے کہ اس کی اپنی کمپنی زیادہ پیسہ کمانے اور تیزی سے ترقی کرنے کے لیے AI کا استعمال کرے۔
OpenAI، ایک کمپنی جو AI (مصنوعی ذہانت) پر کام کرتی ہے، نے فیصلہ کیا ہے کہ ہر کسی کو اپنا فریم ورک استعمال کرنے دیا جائے۔ اس کا مطلب یہ ہے کہ وہ چاہتے ہیں کہ دوسری کمپنیاں اس کے لیے ذمہ دار ہوں جو وہ AI کے ساتھ تخلیق کرتی ہیں۔ کمپنیوں کے لیے پیسہ کمانا ضروری ہے، لیکن انہیں یہ بھی یقینی بنانا ہوگا کہ وہ صحیح کام کر رہی ہیں۔ OpenAI کا AI ChatGPT کہلاتا ہے بہت کم وقت میں بہت مقبول ہو گیا، لہذا OpenAI اس بات کو یقینی بنانا چاہتا ہے کہ یہ محفوظ ہے اور کسی کو تکلیف نہیں پہنچاتی ہے۔
ہم اس بات کو یقینی بنانا چاہتے ہیں کہ لوگ ایک دوسرے کے ساتھ منصفانہ سلوک کریں اور دنیا ایک اچھی جگہ بن جائے۔ ایسا کرنے کے لیے، ہم کمپیوٹر پروگراموں کو بہتر بنائیں گے اور اس بات کو یقینی بنائیں گے کہ وہ کسی کو تکلیف نہ پہنچائیں۔ کچھ واقعی ہوشیار لوگ پروگراموں پر نظر رکھیں گے اور یقینی بنائیں گے کہ وہ استعمال میں محفوظ ہیں۔
قیادت آئیڈیاز کے ساتھ پیش آنے والے کسی بھی نئے مسائل کے لیے تیار رہنے کا منصوبہ بنائیں گے۔ کمپنی پیسہ استعمال کرنے کی کوشش کرے گی اور یہ معلوم کرے گی کہ ان مسائل کے کتنے امکانات ہیں اور یہ کیسے جاننا ہے کہ یہ کب ہو سکتے ہیں۔ وہ صرف چیزوں کو بنانے کے بجائے اپنے اندازے لگانے کے لیے حقیقی حقائق کا استعمال کرنا چاہتے ہیں۔
کمپنی اس بات کو یقینی بنانا چاہتی ہے کہ ان کے کمپیوٹر پروگرام محفوظ اور منصفانہ ہوں۔ وہ باقاعدگی سے اپنے پروگراموں کو چیک کریں گے اور ٹھیک کریں گے۔ وہ یہ بھی دیکھیں گے کہ ان کے پروگرام کس طرح مسائل پیدا کر سکتے ہیں، جیسے کہ کچھ لوگوں کے ساتھ غیر منصفانہ سلوک کرنا۔ وہ ایسا ہونے سے روکنے کے لیے قوانین بنائیں گے۔
فرنٹیئر ماڈل فورم: Google، Anthropic، اور Microsoft کے ساتھ OpenAI کی شراکت
اس سے پہلے، کمپنی نے فرنٹیئر ماڈل فورم کے نام سے ایک ٹیم بنانے کے لیے Google، Anthropic، اور Microsoft کے ساتھ افواج میں شمولیت اختیار کی۔ ٹیم کو AI کو محفوظ اور ذمہ دارانہ طریقے سے بنانے کے لیے رہنما خطوط تیار کرنے کے لیے بنایا گیا تھا۔
فورم اس بات کو یقینی بنانا چاہتا ہے کہ AI ٹیکنالوجی کو اچھے اور محفوظ طریقے سے استعمال کیا جائے۔ وہ سائنس دانوں کی مدد کرنا چاہتے ہیں کہ لوگوں کی معلومات کو کیسے محفوظ رکھا جائے اور دنیا میں مسائل کو حل کرنے کے لیے AI کا استعمال کیا جائے۔ وہ ایسے لوگوں کو بھی اہم سبق سکھانا چاہتے ہیں جو قوانین بناتے ہیں اور AI کا مطالعہ کرتے ہیں۔