بيجنگ:هڪ تازي مطالعي موجب، چيني مصنوعي ذهانت (اي آءِ) سسٽم هاڻي اهڙي سطح تي پهچي رهيا آهن، جتي انهن مان به اهڙا “سرحدي خطرا” پيدا ٿي سگهن ٿا، جهڙا آمريڪي AI سسٽمن ۾ ڏٺا ويا آهن. بيجنگ ۾ قائم ڪنسلٽنٽ اداري Concordia AI، جيڪو چين ۾ AI جي سلامتي تي ڪم ڪري ٿو، چيو آهي ته DeepSeek ۽ ٻين چيني ڪمپنين جي AI ماڊلز ۾ تيزي سان ٿيندڙ بهتري ان خطري کي وڌائي ڇڏيو آهي ته اهي نظام خراب نيت رکندڙ ماڻهن هٿان غلط استعمال ٿي سگهن ٿا يا انسان جي ڪنٽرول کان ٻاهر نڪري سگهن ٿا. مطالعي موجب، جيئن جيئن AI ماڊلز وڌيڪ طاقتور ٿين پيا، تيئن تيئن انهن جا سرحدي خطرا، يعني اهي صلاحيتون جيڪي عوامي سلامتي ۽ سماجي استحڪام لاءِ خطرو بڻجي سگهن ٿيون. ماهرن ۾ سخت پريشاني پيدا ڪري رهيون آهن، ڇاڪاڻته اهڙا خطرا انسانيت لاءِ تباهيءَ جو سبب به بڻجي سگهن ٿا. Concordia AI جي هن جائزي ۾، جيڪو 50 اهم AI ماڊلز تي ٻڌل هو ۽ جيڪو صرف “دي پوسٽ” سان شيئر ڪيو ويو، ظاهر ٿيو ته چيني ماڊلز هاڻي آمريڪي ماڊلز جي برابر خطري جي حدن کي ڇُهي رهيا آهن. اداري جي چين ۾ AI سيڪيورٽي ۽ گورننس جي سربراهه فانگ ليانگ (Fang Liang) چيو: “اسان کي اميد آهي ته اسان جي نتيجن سان اهي ڪمپنيون پنهنجي ماڊلز جي سلامتيءَ کي وڌيڪ بهتر بڻائڻ ۾ مدد وٺنديون.” مطالعي موجب، چيني AI اسٽارٽ اپ DeepSeek جو R1 ماڊل سڀ کان وڌيڪ سائيبر حملا ڪرڻ جي خطري ۾ اڳڀرو ثابت ٿيو . يعني اهو ماڊل سائبر حملن لاءِ سڀ کان وڌيڪ خطرناڪ صلاحيتون رکي ٿو.
تبصرے بند ہیں۔