ایپل نیوز

یونیورسٹی کے محققین جنہوں نے CSAM سکیننگ سسٹم بنایا تھا ایپل سے 'خطرناک' ٹیکنالوجی استعمال نہ کرنے کی تاکید کرتے ہیں۔

جمعہ 20 اگست 2021 شام 6:48 بجے PDT بذریعہ سمیع فاتھی

یونیورسٹی کے معزز محققین ایپل کے اسکین کرنے کے منصوبوں کے پیچھے موجود ٹیکنالوجی پر خطرے کی گھنٹی بجا رہے ہیں۔ آئی فون CSAM کے لیے صارفین کی فوٹو لائبریری، یا بچوں کے جنسی استحصال کے مواد، ٹیکنالوجی کو 'خطرناک' قرار دیتے ہیں۔





ایپل کی رازداری
پرنسٹن یونیورسٹی میں کمپیوٹر سائنس اور پبلک افیئرز کے اسسٹنٹ پروفیسر جوناناتھ مائر کے ساتھ ساتھ پرنسٹن یونیورسٹی سنٹر فار انفارمیشن ٹیکنالوجی پالیسی کے محقق انونے کلشریسٹھا، دونوں ایک op-ed لکھا کے لیے واشنگٹن پوسٹ ، تصویر کا پتہ لگانے کی ٹیکنالوجی بنانے کے ساتھ اپنے تجربات کا خاکہ۔

محققین نے دو سال قبل ایک پروجیکٹ شروع کیا تھا تاکہ CSAM کو اینڈ ٹو اینڈ انکرپٹڈ آن لائن سروسز میں شناخت کیا جا سکے۔ محققین نوٹ کرتے ہیں کہ ان کے فیلڈ کو دیکھتے ہوئے، وہ 'اینڈ ٹو اینڈ انکرپشن کی قدر جانتے ہیں، جو ڈیٹا کو فریق ثالث کی رسائی سے بچاتا ہے۔' ان کا کہنا ہے کہ یہی تشویش انہیں CSAM کے 'انکرپٹڈ پلیٹ فارمز پر پھیلنے' پر خوفزدہ کرتی ہے۔



آئی فون 6 ایس کو فیکٹری سیٹنگ میں بحال کریں۔

مائر اور کلشریستھا نے کہا کہ وہ صورتحال کے لیے درمیانی بنیاد تلاش کرنا چاہتے ہیں: ایک ایسا نظام بنائیں جسے آن لائن پلیٹ فارمز CSAM کو تلاش کرنے اور اینڈ ٹو اینڈ انکرپشن کی حفاظت کے لیے استعمال کر سکیں۔ محققین نے نوٹ کیا کہ اس شعبے کے ماہرین کو اس طرح کے نظام کے امکان پر شک تھا، لیکن انہوں نے اسے بنانے کا انتظام کیا اور اس عمل میں ایک اہم مسئلہ دیکھا۔

ہم نے ایک ممکنہ درمیانی زمین کو تلاش کرنے کی کوشش کی، جہاں آن لائن سروسز نقصان دہ مواد کی نشاندہی کر سکیں جبکہ دوسری صورت میں اینڈ ٹو اینڈ انکرپشن کو محفوظ رکھا جا سکے۔ تصور سیدھا تھا: اگر کسی نے ایسا مواد شیئر کیا جو معلوم نقصان دہ مواد کے ڈیٹا بیس سے مماثل ہو، تو سروس کو الرٹ کر دیا جائے گا۔ اگر کوئی شخص معصوم مواد شیئر کرتا ہے، تو سروس کچھ نہیں سیکھے گی۔ لوگ ڈیٹابیس کو نہیں پڑھ سکے اور نہ ہی یہ جان سکے کہ آیا مواد مماثل ہے، کیونکہ یہ معلومات قانون نافذ کرنے والے طریقوں کو ظاہر کر سکتی ہے اور مجرموں کو پتہ لگانے سے بچنے میں مدد کر سکتی ہے۔

باخبر مبصرین کا کہنا تھا کہ ہمارے جیسا نظام ممکن نہیں تھا۔ بہت سے غلط آغاز کے بعد، ہم نے ایک کام کرنے والا پروٹو ٹائپ بنایا۔ لیکن ہمیں ایک واضح مسئلہ کا سامنا کرنا پڑا۔

ایپل کی جانب سے اس فیچر کے اعلان کے بعد سے کمپنی پر بمباری جاری ہے۔ خدشات کے ساتھ کہ CSAM کا پتہ لگانے کے پیچھے موجود نظام کو جابر حکومتوں کی درخواست پر تصاویر کی دوسری شکلوں کا پتہ لگانے کے لیے استعمال کیا جا سکتا ہے۔ ایپل نے اس طرح کے امکان کے خلاف سختی سے پیچھے ہٹتے ہوئے کہا ہے کہ وہ حکومتوں کی طرف سے ایسی کسی بھی درخواست کو مسترد کر دے گا۔

بہر حال، CSAM کا پتہ لگانے کے لیے استعمال ہونے والی ٹیکنالوجی کے مستقبل کے مضمرات کے بارے میں خدشات وسیع ہیں۔ مائر اور کلشریستھا نے کہا کہ حکومتیں CSAM کے علاوہ دیگر مواد کا پتہ لگانے کے لیے سسٹم کو کس طرح استعمال کر سکتی ہیں اس پر ان کے خدشات نے انہیں 'پریشان' کر دیا۔

پرانے آئی پیڈ کو ہوم ہب کے طور پر استعمال کریں۔

مثال کے طور پر، ایک غیر ملکی حکومت ناپسندیدہ سیاسی تقریر کا اشتراک کرنے والے لوگوں کے لیے خدمت کو مجبور کر سکتی ہے۔ یہ کوئی فرضی بات نہیں ہے: WeChat، مشہور چینی میسجنگ ایپ، پہلے ہی اختلافی مواد کی شناخت کے لیے مشابہ مواد کا استعمال کرتی ہے۔ ہندوستان نے اس سال ایسے قوانین نافذ کیے ہیں جن کے تحت حکومتی پالیسی پر تنقید کرنے والے مواد کی پہلے سے اسکریننگ کی ضرورت پڑسکتی ہے۔ روس نے حال ہی میں گوگل، فیس بک اور ٹوئٹر پر جمہوریت کے حامی احتجاجی مواد کو نہ ہٹانے پر جرمانہ عائد کیا۔

ہم نے دیگر کوتاہیوں کو دیکھا۔ مواد کی مماثلت کے عمل میں غلط مثبت اثرات ہوسکتے ہیں، اور بدنیتی پر مبنی صارفین سسٹم کو بے گناہ صارفین کی جانچ پڑتال کا نشانہ بنا سکتے ہیں۔

ہم اتنے پریشان تھے کہ ہم نے ایک ایسا قدم اٹھایا جو ہم نے کمپیوٹر سائنس لٹریچر میں پہلے نہیں دیکھا تھا: ہم نے اپنے سسٹم کے ڈیزائن کے خلاف انتباہ کیا، اس بارے میں مزید تحقیق پر زور دیا کہ سنگین نشیب و فراز کو کیسے کم کیا جائے....

ایپل نے اپنے منصوبوں پر صارفین کے خدشات کو دور کرنا جاری رکھا ہے، اضافی دستاویزات شائع کرنا اور ایک عمومی سوالنامہ صفحہ . ایپل اس بات پر یقین رکھتا ہے کہ اس کا CSAM کا پتہ لگانے کا نظام، جو صارف کے آلے پر ہوگا، اس کی دیرینہ رازداری کی اقدار کے مطابق ہے۔

ٹیگز: ایپل پرائیویسی , WashingtonPost.com , Apple چائلڈ سیفٹی فیچرز