ایپل نیوز

ایپل کے ملازمین داخلی طور پر CSAM کا پتہ لگانے کے منصوبوں پر تشویش کا اظہار کر رہے ہیں۔

جمعہ 13 اگست 2021 12:43 am PDT بذریعہ سمیع فاتھی

ایپل کے ملازمین اب ان افراد کے گروپ میں شامل ہو رہے ہیں جو ایپل کے اسکین کرنے کے منصوبوں پر تشویش کا اظہار کر رہے ہیں۔ آئی فون CSAM یا بچوں کے جنسی استحصال کے مواد کے لیے صارفین کی تصویری لائبریریاں، مبینہ طور پر اندرونی طور پر اس بارے میں بات کرتی ہیں کہ کس طرح ٹیکنالوجی کو استعمال کرنے والوں کی تصاویر کو دیگر اقسام کے مواد کے لیے اسکین کرنے کے لیے استعمال کیا جا سکتا ہے، کی ایک رپورٹ کے مطابق رائٹرز .





ایپل پارک ڈرون جون 2018 2
کے مطابق رائٹرز ایپل کے ملازمین کی ایک غیر متعینہ تعداد نے CSAM کا پتہ لگانے پر تشویش پیدا کرنے کے لیے اندرونی Slack چینلز کا رخ کیا ہے۔ خاص طور پر، ملازمین کو تشویش ہے کہ حکومتیں ایپل کو CSAM کے علاوہ کوئی اور مواد ڈھونڈ کر سنسر شپ کے لیے ٹیکنالوجی استعمال کرنے پر مجبور کر سکتی ہیں۔ کچھ ملازمین پریشان ہیں کہ ایپل اپنی صنعت کی معروف پرائیویسی ساکھ کو نقصان پہنچا رہا ہے۔

ایپل کے ملازمین نے ایک ہفتہ قبل اعلان کردہ منصوبے پر 800 سے زیادہ پیغامات کے ساتھ ایپل کے اندرونی سلیک چینل کو سیلاب میں ڈال دیا ہے، جن کارکنوں نے شناخت ظاہر نہ کرنے کو کہا، رائٹرز کو بتایا۔ بہت سے لوگوں نے خدشات کا اظہار کیا کہ اس خصوصیت کا استحصال کرنے والی جابر حکومتیں سنسر شپ یا گرفتاریوں کے لیے دیگر مواد تلاش کرنے کی کوشش کر رہی ہیں، کارکنوں کے مطابق جنہوں نے دنوں تک جاری رہنے والے دھاگے کو دیکھا۔



ایپل میں ماضی کی سیکیورٹی تبدیلیوں نے بھی ملازمین میں تشویش کو جنم دیا ہے، لیکن کارکنوں نے کہا کہ نئی بحث کا حجم اور دورانیہ حیران کن ہے۔ کچھ پوسٹرز نے خدشہ ظاہر کیا کہ ایپل رازداری کے تحفظ کے لیے اپنی معروف ساکھ کو نقصان پہنچا رہا ہے۔

رپورٹ کے مطابق، صارف کی حفاظت سے متعلق کرداروں میں ایپل کے ملازمین کو اندرونی احتجاج کا حصہ نہیں سمجھا جاتا ہے۔

جب سے اس کا اعلان گزشتہ ہفتے , Apple کو اس کے CSAM کا پتہ لگانے کے منصوبوں پر تنقید کا نشانہ بنایا گیا ہے، جو اب بھی اس موسم خزاں میں iOS 15 اور iPadOS 15 کے ساتھ شروع ہونے کی توقع ہے۔ خدشات بنیادی طور پر اس بات کے گرد گھومتے ہیں کہ کس طرح ٹیکنالوجی جابر حکومتوں اور حکومتوں کے ذریعے مستقبل کے نفاذ کے لیے ایک پھسلتی ڈھال پیش کر سکتی ہے۔

آپ گروپ چیٹ کیسے چھوڑتے ہیں؟

ایپل نے اس خیال کے خلاف مضبوطی سے پیچھے ہٹ گیا ہے کہ CSAM مواد کا پتہ لگانے کے لیے استعمال ہونے والی آن ڈیوائس ٹیکنالوجی کسی اور مقصد کے لیے استعمال کی جا سکتی ہے۔ ایک ___ میں شائع شدہ FAQ دستاویز کمپنی کا کہنا ہے کہ وہ حکومتوں کی طرف سے اس طرح کے کسی بھی مطالبے کو سختی سے مسترد کر دے گی۔

کیا حکومتیں ایپل کو غیر CSAM تصاویر کو ہیش لسٹ میں شامل کرنے پر مجبور کر سکتی ہیں؟
ایپل ایسے کسی بھی مطالبے سے انکار کرے گا۔ Apple کی CSAM کا پتہ لگانے کی صلاحیت صرف iCloud Photos میں محفوظ کی جانے والی CSAM تصاویر کا پتہ لگانے کے لیے بنائی گئی ہے جن کی شناخت NCMEC اور دیگر بچوں کے تحفظ کے گروپوں کے ماہرین نے کی ہے۔ ہم نے پہلے بھی حکومت کی طرف سے مقرر کردہ تبدیلیوں کو بنانے اور ان کی تعیناتی کے مطالبات کا سامنا کیا ہے جو صارفین کی رازداری کو نقصان پہنچاتے ہیں، اور ہم نے ثابت قدمی سے ان مطالبات سے انکار کر دیا ہے۔ ہم مستقبل میں بھی ان سے انکار کرتے رہیں گے۔ واضح رہے کہ یہ ٹیکنالوجی صرف iCloud میں ذخیرہ شدہ CSAM کا پتہ لگانے تک محدود ہے اور ہم اسے بڑھانے کے لیے حکومت کی کسی درخواست کو قبول نہیں کریں گے۔ مزید برآں، ایپل NCMEC کو رپورٹ کرنے سے پہلے انسانی جائزہ لیتا ہے۔ ایسی صورت میں جہاں سسٹم ان تصاویر کو جھنڈا لگاتا ہے جو معلوم CSAM امیجز سے میل نہیں کھاتی ہیں، اکاؤنٹ کو غیر فعال نہیں کیا جائے گا اور NCMEC کو کوئی رپورٹ درج نہیں کی جائے گی۔

ایک کھلا خط ایپل پر تنقید کرتے ہوئے اور کمپنی سے CSAM کا پتہ لگانے کے اپنے منصوبے کو فوری طور پر روکنے کا مطالبہ کرتے ہوئے تحریر کے وقت 7,000 سے زیادہ دستخط حاصل کر چکے ہیں۔ واٹس ایپ کے سربراہ نے بھی بحث میں وزن کیا .

ٹیگز: ایپل پرائیویسی، ایپل چائلڈ سیفٹی فیچرز