ایپل نیوز

ایپل نے CSAM کا پتہ لگانے کے خدشات کو حل کیا، فی ملک کی بنیاد پر نظام کو بڑھانے پر غور کرے گا

جمعہ 6 اگست 2021 11:25 am PDT بذریعہ Joe Rossignol

ایپل نے اس ہفتے اعلان کیا کہ، اس سال کے آخر میں iOS 15 اور iPadOS 15، کمپنی کے ساتھ شروع ہوگا۔ iCloud تصاویر میں محفوظ بچوں کے جنسی استحصال کے مواد (CSAM) کی معلوم تصاویر کا پتہ لگانے کے قابل ہو جائے گا , ایپل کو ان واقعات کی اطلاع نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن کو کرنے کے قابل بناتا ہے، ایک غیر منافع بخش تنظیم جو ریاستہائے متحدہ میں قانون نافذ کرنے والے اداروں کے ساتھ مل کر کام کرتی ہے۔





ایپل سیسم فلو چارٹ
منصوبے ہیں۔ کچھ سیکورٹی محققین کے درمیان خدشات کو جنم دیا اور دوسری پارٹیاں کہ ایپل کو آخر کار حکومتیں مجبور کر سکتی ہیں کہ وہ غیر CSAM تصاویر کو ہیش لسٹ میں مذموم مقاصد کے لیے شامل کریں، جیسے کہ سیاسی سرگرمی کو دبانا۔

'چاہے کتنی ہی نیک نیتی کیوں نہ ہو، ایپل اس کے ساتھ پوری دنیا میں بڑے پیمانے پر نگرانی کر رہا ہے،' کہا ممتاز سیٹی بلور ایڈورڈ سنوڈن نے مزید کہا کہ 'اگر وہ آج بچوں کی پورن کو اسکین کرسکتے ہیں تو کل وہ کسی بھی چیز کے لیے اسکین کرسکتے ہیں۔' غیر منافع بخش الیکٹرانک فرنٹیئر فاؤنڈیشن ایپل کے منصوبوں پر بھی تنقید کی۔ , یہ بتاتے ہوئے کہ 'یہاں تک کہ ایک اچھی طرح سے دستاویزی، احتیاط سے سوچا گیا، اور مختصر دائرہ کار والا بیک ڈور اب بھی بیک ڈور ہے۔'



ان خدشات کو دور کرنے کے لیے، ایپل نے آج اپنے منصوبوں کے بارے میں اضافی تبصرہ فراہم کیا۔

ایپل کا جانا جاتا CSAM کا پتہ لگانے کا نظام لانچ کے وقت ریاستہائے متحدہ تک محدود رہے گا، اور کچھ حکومتوں کی جانب سے اس نظام کے غلط استعمال کی کوشش کرنے کے امکانات کو دور کرنے کے لیے، ایپل نے ایٹرنل کو تصدیق کی کہ کمپنی کسی ملک میں سسٹم کی کسی بھی ممکنہ عالمی توسیع پر غور کرے گی۔ قانونی جائزہ لینے کے بعد ملک کی بنیاد پر۔ ایپل نے نظام کی عالمی توسیع کے لیے کوئی ٹائم فریم فراہم نہیں کیا، اگر کبھی ایسا اقدام ہوتا ہے۔

ایپل نے دنیا کے کسی خاص خطے کے فرضی امکان پر بھی توجہ دی جو کہ نظام کو غلط استعمال کرنے کی کوشش میں کسی حفاظتی ادارے کو خراب کرنے کا فیصلہ کرتی ہے، یہ نوٹ کرتے ہوئے کہ صارف کو نامناسب تصویر کشی کے لیے جھنڈا لگانے سے پہلے سسٹم کی پہلی پرت تحفظ ایک نامعلوم حد ہے۔ یہاں تک کہ اگر حد سے تجاوز کر گیا ہے، ایپل نے کہا کہ اس کا دستی جائزہ لینے کا عمل ایک اضافی رکاوٹ کے طور پر کام کرے گا اور معلوم CSAM تصویروں کی عدم موجودگی کی تصدیق کرے گا۔ ایپل نے کہا کہ وہ بالآخر جھنڈے والے صارف کی اطلاع NCMEC یا قانون نافذ کرنے والی ایجنسیوں کو نہیں دے گا اور یہ کہ نظام اب بھی بالکل اسی طرح کام کرے گا جیسا کہ ڈیزائن کیا گیا ہے۔

ایپل واچ کی بیٹری کتنی دیر تک چلنی چاہیے؟

ایپل نے سسٹم کے کچھ حامیوں کو بھی اجاگر کیا، کچھ پارٹیوں نے بچوں کے ساتھ بدسلوکی سے لڑنے کی کوششوں کے لیے کمپنی کی تعریف کی۔

فیملی آن لائن سیفٹی انسٹی ٹیوٹ کے سی ای او سٹیفن بالکم نے کہا، 'ہم بچوں کی آن لائن حفاظت کے لیے ایپل کے نقطہ نظر کے مسلسل ارتقا کی حمایت کرتے ہیں۔ 'والدین کو اپنے بچوں کی آن لائن حفاظت میں درپیش چیلنجوں کے پیش نظر، یہ ضروری ہے کہ ٹیک کمپنیاں نئے خطرات اور حقیقی نقصانات کا جواب دینے کے لیے اپنے حفاظتی آلات کو مسلسل دہرائیں اور بہتر بنائیں۔'

ایپل نے تسلیم کیا کہ اس کا کوئی سلور بلٹ جواب نہیں ہے کیونکہ اس کا تعلق سسٹم کے غلط استعمال کی صلاحیت سے ہے، لیکن کمپنی نے کہا کہ وہ اس سسٹم کو صرف اور صرف معلوم سی ایس اے ایم امیجری کا پتہ لگانے کے لیے استعمال کرنے کے لیے پرعزم ہے۔

نوٹ: اس موضوع سے متعلق بحث کی سیاسی یا سماجی نوعیت کی وجہ سے، بحث کا تھریڈ ہمارے میں موجود ہے۔ سیاسی خبریں۔ فورم فورم کے تمام ممبران اور سائٹ پر آنے والوں کا دھاگہ پڑھنے اور اس کی پیروی کرنے کا خیرمقدم ہے، لیکن پوسٹنگ کم از کم 100 پوسٹس والے فورم کے ممبران تک محدود ہے۔