ایپل نیوز

ایپل CSAM کی کھوج اور پیغامات کی اسکیننگ کے بارے میں خدشات کو دور کرنے کے لیے اکثر پوچھے گئے سوالات شائع کرتا ہے۔

پیر 9 اگست 2021 2:50 am PDT بذریعہ Tim Hardwick

ایپل نے 'بچوں کے لیے توسیعی تحفظات' کے عنوان سے ایک عمومی سوالنامہ شائع کیا ہے جس کا مقصد نئے CSAM کا پتہ لگانے کے بارے میں صارفین کی رازداری کے خدشات کو دور کرنا ہے۔ iCloud تصاویر اور پیغامات کے لیے کمیونیکیشن سیفٹی جو کمپنی کی خصوصیات ہیں۔ گزشتہ ہفتے اعلان کیا .





ایپل کی رازداری
'جب سے ہم نے ان خصوصیات کا اعلان کیا ہے، بہت سے اسٹیک ہولڈرز بشمول پرائیویسی آرگنائزیشنز اور چائلڈ سیفٹی آرگنائزیشنز نے اس نئے حل کی حمایت کا اظہار کیا ہے، اور کچھ سوالات کے ساتھ پہنچ چکے ہیں،' اکثر پوچھے گئے سوالات پڑھتے ہیں۔ 'یہ دستاویز ان سوالات کو حل کرنے اور عمل میں مزید وضاحت اور شفافیت فراہم کرنے کا کام کرتی ہے۔'

کچھ مباحثوں نے دونوں خصوصیات کے درمیان فرق کو دھندلا کر دیا ہے، اور ایپل کو اس میں بہت تکلیف ہوتی ہے۔ دستاویز ان میں فرق کرنے کے لیے، یہ بتاتے ہوئے کہ میسجز میں کمیونیکیشن سیفٹی 'صرف فیملی شیئرنگ میں سیٹ اپ چائلڈ اکاؤنٹس کے لیے میسجز ایپ میں بھیجی گئی یا موصول ہونے والی تصاویر پر کام کرتی ہے'، جبکہ ‌iCloud Photos‌ میں CSAM کا پتہ لگانا۔ 'صرف ان صارفین کو متاثر کرتا ہے جنہوں نے ‌iCloud فوٹوز‌ ان کی تصاویر کو ذخیرہ کرنے کے لیے... کسی دوسرے آن ڈیوائس ڈیٹا پر کوئی اثر نہیں پڑتا ہے۔'



FAQ سے:

کیا آپ آئی فون پر حال ہی میں حذف شدہ ایپس دیکھ سکتے ہیں؟

یہ دونوں خصوصیات ایک جیسی نہیں ہیں اور ایک ہی ٹیکنالوجی کا استعمال نہیں کرتی ہیں۔

پیغامات میں کمیونیکیشن سیفٹی والدین اور بچوں کو اضافی ٹولز فراہم کرنے کے لیے ڈیزائن کی گئی ہے تاکہ وہ اپنے بچوں کو پیغامات ایپ میں جنسی طور پر واضح تصاویر بھیجنے اور وصول کرنے سے محفوظ رکھیں۔ یہ صرف فیملی شیئرنگ میں سیٹ اپ چائلڈ اکاؤنٹس کے لیے میسجز ایپ میں بھیجی یا موصول ہونے والی تصاویر پر کام کرتا ہے۔ یہ ڈیوائس پر موجود تصاویر کا تجزیہ کرتا ہے، اور اس طرح پیغامات کی رازداری کی یقین دہانیوں کو تبدیل نہیں کرتا ہے۔ جب بچے کا اکاؤنٹ جنسی طور پر واضح تصاویر بھیجتا یا وصول کرتا ہے، تو تصویر کو دھندلا کر دیا جائے گا اور بچے کو متنبہ کیا جائے گا، مددگار وسائل کے ساتھ پیش کیا جائے گا، اور یقین دہانی کرائی جائے گی کہ اگر وہ تصویر دیکھنا یا بھیجنا نہیں چاہتے ہیں تو یہ ٹھیک ہے۔ ایک اضافی احتیاط کے طور پر، چھوٹے بچوں کو یہ بھی بتایا جا سکتا ہے کہ، یہ یقینی بنانے کے لیے کہ وہ محفوظ ہیں، اگر وہ اسے دیکھتے ہیں تو ان کے والدین کو پیغام ملے گا۔

دوسری خصوصیت، iCloud Photos میں CSAM کا پتہ لگانا، CSAM کو iCloud Photos سے دور رکھنے کے لیے ڈیزائن کیا گیا ہے کہ Apple کو ان تصاویر کے علاوہ جو معلوم CSAM امیجز سے مماثل ہیں ان کے بارے میں معلومات فراہم کیے بغیر۔ امریکہ سمیت بیشتر ممالک میں CSAM تصاویر رکھنا غیر قانونی ہے۔ یہ خصوصیت صرف ان صارفین کو متاثر کرتی ہے جنہوں نے اپنی تصاویر کو ذخیرہ کرنے کے لیے iCloud فوٹو استعمال کرنے کا انتخاب کیا ہے۔ یہ ان صارفین کو متاثر نہیں کرتا جنہوں نے iCloud فوٹو استعمال کرنے کا انتخاب نہیں کیا ہے۔ کسی دوسرے آن ڈیوائس ڈیٹا پر کوئی اثر نہیں پڑتا ہے۔ یہ خصوصیت پیغامات پر لاگو نہیں ہوتی ہے۔

باقی دستاویز کو تین حصوں میں تقسیم کیا گیا ہے (نیچے بولڈ میں)، درج ذیل عام طور پر پوچھے گئے سوالات کے جوابات کے ساتھ:

ڈی این ڈی آئی فون پر کیا کرتا ہے۔

آئی فون کے لیے پہلے سے ریکارڈ شدہ صوتی میل مبارکباد
    پیغامات میں مواصلات کی حفاظت
  • پیغامات میں مواصلات کی حفاظت کون استعمال کر سکتا ہے؟
  • کیا اس کا مطلب یہ ہے کہ پیغامات ایپل یا قانون نافذ کرنے والے اداروں کے ساتھ معلومات کا اشتراک کریں گے؟
  • کیا اس سے پیغامات میں اینڈ ٹو اینڈ انکرپشن ٹوٹ جاتا ہے؟
  • کیا یہ خصوصیت بدسلوکی والے گھروں میں بچوں کو مدد طلب کرنے سے روکتی ہے؟
  • کیا والدین کو بچوں کو خبردار کیے بغیر اور ان کا انتخاب کیے بغیر مطلع کیا جائے گا؟
  • CSAM کا پتہ لگانا
  • کیا اس کا مطلب یہ ہے کہ ایپل میری پر محفوظ کردہ تمام تصاویر کو اسکین کرنے جا رہا ہے۔ آئی فون ?
  • کیا یہ CSAM تصاویر کو میرے ‌iPhone‌ میری تصویروں سے موازنہ کرنا؟
  • ایپل اب ایسا کیوں کر رہا ہے؟
  • iCloud تصاویر کے لیے CSAM کا پتہ لگانے کے لیے سیکیورٹی
  • کیا CSAM کا پتہ لگانے کا نظام ‌iCloud Photos‌ CSAM کے علاوہ چیزوں کا پتہ لگانے کے لیے استعمال کیا جائے؟
  • کیا حکومتیں ایپل کو غیر CSAM تصاویر کو ہیش لسٹ میں شامل کرنے پر مجبور کر سکتی ہیں؟
  • کیا CSAM کے علاوہ دیگر چیزوں کے اکاؤنٹس پر پرچم لگانے کے لیے غیر CSAM تصاویر کو سسٹم میں 'انجیکٹ' کیا جا سکتا ہے؟
  • کیا CSAM کا پتہ ‌iCloud Photos‌ بے گناہ لوگوں کو قانون نافذ کرنے کے لیے جھوٹا جھنڈا؟

دلچسپی رکھنے والے قارئین کو ایپل کے ان سوالات کے مکمل جوابات کے لیے دستاویز سے رجوع کرنا چاہیے۔ تاہم، یہ بات قابل غور ہے کہ ان سوالات کے لیے جن کا جواب بائنری ہاں/ناں میں دیا جا سکتا ہے، ایپل ان سب کو 'نہیں' سے شروع کرتا ہے، اس سیکشن میں درج ذیل تین سوالات کو چھوڑ کر 'سیکیورٹی فار سی ایس اے ایم کی کھوج برائے ‌ iCloud تصاویر‌:'

کیا iCloud Photos میں CSAM کا پتہ لگانے کے نظام کو CSAM کے علاوہ چیزوں کا پتہ لگانے کے لیے استعمال کیا جا سکتا ہے؟
ہمارا عمل ایسا ہونے سے روکنے کے لیے ڈیزائن کیا گیا ہے۔ iCloud Photos کے لیے CSAM کا پتہ لگانے کو اس لیے بنایا گیا ہے کہ یہ سسٹم صرف NCMEC اور دیگر بچوں کی حفاظت کی تنظیموں کے ذریعے فراہم کردہ CSAM امیج ہیشز کے ساتھ کام کرتا ہے۔ امیج ہیشز کا یہ سیٹ بچوں کی حفاظت کی تنظیموں کے ذریعہ حاصل کردہ اور CSAM ہونے کی تصدیق شدہ تصاویر پر مبنی ہے۔ قانون نافذ کرنے والے اداروں کو کوئی خودکار رپورٹنگ نہیں ہے، اور Apple NCMEC کو رپورٹ کرنے سے پہلے انسانی جائزہ لیتا ہے۔ نتیجے کے طور پر، سسٹم کو صرف ان تصاویر کی اطلاع دینے کے لیے ڈیزائن کیا گیا ہے جو iCloud Photos میں CSAM کے نام سے مشہور ہیں۔ زیادہ تر ممالک میں، بشمول ریاستہائے متحدہ، صرف ان تصاویر کا رکھنا ایک جرم ہے اور ایپل کسی بھی صورت کے بارے میں ہمیں مناسب حکام کو اطلاع دینے کا پابند ہے۔

کیا حکومتیں ایپل کو غیر CSAM تصاویر کو ہیش لسٹ میں شامل کرنے پر مجبور کر سکتی ہیں؟
ایپل ایسے کسی بھی مطالبے سے انکار کرے گا۔ Apple کی CSAM کا پتہ لگانے کی صلاحیت صرف iCloud Photos میں محفوظ کی جانے والی CSAM تصاویر کا پتہ لگانے کے لیے بنائی گئی ہے جن کی شناخت NCMEC اور دیگر بچوں کے تحفظ کے گروپوں کے ماہرین نے کی ہے۔ ہم نے پہلے بھی حکومت کی طرف سے مقرر کردہ تبدیلیوں کو بنانے اور ان کی تعیناتی کے مطالبات کا سامنا کیا ہے جو صارفین کی رازداری کو نقصان پہنچاتے ہیں، اور ہم نے ثابت قدمی سے ان مطالبات سے انکار کر دیا ہے۔ ہم مستقبل میں بھی ان سے انکار کرتے رہیں گے۔ واضح رہے کہ یہ ٹیکنالوجی صرف iCloud میں ذخیرہ شدہ CSAM کا پتہ لگانے تک محدود ہے اور ہم اسے بڑھانے کے لیے حکومت کی کسی درخواست کو قبول نہیں کریں گے۔ مزید برآں، ایپل NCMEC کو رپورٹ کرنے سے پہلے انسانی جائزہ لیتا ہے۔ ایسی صورت میں جہاں سسٹم ان تصاویر کو جھنڈا لگاتا ہے جو معلوم CSAM امیجز سے میل نہیں کھاتی ہیں، اکاؤنٹ کو غیر فعال نہیں کیا جائے گا اور NCMEC کو کوئی رپورٹ درج نہیں کی جائے گی۔

کیا CSAM کے علاوہ دیگر چیزوں کے اکاؤنٹس پر پرچم لگانے کے لیے غیر CSAM تصاویر کو سسٹم میں 'انجیکٹ' کیا جا سکتا ہے؟
ہمارا عمل ایسا ہونے سے روکنے کے لیے ڈیزائن کیا گیا ہے۔ مماثلت کے لیے استعمال ہونے والی تصویری ہیشز کا سیٹ CSAM کی معلوم، موجودہ تصاویر سے ہے جو بچوں کی حفاظت کی تنظیموں کے ذریعے حاصل کی گئی ہیں اور ان کی تصدیق کی گئی ہے۔ Apple معلوم CSAM امیج ہیش کے سیٹ میں شامل نہیں کرتا ہے۔ ہیش کا ایک ہی سیٹ ہر آئی فون اور آئی پیڈ صارف کے آپریٹنگ سسٹم میں محفوظ ہوتا ہے، اس لیے ہمارے ڈیزائن کے تحت صرف مخصوص افراد کے خلاف ٹارگٹ حملے ممکن نہیں ہیں۔ آخر کار، قانون نافذ کرنے والے اداروں کو کوئی خودکار رپورٹنگ نہیں ہے، اور Apple NCMEC کو رپورٹ کرنے سے پہلے انسانی جائزہ لیتا ہے۔ سسٹم کو فلیگ کرنے والی امیجز جو معلوم CSAM امیجز سے مماثل نہیں ہیں، کی غیر امکانی صورت میں، اکاؤنٹ کو غیر فعال نہیں کیا جائے گا اور NCMEC کو کوئی رپورٹ درج نہیں کی جائے گی۔

ایپل کو پرائیویسی کے حامیوں، سیکورٹی محققین، خفیہ نگاری کے ماہرین، ماہرین تعلیم، اور دیگر کی جانب سے اس ٹیکنالوجی کی ریلیز کے ساتھ ہی اس ٹیکنالوجی کو تعینات کرنے کے فیصلے پر نمایاں تنقید کا سامنا کرنا پڑا ہے۔ iOS 15 اور آئی پیڈ 15 ستمبر میں متوقع ہے۔

اس کے نتیجے میں ایک کھلا خط ‌iCloud Photos‌ میں CSAM کے لیے iPhones اسکین کرنے کے ایپل کے منصوبے پر تنقید اور بچوں کے پیغامات میں واضح تصاویر، جس نے تحریری طور پر 5,500 سے زیادہ دستخط حاصل کیے ہیں۔ ایپل کو فیس بک کی ملکیت واٹس ایپ کی جانب سے بھی تنقید کا سامنا کرنا پڑا ہے، جس کے سربراہ ول کیتھ کارٹ ہیں۔ اسے بلایا 'غلط نقطہ نظر اور پوری دنیا میں لوگوں کی رازداری کے لیے ایک دھچکا۔' ایپک گیمز کے سی ای او ٹم سوینی بھی حملہ کیا فیصلہ، یہ دعویٰ کرتے ہوئے کہ اس نے ایپل کے نقطہ نظر سے اس اقدام کو دیکھنے کی 'سخت کوشش' کی تھی، لیکن اس نے یہ نتیجہ اخذ کیا تھا کہ 'ناگزیر طور پر، یہ حکومتی اسپائی ویئر ہے جو ایپل کے ذریعہ نصب کیا گیا ہے جو جرم کے قیاس کی بنیاد پر ہے۔'

'چاہے کتنی ہی نیک نیتی کیوں نہ ہو، ایپل اس کے ساتھ پوری دنیا میں بڑے پیمانے پر نگرانی کر رہا ہے،' کہا ممتاز سیٹی بلور ایڈورڈ سنوڈن نے مزید کہا کہ 'اگر وہ آج بچوں کی پورن کے لیے اسکین کرسکتے ہیں، تو وہ کل کسی بھی چیز کے لیے اسکین کرسکتے ہیں۔' غیر منافع بخش الیکٹرانک فرنٹیئر فاؤنڈیشن بھی تنقید کی ایپل کے منصوبے، یہ بتاتے ہوئے کہ 'یہاں تک کہ ایک اچھی طرح سے دستاویزی، احتیاط سے سوچا گیا، اور تنگ دائرہ والا بیک ڈور اب بھی بیک ڈور ہے۔'

ایپل ٹی وی ایپ کیا ہے؟
ٹیگز: ایپل پرائیویسی، ایپل چائلڈ سیفٹی فیچرز