ایپل نیوز

ایپل بچوں کی حفاظت کے نئے فیچرز متعارف کروا رہا ہے، جس میں جنسی زیادتی کے مواد کے لیے صارفین کی فوٹو لائبریریوں کو سکین کرنا بھی شامل ہے۔

جمعرات 5 اگست 2021 1:00 PDT بذریعہ Joe Rossignol

ایپل آج بچوں کی حفاظت کی نئی خصوصیات کا پیش نظارہ جو اس سال کے آخر میں سافٹ ویئر اپ ڈیٹس کے ساتھ اپنے پلیٹ فارمز پر آئے گا۔ کمپنی نے کہا کہ یہ خصوصیات صرف لانچ کے وقت امریکہ میں دستیاب ہوں گی اور وقت کے ساتھ ساتھ دیگر خطوں میں بھی پھیلائی جائیں گی۔





آئی فون مواصلات کی حفاظت کی خصوصیت

کمیونیکیشن سیفٹی

سب سے پہلے، آئی فون، آئی پیڈ، اور میک پر میسجز ایپ کو بچوں اور ان کے والدین کو جنسی طور پر واضح تصاویر موصول کرنے یا بھیجنے پر متنبہ کرنے کے لیے کمیونیکیشن سیفٹی کا ایک نیا فیچر ملے گا۔ ایپل نے کہا کہ پیغامات ایپ تصویری منسلکات کا تجزیہ کرنے کے لیے آن ڈیوائس مشین لرننگ کا استعمال کرے گی، اور اگر کوئی تصویر جنسی طور پر واضح ہونے کا تعین کرتی ہے، تو تصویر خود بخود دھندلی ہو جائے گی اور بچے کو خبردار کیا جائے گا۔



آئی پوڈ ٹچ بلیک فرائیڈے ڈیلز 2018

جب کوئی بچہ پیغامات ایپ میں جھنڈے والی تصویر کو حساس کے طور پر دیکھنے کی کوشش کرتا ہے، تو اسے متنبہ کیا جائے گا کہ تصویر میں جسم کے پرائیویٹ حصے ہو سکتے ہیں، اور یہ تصویر تکلیف دہ ہو سکتی ہے۔ بچے کی عمر کے لحاظ سے، اگر ان کا بچہ حساس تصویر دیکھنے کے لیے آگے بڑھتا ہے یا تنبیہ کیے جانے کے بعد کسی دوسرے رابطہ کو جنسی طور پر واضح تصویر بھیجنے کا انتخاب کرتا ہے تو والدین کے لیے اطلاع موصول کرنے کا اختیار بھی ہوگا۔

ایپل نے کہا کہ کمیونیکیشن سیفٹی کی نئی خصوصیت اس سال کے آخر میں iOS 15، iPadOS 15 اور macOS Monterey کی اپ ڈیٹس میں آئی کلاؤڈ میں فیملیز کے طور پر قائم کردہ اکاؤنٹس کے لیے آئے گی۔ ایپل نے اس بات کو یقینی بنایا کہ iMessage کی بات چیت کو اینڈ ٹو اینڈ انکرپشن کے ساتھ محفوظ رکھا جائے گا، جس سے ایپل کے ذریعے پرائیویٹ کمیونیکیشنز کو پڑھا نہیں جا سکتا۔

بچوں کے جنسی استحصال کے مواد (CSAM) کے لیے تصاویر سکین کرنا

دوسرا، iOS 15 اور iPadOS 15 کے ساتھ اس سال کے آغاز سے، Apple iCloud Photos میں محفوظ بچوں کے جنسی استحصال کے مواد (CSAM) کی معلوم تصاویر کا پتہ لگانے کے قابل ہو جائے گا، جس سے Apple ان واقعات کی اطلاع نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن (NCMEC) کو دے سکے گا۔ ، ایک غیر منافع بخش تنظیم جو امریکی قانون نافذ کرنے والے اداروں کے تعاون سے کام کرتی ہے۔

ایپل نے کہا کہ معلوم CSAM کا پتہ لگانے کا اس کا طریقہ صارف کی رازداری کو ذہن میں رکھتے ہوئے ڈیزائن کیا گیا ہے۔ کلاؤڈ میں تصاویر کو اسکین کرنے کے بجائے، ایپل نے کہا کہ سسٹم NCMEC اور دیگر بچوں کی حفاظت کی تنظیموں کے ذریعہ فراہم کردہ معلوم CSAM امیج ہیش کے ڈیٹا بیس کے خلاف ڈیوائس پر میچنگ انجام دے گا۔ ایپل نے کہا کہ وہ اس ڈیٹا بیس کو ہیش کے ناقابل پڑھے ہوئے سیٹ میں مزید تبدیل کرے گا جو صارفین کے آلات پر محفوظ طریقے سے محفوظ ہے۔

ایپل کے مطابق، نیورل ہیش نامی ہیشنگ ٹیکنالوجی کسی تصویر کا تجزیہ کرتی ہے اور اسے اس تصویر سے مخصوص ایک منفرد نمبر میں تبدیل کرتی ہے۔

ایپل نے ایک نئے 'بچوں کے لیے توسیعی تحفظات' وائٹ پیپر میں کہا کہ 'ہیش کا بنیادی مقصد یہ یقینی بنانا ہے کہ ایک جیسی اور بصری طور پر ایک جیسی تصاویر کے نتیجے میں ایک ہی ہیش بنتی ہے، جب کہ جو تصاویر ایک دوسرے سے مختلف ہوتی ہیں ان کے نتیجے میں مختلف ہیش ہوتے ہیں۔' 'مثال کے طور پر، ایک تصویر جس کو تھوڑا سا تراش دیا گیا ہے، اس کا سائز تبدیل کیا گیا ہے یا اسے رنگ سے سیاہ اور سفید میں تبدیل کیا گیا ہے، اسے اس کی اصل کے جیسا ہی سمجھا جاتا ہے، اور اس میں ایک ہی ہیش ہے۔'

ایپل سیسم فلو چارٹ
آئی کلاؤڈ فوٹوز میں کسی تصویر کو محفوظ کرنے سے پہلے، ایپل نے کہا کہ اس تصویر کے لیے ایک آن ڈیوائس مماثلت کا عمل معروف CSAM ہیشز کے ناقابل پڑھے جانے والے سیٹ کے خلاف انجام دیا جاتا ہے۔ اگر کوئی مماثلت ہے، تو آلہ ایک خفیہ حفاظتی واؤچر بناتا ہے۔ اس واؤچر کو تصویر کے ساتھ iCloud Photos پر اپ لوڈ کیا جاتا ہے، اور ایک بار جب میچوں کی نامعلوم حد سے تجاوز کر جاتا ہے، تو Apple CSAM میچوں کے واؤچرز کے مواد کی تشریح کر سکتا ہے۔ ایپل پھر دستی طور پر ہر رپورٹ کا جائزہ لیتا ہے تاکہ اس بات کی تصدیق کی جا سکے کہ کوئی میچ ہے، صارف کے iCloud اکاؤنٹ کو غیر فعال کر دیتا ہے، اور NCMEC کو رپورٹ بھیجتا ہے۔ ایپل اس بات کا اشتراک نہیں کر رہا ہے کہ اس کی صحیح حد کیا ہے، لیکن 'انتہائی اعلیٰ سطح کی درستگی' کو یقینی بناتا ہے کہ اکاؤنٹس کو غلط طریقے سے نشان زد نہیں کیا گیا ہے۔

ایپل نے کہا کہ معلوم سی ایس اے ایم کا پتہ لگانے کا اس کا طریقہ موجودہ تکنیکوں پر 'اہم رازداری کے فوائد' فراہم کرتا ہے:

• یہ سسٹم صارف کی پرائیویسی کی حفاظت کرتے ہوئے iCloud Photos اکاؤنٹس میں محفوظ CSAM کی شناخت کرنے کا ایک مؤثر طریقہ ہے۔
• اس عمل کے حصے کے طور پر، صارفین CSAM کی معلوم تصاویر کے سیٹ کے بارے میں بھی کچھ نہیں سیکھ سکتے جو مماثلت کے لیے استعمال ہوتی ہے۔ یہ ڈیٹا بیس کے مواد کو بدنیتی پر مبنی استعمال سے بچاتا ہے۔
• نظام بہت درست ہے، جس کی انتہائی کم خرابی کی شرح ایک ٹریلین اکاؤنٹ میں سے ایک سے بھی کم سالانہ ہے۔
• یہ سسٹم کلاؤڈ بیسڈ اسکیننگ کے مقابلے میں نمایاں طور پر زیادہ رازداری کا تحفظ کرنے والا ہے، کیونکہ یہ صرف ان صارفین کی اطلاع دیتا ہے جن کے پاس آئی کلاؤڈ فوٹوز میں CSAM کا ایک مجموعہ محفوظ ہے۔

ایپل کے سسٹم کے پیچھے بنیادی ٹیکنالوجی کافی پیچیدہ ہے اور اس نے ایک شائع کیا ہے۔ تکنیکی خلاصہ مزید تفصیلات کے ساتھ۔

'بچوں کے لیے ایپل کا توسیعی تحفظ گیم چینجر ہے۔ بہت سارے لوگ ایپل کی مصنوعات استعمال کرتے ہیں، ان نئے حفاظتی اقدامات میں ان بچوں کے لیے زندگی بچانے کی صلاحیت ہے جو آن لائن پھنسائے جا رہے ہیں اور جن کی خوفناک تصاویر بچوں کے جنسی استحصال کے مواد میں پھیلائی جا رہی ہیں،' جان کلارک، صدر اور سی ای او نیشنل سینٹر فار مسنگ نے کہا۔ اور استحصال شدہ بچے۔ 'نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن میں ہم جانتے ہیں کہ اس جرم کا مقابلہ صرف اسی صورت میں کیا جا سکتا ہے جب ہم بچوں کی حفاظت کے لیے اپنی لگن میں ثابت قدم رہیں۔ ہم یہ صرف اس لیے کر سکتے ہیں کیونکہ ٹیکنالوجی کے شراکت دار، ایپل کی طرح، قدم بڑھاتے ہیں اور اپنی لگن کو ظاہر کرتے ہیں۔ حقیقت یہ ہے کہ پرائیویسی اور بچوں کا تحفظ ایک ساتھ رہ سکتے ہیں۔ ہم ایپل کی تعریف کرتے ہیں اور اس دنیا کو بچوں کے لیے ایک محفوظ جگہ بنانے کے لیے مل کر کام کرنے کے منتظر ہیں۔'

سری اور تلاش میں توسیع شدہ CSAM گائیڈنس

آئی فون سیسیم سری
تیسرا، ایپل نے کہا کہ وہ بچوں اور والدین کو آن لائن محفوظ رہنے اور غیر محفوظ حالات میں مدد حاصل کرنے میں مدد کے لیے اضافی وسائل فراہم کر کے تمام آلات پر سری اور اسپاٹ لائٹ تلاش میں رہنمائی کو بڑھا دے گا۔ مثال کے طور پر، وہ صارفین جو سری سے پوچھتے ہیں کہ وہ CSAM یا بچوں کے استحصال کی رپورٹ کیسے کر سکتے ہیں، انہیں وسائل کی طرف اشارہ کیا جائے گا کہ رپورٹ کہاں اور کیسے درج کی جائے۔

ایپل کے مطابق، سری اور سرچ کی اپ ڈیٹس اس سال کے آخر میں آئی او ایس 15، آئی پیڈ او ایس 15، واچ او ایس 8 اور میک او ایس مونٹیری کی اپ ڈیٹ میں آرہی ہیں۔

نوٹ: اس موضوع کے حوالے سے بحث کی سیاسی یا سماجی نوعیت کی وجہ سے بحث کا تھریڈ ہمارے میں موجود ہے۔ سیاسی خبریں۔ فورم فورم کے تمام ممبران اور سائٹ پر آنے والوں کا دھاگہ پڑھنے اور اس کی پیروی کرنے کا خیرمقدم ہے، لیکن پوسٹنگ کم از کم 100 پوسٹس والے فورم کے ممبران تک محدود ہے۔

ٹیگز: ایپل پرائیویسی، ایپل چائلڈ سیفٹی فیچرز