د ایپل د CSAM سیسټم غولول شوی، مګر شرکت دوه ساتونکي لري

تازه کول: ایپل د سرور دوهم تفتیش یادونه وکړه ، او د مسلکي کمپیوټر لید شرکت د دې احتمال په ګوته کړ چې دا د لاندې "څنګه دوهم تفتیش کار کولی شي" کې تشریح شي.
وروسته له دې چې پراختیا کونکو د دې انجینر شوي برخې بیرته راګرځولې، د ایپل CSAM سیسټم لومړنۍ نسخه په مؤثره توګه د یو بې ګناه عکس نښه کولو لپاره چلول شوې.په هرصورت، ایپل وویل چې دا په ریښتیني ژوند کې د دې پیښې مخنیوي لپاره اضافي محافظتونه لري.
وروستی پرمختګ وروسته له هغه رامینځته شو چې د نیورال هاش الګوریتم د خلاصې سرچینې پراختیا کونکي ویب پا GitHub ته خپور شو ، هرڅوک کولی شي د دې سره تجربه وکړي ...
د CSAM ټول سیسټمونه د سازمانونو څخه د ماشومانو د جنسي تیري پیژندل شوي موادو ډیټابیس واردولو سره کار کوي لکه د ورک شوي او استحصال شوي ماشومانو لپاره ملي مرکز (NCMEC).ډیټابیس د عکسونو څخه د هش یا ډیجیټل ګوتو نښو په بڼه چمتو شوی.
که څه هم ډیری د ټیکنالوژۍ لویان په کلاوډ کې اپلوډ شوي عکسونه سکین کوي ​​، ایپل د پیرودونکي په آی فون کې د نیورال هش الګوریتم کاروي ترڅو د زیرمه شوي عکس هش ارزښت تولید کړي ، او بیا یې د CSAM هش ارزښت ډاونلوډ شوي کاپي سره پرتله کوي.
پرون، یو پراختیا کونکي ادعا وکړه چې د ایپل الګوریتم ریورس انجنیر کړی او GitHub ته یې کوډ خپور کړی - دا ادعا د ایپل لخوا په اغیزمنه توګه تایید شوې.
د GitHib خوشې کیدو څخه څو ساعته وروسته، څیړونکو په بریالیتوب سره د الګوریتم څخه کار واخیست ترڅو یو قصدي غلط مثبت - دوه بشپړ مختلف عکسونه رامینځته کړي چې ورته هش ارزښت یې رامینځته کړی.دې ته ټکر ویل کیږي.
د داسې سیسټمونو لپاره، تل د ټکر خطر شتون لري، ځکه چې هش البته د عکس خورا ساده نمایندګي ده، مګر دا د حیرانتیا خبره ده چې یو څوک کولی شي په چټکۍ سره عکس تولید کړي.
دلته قصدي ټکر یوازې د مفهوم ثبوت دی.پراختیا کونکي د CSAM هش ډیټابیس ته لاسرسی نلري ، کوم چې به د ریښتیني وخت سیسټم کې د غلط مثبتونو رامینځته کولو ته اړتیا ولري ، مګر دا ثابتوي چې د ټکر بریدونه په اصولو کې نسبتا اسانه دي.
ایپل په مؤثره توګه تایید کړه چې الګوریتم د خپل سیسټم اساس دی، مګر مور بورډ ته یې وویل چې دا وروستۍ نسخه نه ده.شرکت دا هم ویلي چې هیڅکله یې د محرم ساتلو اراده نه درلوده.
ایپل مادربورډ ته په بریښنالیک کې وویل چې په GitHub کې د کارونکي لخوا تحلیل شوی نسخه یو عام نسخه ده ، نه وروستۍ نسخه چې د iCloud عکس CSAM کشف لپاره کارول کیږي.ایپل وویل چې دا الګوریتم هم افشا کړی.
"د نیورال هش الګوریتم [...] د لاسلیک شوي عملیاتي سیسټم کوډ برخه ده [او] امنیتي څیړونکي کولی شي تصدیق کړي چې د دې چلند د توضیحاتو سره مطابقت لري ،" د ایپل سند لیکلي.
شرکت وویل چې دوه نور مرحلې شتون لري: په خپل سرور کې د ثانوي (پټ) میچینګ سیسټم چلول ، او لارښود بیاکتنه.
ایپل دا هم ویلي چې وروسته له دې چې کاروونکي د 30 میچ حد تیریږي، د ایپل په سرورونو کې روان دویم غیر عامه الګوریتم به پایلې وګوري.
"دا خپلواکه هش د دې احتمال ردولو لپاره غوره شوی و چې غلط نیورال هش د غیر CSAM عکسونو د مخالفې مداخلې له امله په وسیله کې د کوډ شوي CSAM ډیټابیس سره سمون لري او د میچ کولو حد څخه تیریږي."
د روبو فلو براډ ډویر د ټکر برید لپاره د مفهوم ثبوت په توګه پوسټ شوي دوه عکسونو ترمینځ په اسانۍ سره توپیر کولو لپاره یوه لاره وموندله.
زه لیواله یم چې دا عکسونه د ورته خو مختلف عصبي ځانګړتیاو استخراج کونکي OpenAI CLIP کې څنګه ښکاري.CLIP د NeuralHash سره ورته کار کوي؛دا یو عکس اخلي او د عصبي شبکه کاروي ترڅو د فیچر ویکتورونو سیټ رامینځته کړي چې د عکس مینځپانګې نقشه کوي.
مګر د OpenAI شبکه توپیر لري.دا یو عمومي ماډل دی چې کولی شي د انځورونو او متن ترمنځ نقشه وکړي.دا پدې مانا ده چې موږ کولی شو دا د انسان د پوهیدو وړ عکس معلوماتو استخراج لپاره وکاروو.
ما پورته دوه د ټکر عکسونه د CLIP له لارې وګرځول ترڅو وګورم چې ایا دا هم احمق شوی.لنډ ځواب دا دی: نه.دا پدې مانا ده چې ایپل باید د دې وړتیا ولري چې د کشف شوي CSAM عکسونو لپاره د دوهم فیچر استخراج شبکه (لکه CLIP) پلي کړي ترڅو معلومه کړي چې ایا دوی ریښتیني دي یا جعلي.دا خورا ستونزمن کار دی چې عکسونه رامینځته کړي چې په ورته وخت کې دوه شبکې غولوي.
په نهایت کې، لکه څنګه چې مخکې یادونه وشوه، انځورونه په لاسي ډول بیاکتنه کیږي ترڅو تایید کړي چې دوی CSAM دي.
یو امنیتي څیړونکي وویل چې یوازینی ریښتینی خطر دا دی چې هرڅوک چې غواړي ایپل ناراضه کړي کولی شي انساني بیاکتونکو ته غلط مثبتونه چمتو کړي.
ایپل په حقیقت کې دا سیسټم ډیزاین کړی، نو د هش فعالیت پټ ساتلو ته اړتیا نلري، ځکه چې یوازینی شی چې تاسو یې د CSAM په توګه غیر CSAM سره کولی شئ هغه دا دی چې د ایپل غبرګون ټیم د ځینو جنک عکسونو سره ناراضه کړي تر هغه چې دوی د فلټرونو د له منځه وړلو لپاره فلټرونه پلي کړي. تحلیل هغه کثافات چې په پایپ لاین کې دي غلط مثبت دي ،" نیکولاس ویور ، د کالیفورنیا پوهنتون ، برکلي کې د نړیوال کمپیوټر ساینس انسټیټیوټ لوړ پوړی څیړونکی ، مادربورډ ته په آنلاین خبرو کې وویل.
محرمیت په نننۍ نړۍ کې د ډیریدونکي اندیښنې مسله ده.زموږ په لارښوونو کې د محرمیت، امنیت، او نور پورې اړوند ټول راپورونه تعقیب کړئ.
بین لیوجوی د برتانیا تخنیکي لیکوال او د 9to5Mac لپاره د EU مدیر دی.هغه د خپلو کالمونو او ډایری مقالو لپاره پیژندل شوی، د وخت په تیریدو سره د ایپل محصولاتو سره د هغه تجربې سپړنه کوي ترڅو نور پراخ بیاکتنې ترلاسه کړي.هغه ناولونه هم لیکي، دوه تخنیکي تریلرونه دي، یو څو لنډ ساینسي افسانې فلمونه او یو روم کام!


د پوسټ وخت: اګست-20-2021