سیستم CSAM اپل فریب خورده است، اما این شرکت دو محافظ دارد

به‌روزرسانی: اپل به بازرسی دوم از سرور اشاره کرد و یک شرکت حرفه‌ای بینایی رایانه احتمالی را در مورد آنچه که می‌توان آن را در «چگونه بازرسی دوم ممکن است کار کرد» در زیر شرح داد، بیان کرد.
پس از اینکه توسعه دهندگان بخش هایی از آن را مهندسی معکوس کردند، نسخه اولیه سیستم Apple CSAM به طور موثر فریب خورده تا تصویری بی گناه را نشان دهد.با این حال، اپل اعلام کرد که حفاظت های اضافی برای جلوگیری از این اتفاق در زندگی واقعی دارد.
آخرین توسعه پس از انتشار الگوریتم NeuralHash در وب‌سایت توسعه‌دهنده منبع باز GitHub رخ داد، هر کسی می‌تواند با آن آزمایش کند…
همه سیستم‌های CSAM با وارد کردن پایگاه داده‌ای از مواد شناخته شده سوء استفاده جنسی از کودکان از سازمان‌هایی مانند مرکز ملی کودکان گمشده و مورد بهره‌برداری (NCMEC) کار می‌کنند.پایگاه داده به صورت هش یا اثر انگشت دیجیتال از تصاویر ارائه می شود.
اگرچه اکثر غول‌های فناوری عکس‌های آپلود شده در فضای ابری را اسکن می‌کنند، اما اپل از الگوریتم NeuralHash در آیفون مشتری برای تولید مقدار هش عکس ذخیره‌شده استفاده می‌کند و سپس آن را با کپی دانلود شده مقدار هش CSAM مقایسه می‌کند.
دیروز، یک توسعه دهنده ادعا کرد که الگوریتم اپل را مهندسی معکوس کرده و کد را برای GitHub منتشر کرده است. این ادعا به طور موثر توسط اپل تایید شد.
ظرف چند ساعت پس از انتشار GitHib، محققان با موفقیت از این الگوریتم برای ایجاد یک مثبت کاذب عمدی استفاده کردند - دو تصویر کاملاً متفاوت که مقدار هش یکسانی را تولید می کردند.به این می گویند برخورد.
برای چنین سیستم‌هایی، همیشه خطر برخورد وجود دارد، زیرا هش البته یک نمایش بسیار ساده‌شده از تصویر است، اما شگفت‌آور است که کسی می‌تواند به این سرعت تصویر را تولید کند.
برخورد عمدی در اینجا فقط اثبات مفهوم است.توسعه دهندگان به پایگاه داده هش CSAM دسترسی ندارند، که مستلزم ایجاد موارد مثبت کاذب در سیستم بلادرنگ است، اما ثابت می کند که حملات برخورد در اصل نسبتا آسان هستند.
اپل به طور موثر تایید کرد که این الگوریتم اساس سیستم خودش است، اما به مادربرد گفت که این نسخه نهایی نیست.این شرکت همچنین اعلام کرد که هرگز قصد ندارد آن را محرمانه نگه دارد.
اپل در ایمیلی به Motherboard گفت که نسخه ای که کاربر در GitHub آنالیز کرده یک نسخه عمومی است، نه نسخه نهایی که برای شناسایی iCloud Photo CSAM استفاده می شود.اپل گفت که این الگوریتم را نیز فاش کرده است.
یک سند اپل نوشت: «الگوریتم NeuralHash [...] بخشی از کد سیستم عامل امضا شده است [و] محققان امنیتی می توانند تأیید کنند که رفتار آن با توضیحات مطابقت دارد.
این شرکت ادامه داد که دو مرحله دیگر وجود دارد: اجرای یک سیستم تطبیق ثانویه (مخفی) روی سرور خود و بررسی دستی.
اپل همچنین اعلام کرد که پس از عبور کاربران از آستانه 30 مسابقه، دومین الگوریتم غیر عمومی که روی سرورهای اپل اجرا می شود، نتایج را بررسی می کند.
"این هش مستقل برای رد احتمال مطابقت NeuralHash اشتباه با پایگاه داده CSAM رمزگذاری شده در دستگاه به دلیل تداخل خصمانه تصاویر غیر CSAM و فراتر از آستانه تطبیق انتخاب شده است."
برد دوایر از Roboflow راهی برای تشخیص آسان بین دو تصویر ارسال شده به عنوان اثبات مفهوم حمله برخورد پیدا کرد.
من کنجکاو هستم که این تصاویر در CLIP استخراج کننده ویژگی های عصبی مشابه اما متفاوت OpenAI چگونه به نظر می رسند.CLIP مشابه NeuralHash عمل می کند.یک تصویر می گیرد و از یک شبکه عصبی برای تولید مجموعه ای از بردارهای ویژگی استفاده می کند که به محتوای تصویر نگاشت می شوند.
اما شبکه OpenAI متفاوت است.این یک مدل کلی است که می تواند بین تصاویر و متن نقشه برداری کند.این بدان معنی است که ما می توانیم از آن برای استخراج اطلاعات تصویر قابل درک برای انسان استفاده کنیم.
من دو تصویر برخورد بالا را از طریق CLIP اجرا کردم تا ببینم آیا آن نیز فریب خورده است.جواب کوتاه، نه است.این به این معنی است که اپل باید بتواند یک شبکه استخراج ویژگی دوم (مانند CLIP) را برای تشخیص واقعی یا جعلی بودن تصاویر CSAM شناسایی شده اعمال کند.تولید تصاویری که همزمان دو شبکه را فریب می دهند بسیار دشوارتر است.
در نهایت، همانطور که قبلا ذکر شد، تصاویر به صورت دستی بررسی می شوند تا تایید شود که CSAM هستند.
یک محقق امنیتی گفت که تنها خطر واقعی این است که هر کسی که می‌خواهد اپل را آزار دهد، می‌تواند نتایج مثبت کاذب را به بازبین‌های انسانی ارائه دهد.
اپل در واقع این سیستم را طراحی کرده است، بنابراین نیازی نیست که عملکرد هش مخفی بماند، زیرا تنها کاری که می‌توانید با «غیر CSAM به‌عنوان CSAM» انجام دهید این است که تیم پاسخ اپل را با برخی از تصاویر ناخواسته آزار دهید تا زمانی که فیلترهایی را برای حذف اجرا کنند. نیکلاس ویور، محقق ارشد مؤسسه علوم کامپیوتر بین‌المللی در دانشگاه کالیفرنیا، برکلی، در یک گفتگوی آنلاین به مادربرد گفت: «تحلیل زباله‌هایی که در خط لوله هستند، مثبت کاذب هستند.
حریم خصوصی موضوعی است که در دنیای امروز نگرانی فزاینده ای دارد.تمام گزارش های مربوط به حریم خصوصی، امنیت و غیره را در دستورالعمل های ما دنبال کنید.
بن لاوجوی یک نویسنده فنی بریتانیایی و ویراستار اتحادیه اروپا برای 9to5Mac است.او به خاطر ستون‌ها و مقاله‌های خاطراتش شناخته می‌شود و تجربه‌اش را با محصولات اپل در طول زمان بررسی می‌کند تا بررسی‌های جامع‌تری را دریافت کند.او همچنین رمان می نویسد، دو فیلم هیجانی فنی، چند فیلم کوتاه علمی تخیلی و یک رام کام!


زمان ارسال: اوت-20-2021