اپل و جنایات جنسی کودکان

اپل یکی از بزرگترین شرکت‌های تکنولوژی دنیاست که محصولاتش مانند آیفون و آی‌کلاود را به میلیون‌ها کاربر ارائه می‌دهد

اپل و جنایات جنسی کودکان

اپل یکی از بزرگترین شرکت‌های تکنولوژی دنیاست که محصولاتش مانند آیفون و آی‌کلاود را به میلیون‌ها کاربر ارائه می‌دهد. اما این شرکت همواره با چالش‌های حفاظت از حریم خصوصی و جلوگیری از پخش محتوای جنسی سوءاستفاده از کودکان (CSAM) روبرو بوده است. در سال 2022، اپل از یک پروژه جدید برای شناسایی و گزارش CSAM در آیفون‌ها و آی‌کلاود خبر داد که با استقبال و انتقادات فراوان همراه بود. در نهایت، اپل تصمیم گرفت به دلایل فنی و قانونی این پروژه را لغو کند. این تصمیم باعث شد برخی از کارکنان مسئول پروژه استعفا دهند و بسیاری از فعالان حقوق کودک ناراضی شوند. در این مطلب، به بررسی دلایل و پیامدهای این تصمیم می‌پردازیم.

جو مالیک یک پزشک بازنشسته بود که زندگی خود را به تحقق رویای درمان سرطان اختصاص داده بود. اما پس از شکست‌های متعدد، او به یک فرد تنها و ناامید تبدیل شده بود. برای فرار از واقعیت، او به تماشای محتوای پورنوگرافی علاقه‌مند شده بود. با گذشت زمان، علاقه‌اش به محتوای جنسی عادی کم شده و به دنبال CSAM رفته بود. در سال 2019، پلیس با کمک یک نرم‌افزار مایکروسافت به نام PhotoDNA، که قادر به شناسایی CSAM است، مالیک را دستگیر کرد. با بازرسی دستگاه‌های الکترونیکی او، پلیس به 2,000 فایل CSAM و 800 فایل “عکس‌های اروتیک کودکان” رسید. بخش عمده‌ای از این فایل‌ها در حساب آی‌کلاود مالیک ذخیره شده بود.

اما چرا اپل قبلاً CSAM را در حساب آی‌کلاود مالیک پیدا نکرده بود؟ دلیل آن این است که اپل سال‌هاست که به عنوان یک شرکت حامی حفاظت از حریم خصوصی شناخته می‌شود و داده‌های آپلود شده توسط کاربران را رمزگذار نموده است. به همین دلیل، اپل نمی‌توانست CSAM را در آی‌کلاود شناسایی کند. اما در سال 2022، اپل از یک سیستم جدید برای اسکن CSAM در آیفون‌ها و آی‌کلاود خبر داد. این سیستم با استفاده از یک اثر انگشتی دیجیتال، قادر به تشخیص CSAM بود و در صورت یافتن آن، گزارش آن را به اپل و مراجع قانونی می‌داد. اپل ادعا می‌کرد که این سیستم هم حفاظت از حریم خصوصی را رعایت می‌کند و هم جلوگیری از پخش CSAM را تسهیل می‌کند.

اما واکنش‌های به این پروژه متفاوت بود. برخی از فعالان حقوق کودک، مانند کمپین ضد سوءاستفاده از کودکان (CEOP)، این پروژه را تحسین کردند و گفتند که می‌تواند به کاهش جرایم جنسی علیه کودکان کمک کند. برخی دیگر، مانند سازمان حقوق بشر (HRW)، نگران شدند که این پروژه ممکن است به نقض حقوق بشر منجر شود و دولت‌های سرکوبگر را تشویق کند تا از آن برای سانسور و جاسوسی استفاده کنند. بعضی هم، مانند گروه حفاظت از حریم خصوصی (EPIC)، گفتند که این پروژه باعث می‌شود کاربران به سرویس‌های دیگر رو ببرند و حفاظت از حریم خصوصی را ضعیف کند.

با توجه به فشارهای فنی و قانونی، اپل در نهایت تصمیم گرفت به صورت موقت این پروژه را لغو کند. این تصمیم باعث شد برخی از کارکنان مسئول پروژه، مانند سباستین استروبل، استعفا دهند. استروبل گفت که باور دارد که پروژه مفید بود و با لغو آن، فرصت برای جلوگیری از جرایم جنسی علیه کودکان از دست رفت. همچنین، بسیاری از فعالان حقوق کودک ناراضی شدند و گفتند که با لغو پروژه، اپل نشان داد که به حفاظت از کودکان توجه ندارد.

به نظر می‌رسد که در دست‌آوردن تعادل بین حفاظت از حریم خصوصی و جلوگیری از پخش CSAM، هنوز چالش‌های زیاد و راه‌حل‌های نامطلوب وجود دارد. شاید در آینده، با پیدایش فن‌آوری‌های جد

با توجه به اینکه اپل از پرچم‌زدن محتوای غیرقانونی خودداری کرده است، شاید بسیاری از شما تعجب کنید: این شرکت برای سال‌ها تصمیم گرفته است که داده‌های آی‌کلاود را برای محتوای معروف CSAM اسکن نکند، مگر اینکه در پیوست‌های ایمیل باشند. وقتی که یک سیستم رمزنگاری برای این کار طراحی کرد، در سال 2022 آن را لغو کرد. این تصمیم باعث شد که برخی از دفاع از حریم خصوصی اپل را تحسین کنند و برخی دیگر از فعالان حفاظت از کودکان به شدت ناراحت و نقد شوند. اپل گفت که این تصمیم نشان دهنده تعهدش به حفظ حریم خصوصی است – چیزی که برای شرکت پولدارترین جهان مهم است.

اما منتقدان معتقدند که اپل در مبارزه با محتوای سوءاستفاده از کودکان در خدمات خود عقب مانده و به پلیس در دستگیری جنایتکاران کمک نکرده است. یک بررسی فوربز نشان داد که از سال 2014 تا 2023، سیستم‌های اپل برای ذخیره و فرستادن هزاران مورد محتوای CSAM استفاده شده‌اند. در حالی که رقبای اپل مثل گوگل و متا خدمات خود را به طور منظم برای چنین محتوایی بررسی می‌کنند و هر ساله میلیون‌ها گزارش را به مقامات مسئول تحویل می‌دهند، اپل فقط صدها گزارش را به آن‌ها می‌فرستد، با وجود داشتن صدها میلیون کاربر آی‌کلاود.

درون اپل، پس از لغو سامانه ضد CSAM، تغییرات در تیم اعتماد و امانت رخ داد. دو نفر از مسئولان حفاظت از کودکان، ملیسا ماروس پولینسکی و مارگارت ریچاردسون، استعفا دادند. دو نفر دیگر که در پروژه ضد CSAM نقش داشتند، جین هوروث و مایکل آبوت، هم ترک شدند. (آن‌ها و اپل به درخواست نظر پاسخی ندادند.)

بهومیک، مهندس اصلی نرم‌افزار شناسایی CSAM در اپل، کمپانی خود را راه‌اندازی کرد

آبیشک بهومیک، که در سال گذشته به عنوان مهندس اصلی نرم‌افزار شناسایی CSAM (محتوای سوءاستفاده از کودکان) در اپل شناخته شده بود، از این شرکت جدا شده و یک استارتاپ جدید تاسیس کرده است. بهومیک، که قبلاً در گوگل و فیس‌بوک کار می‌کرد، در مصاحبه با فوربز گفت که هدف او از تاسیس این کمپانی، ارائه یک راه حل جامع برای حفاظت از حریم خصوصی و امنیت در دنیای دیجیتال است.

بهومیک گفت که نام کمپانی خود را هنوز اعلام نکرده است، اما آن را با دو هم‌بنیان‌گذار دیگر، چارلز لین و جاناتان لین، که هر دو سابقاً در اپل مشغول به کار بودند، راه‌اندازی کرده است. او گفت که تکنولوژی آن‌ها بر پایه هوش مصنوعی و رمزنگاری است و قابل استفاده برای بستر‌های مختلف مانند پلتفرم‌های اجتماعی، پیام‌رسان‌ها، سرویس‌های ذخیره‌سازی ابری و غیره است.

بهومیک گفت که تجربه‌اش در اپل به عنوان مسئول طراحی و پیاده‌سازی نرم‌افزار شناسایی CSAM، که در سال 2021 با واکنش منفی بسیاری از فعالان حقوق بشر و حفاظت از حریم خصوصی روبرو شد، به او الهام بخشید که چگونه می‌توان به طور همزمان به مبارزه با محتوای غیرقانونی و حفظ حق حریم خصوصی کاربران پرداخت.

“کار من در تکنولوژی حفاظت از حریم خصوصی در اپل یکی از بزرگترین افتخارات حرفه‌ای من بود. من فکر می‌کنم که آنچه که ما سعی داشتیم بسازیم، چالش بسزای جالب و معقول بود. من همچنین فکر می‌کنم که آنچه که ما ساختیم، به نحو مناسب و قابل قبول حق حریم خصوصی را حفظ می‌کرد. البته من متوجه هستم که بعضی از نظرات مخالف هستند و من آن‌ها را هم قدردانی می‌کنم. اما من همیشه به دنبال راه‌های بهتر برای حل مسائل پیچیده بودم و این است که چرا من تصمیم گرفتم که این کمپانی را شروع کنم.” او گفت.

بهومیک افزود که کمپانی‌اش در حال حاضر در مرحله پیش‌راه‌اندازی است و در جذب سرمایه‌گذاران و استخدام نیروهای جدید است. او گفت که او و هم‌بنیان‌گذارانش قصد دارند که تا پایان سال 2023 محصول خود را به بازار عرضه کنند.

“چالشی که ما قصد داریم حل کنیم، این است که چگونه می‌توان به کاربران اطمینان داد که ابزاری برای نظارت بر یک نوع از پایش به گونه‌ای تغییر داده نشده است که به منظور محتوای دیگری مانند فعالیت‌های سیاسی یا ستایش مذهبی نظارت کند؟”

او پرسید. “ما فکر می‌کنیم که راه حل ما، یک روش جدید و نوآورانه است که به کاربران اجازه می‌دهد که خودشان تصمیم بگیرند که چه چیزی را می‌خواهند با دنیای بیرون به اشتراک بگذارند و چه چیزی را نخواهند. ما فکر می‌کنیم که این روش، هم برای حفاظت از حقوق بشر و هم برای جلوگیری از سوء استفاده، مفید خواهد بود.”

Erik Neuenschwander، مدیر حریم خصوصی و ایمنی کودکان اپل
آن خروج‌ها قابل توجه بود. یکی از کارمندان سابق اپل به فوربس گفت: وقتی پولینسکی و ریچاردسون به کار خود ادامه دادند، “چاله‌های نسبتا بزرگی در سازمان ایجاد کردند.” یکی دیگر گفت که گروهی که بر حمایت از کودکان متمرکز شده بود، پراکنده شده بود و نقش‌ها دوباره سازماندهی شدند و به تیم‌های دیگر اختصاص یافتند. به گفته یکی از منابع آگاه، بسیاری از عملکرد به مهندسی حریم خصوصی منتقل شده است.

این بخش اکنون توسط Erik Neuenschwander، مدیر فنی قدیمی اپل، اداره می‌شود. او که اخیراً به عنوان مدیر حریم خصوصی و ایمنی کودک منصوب شد، نقش های قبلی او عمدتاً بر مهندسی نرم افزار متمرکز بود. چاک گیلینگهام، معاون سابق دادستان ناحیه سانتا کلارا، و روبن ون در دوسن، مهندس حریم خصوصی که قبلاً در Thorn، سازمان غیرانتفاعی ضد CSAM که توسط اشتون کوچر تأسیس شده بود، در کنار او کار می‌کنند. کارکنان اعتماد و ایمنی در نهایت به مایک تورنبری گزارش می‌دهند که بیشتر 23 سال خود را در اپل صرف نظارت بر فروش و Apple Pay کرده است.


اپل مدت‌هاست که حفظ حریم خصوصی را یکی از حقوق اساسی بشر می‌داند. این شرکت به طور معروف از ساختن یک درب پشتی برای FBI در iOS خودداری کرد که چندین ویژگی مهم امنیتی را دور زده و به مجریان قانون اجازه دسترسی به داده‌های شخصی ذخیره شده در آیفون‌ها را می‌داد. اپل استدلال می‌کرد که انجام این کار به دولت و دیگران این قدرت را می‌دهد تا به دستگاه هر کسی دسترسی پیدا کنند و اطلاعات حساس را جمع‌آوری کنند. از آن زمان، این شرکت به سمت رمزگذاری حتی گسترده‌تر سخت‌افزار و نرم‌افزار خود حرکت کرده است که باعث ناراحتی FBI و دیگر سازمان‌های مجری قانون شده است. اگرچه رمزگذاری iCloud به طور پیش‌فرض روشن است، اما اپل می‌تواند فایل‌های هر کاربری را که از شرکت درخواست می‌کند تا داده‌هایشان را بازیابی کند، اسکن کند – مانند زمانی که در دستگاه جدیدی وارد سیستم می‌شوند، فایل‌ها را از یک نسخه پشتیبان بازیابی می‌کنند، یا در صورت گم شدن درخواست کمک می‌کنند. دسترسی به حساب کاربری آنها!

حامیان ایمنی کودکان می‌گویند که تعهد تزلزل ناپذیر اپل به حفظ حریم خصوصی هزینه دارد: اپل اساسا نسبت به مطالب مضر و غیرقانونی ذخیره شده در سرویس‌هایش نابینا است. همانطور که یکی از کارمندان سابق به فوربس گفت، این موضع “برخی آسیب های بسیار جدی اجتماعی دیگر را پنهان می‌کند.” فن‌آوران و پیشکسوتان اجرای قانون می‌گویند که رقبا در سراسر جهان، از گوگل، متا و مایکروسافت گرفته تا دراپ باکس و سایر ارائه‌دهندگان ابر شخصی، در ریشه‌کن کردن شکارچیان جنسی که از پلتفرم‌های آنها سوء استفاده می‌کنند، بسیار فعال‌تر هستند. هر سال، آن شرکت‌ها میلیون‌ها – گاهی ده‌ها میلیون – بیشتر از اپل راهنمایی‌های سایبری در اختیار NCMEC قرار می‌دهند، که نکاتی را قبل از ارائه به بازرسان کودک آزاری بررسی و فهرست‌بندی می‌کند.

جیم کول، که دو دهه را در واحد تحقیقات امنیت داخلی DHS گذراند، به فوربس گفت: «آنها هرگز واقعاً علاقه‌ای به مشارکت در حمایت از کودکان در پلتفرم خود نداشته‌اند. “آنها راه حریم خصوصی را بسیار سخت طی کرده‌اند و قانون آنها را ملزم نمی‌کند که به دنبال CSAM باشند.”

اپل هیچ گونه اسکن پیشگیرانه‌ای از فناوری‌ها یا فضای ذخیره‌سازی آنها، یا هیچ گونه انتقالی برای کمک به اجرای قانون برای جلوگیری از استثمار کودکان انجام نمی دهد.

جان راس، بازرس سابق کودک آزاری در استرالیا

اپل از اظهار نظر در مورد لیست دقیق سوالات خودداری کرد، در عوض نامه‌ای از Neuenschwander، مدیر حریم خصوصی کاربران و ایمنی کودکان اپل را به فوربس ارائه کرد که به درخواست‌های اخیر موسسه غیرانتفاعی Heat Initiative برای اپل برای بازگرداندن برنامه‌های اسکن سیستم‌های خود برای CSAM پاسخ می‌داد. Neuenschwander گفت که اپل این پروژه را رها کرده است زیرا “عملاً امکان اجرای آن بدون به خطر انداختن امنیت و حریم خصوصی کاربران ما وجود ندارد” اما تاکید کرد که این شرکت ویژگی‌های ایمنی دیگری را برای مبارزه با استثمار کودکان ارائه می‌دهد.

Neuenschwander در نامه‌ای که اولین بار توسط Wired گزارش شد، هشدار داد که اسکن انبوه کاربران اپل “در را برای نظارت انبوه باز می‌کند.” «چگونه می‌توان به کاربران اطمینان داد که ابزاری برای یک نوع نظارت برای نظارت بر محتوای دیگر مانند فعالیت‌های سیاسی یا آزار و اذیت مذهبی مجدداً پیکربندی نشده است؟ ابزارهای نظارت جمعی پیامدهای منفی گسترده‌ای برای آزادی بیان و در نتیجه دموکراسی به عنوان یک کل دارد. او اضافه کرد که نقص‌های این نوع اسکن می‌تواند برای والدین دردسر ایجاد کند «زمانی که آنها کاری جز به اشتراک گذاشتن تصاویر کاملاً طبیعی و مناسب از نوزادان خود انجام نداده‌اند».


معمای iCloud

از دسامبر 2022، اپل دو سطح رمزگذاری را برای iCloud ارائه کرده است. «محافظت استاندارد از داده‌ها» داده‌ها را روی سرور و در حین انتقال رمزگذاری می‌کند، اما اپل کلیدهای لازم برای رمزگذاری آن را حفظ می‌کند. «محافظت پیشرفته از داده ها» اساساً همین کار را انجام می‌دهد، اما اپل نمی‌تواند داده‌های رمزگذاری شده را بازیابی کند. از آنجایی که کاربران باید صراحتاً از دومی استفاده کنند، اپل احتمالاً به داده‌های iCloud رمزگذاری نشده قابل توجهی دسترسی دارد.

همچنین اطلاعات را نه تنها از برنامه‌های خود، بلکه از ایمیل‌های شخص ثالث، پلتفرم‌های اجتماعی و پیام‌رسانی که در آن کاربران پشتیبان‌گیری از دستگاه را روشن کرده‌اند، مدیریت می‌کند – چیزی که مجری قانون اغلب هنگام ثبت برنامه‌های حکم برای جستجوی حساب‌های iCloud به آن توجه می‌کند. این شامل داده‌های واتس اپ متا و سایر پیام رسان های متمرکز بر حریم خصوصی مانند Threema و همچنین برنامه‌هایی مانند Kik است که اغلب توسط شکارچیان استفاده می‌شود.

جان راس، کهنه کار 25 ساله تحقیقات کودک آزاری در استرالیا و رئیس سابق اینترنت مخفیانه اینترپل، گفت که اپل احتمالا می‌تواند iCloud را با PhotoDNA اسکن کند، یکی از گسترده‌ترین ابزارها در مبارزه با مواد استثمار کودکان آنلاین. کارگروه تحقیقات. این نرم افزار که در سال 2009 توسط مایکروسافت و کالج دارتموث ایجاد شد، تصاویر را به مقادیر عددی منحصر به فردی به نام هش تبدیل می‌کند. آنها را می‌توان با پایگاه داده هش‌های شناخته شده CSAM مقایسه کرد. یک مسابقه تحقیقات بیشتر را آغاز می کند.

مانند همه شرکت‌های فناوری، اپل طبق قانون موظف است به حکم‌های جستجو پاسخ دهد و همچنین باید از طریق «CyberTipline» که توسط NCMEC اداره می‌شود، مطالب مربوط به سوءاستفاده جنسی از کودکان را که در پلتفرم‌های خود پیدا می‌کند به مقامات فدرال گزارش کند.

سال گذشته، در حالی که فیس‌بوک و اینستاگرام متا مجموعاً 26 میلیون گزارش، گوگل 2 میلیون و TikTok نزدیک به 300 هزار گزارش ارسال کردند، اپل 234 گزارش را ارسال کرد. سال قبل از آن: 160 گزارش.

اپل یک شرکت رسانه‌های اجتماعی نیست، بنابراین این مقایسه مستقیمی نیست. گفتنی است، واتس اپ، که رمزگذاری سرتاسری است، محتوای رمزگذاری نشده مانند پروفایل و عکس‌های گروهی را برای CSAM اسکن می‌کند. بیش از 1 میلیون راهنمایی سایبری در سال 2022 به NCMEC ارائه کرد. مایکروسافت 110000 ارسال کرد. دراپ باکس، نزدیک به 46000; و Synchronoss، ارائه دهنده فضای ابری برای Verizon، بیش از 30000.

برنامه‌های اولیه اپل برای انجام اسکن عکس‌های متصل به iCloud بدون تجاوز به حریم خصوصی کاربر مانند «پیشنهاد جادو به جای واقعیت» بود.

مردیث ویتاکر، رئیس سیگنال

اپل از اظهار نظر درباره کمبود گزارش‌های NCMEC نسبت به همتایان خود خودداری کرد. در حالی که احتمالاً این اختلاف تا حدودی به دلیل موارد تکراری است – یک تصویر توهین آمیز منفرد که در چندین پست به اشتراک گذاشته شده است – منتقدان می‌گویند که این بیشتر بازتابی از انجام کاری اپل است که قانوناً برای نظارت بر مواد غیرقانونی انجام نمی‌دهد.

گاوین پورتنوی، سخنگوی NCMEC گفت که این اختلاف “ربطی به تکرار احتمالی ندارد” و نتیجه عدم تمایل اپل به “تلاش های معقول برای شناسایی و گزارش CSAM در پلتفرم خود” است. حتی سایت حاشیه‌ای 4chan، که به سختی اوج اعتدال محسوب می‌شود، چندین مورد از کارهای اپل را هر سال گزارش می‌کند.

و اسناد دادگاه نشان می دهد که سرویس های اپل میزبان CSAM هستند. پرونده مولیک یکی از حداقل 100 تحقیق فدرال بین سال‌های 2014 تا 2023 بود که در آن مظنون ادعا یا گمان می‌رفت که از محصولات اپل برای ذخیره تصاویر سوء استفاده جنسی از کودکان استفاده کرده است. (این شمارش، که شامل سوابق ایالتی، محلی یا بین‌المللی نمی‌شود، تنها کسری از کل موارد استثمار کودکان مربوط به اپل را نشان می‌دهد.)

دو مثال: در سال 2022، مایکل گالوان تگزاسی 42 ساله به دلیل توزیع CSAM پس از یافتن نزدیک به 600 ویدیو و تصویر غیرقانونی در حساب iCloud او به بیش از 17 سال زندان محکوم شد. در ماه مه امسال، ریچارد اوکانر، معلم سابق مدرسه ابتدایی اورنج کانتی، پس از حمله به حساب کاربری iCloud وی که حداقل 81 ویدیو و 158 تصویر از کودک آزاری، از جمله «رفتار خشونت آمیز، سادیستی، یا مازوخیستی» را شناسایی کرد، به داشتن CSAM اعتراف کرد. ” در هر دو مورد، اپل داده هایی را در پاسخ به حکم های بازرسی تایید شده توسط دادگاه ارائه کرد. با این حال، در پرونده گالوان، نکته اصلی که تحقیقات را دوباره آغاز کرد، از کیک بود. تنها در دو مورد از مواردی که توسط فوربس بررسی شد، اپل به طور فعال CSAM را در پیام‌های ایمیل ارسالی شناسایی و گزارش کرد.

اپل از اظهار نظر در مورد این موارد و تفاوت بین اسکن ایمیل های ارسالی برای تصاویر سوء استفاده جنسی از کودکان و اسکن iCloud خودداری کرد. اما به خوبی از مسائل CSAM در خدمات خود آگاه است. در پیام‌های متنی کشف شده در بازی Epic Games علیه اپل، اریک فریدمن، رئیس مبارزه با کلاهبرداری اپل در سال 2020 به همکار خود گفت که فیس‌بوک و سایر شرکت‌های فناوری بر اعتماد و ایمنی تمرکز کرده‌اند اما حریم خصوصی را “مک” کرده‌اند و افزود که حریم خصوصی اپل این است. رویکرد حقوق بنیادین بشر به این معناست که به “بزرگترین بستر برای توزیع پورن کودکان” تبدیل شده است.


به نظر شما، اپل باید چه کار کند؟ آیا باید رمزنگاری خود را تغییر دهد و یا به روش‌های دیگر برای جلوگیری از پخش محتوای غیرقانونی اقدام کند؟ آیا حفظ حریم خصوصی بالاتر از حفاظت از کودکان است؟ در نظرات خود را با ما در میان بگذارید.

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان