مارک گفت: “می توانم تصورش کنم. یک روز صبح از خواب بیدار شدیم. روز زیبایی با همسر و پسرم بود و من می خواستم آن لحظه را ضبط کنم.” اگر فقط با پیژامه میخوابیدیم، میتوانست از همه اینها جلوگیری شود.»
اما مارک در ماه دسامبر توسط اداره پلیس سانفرانسیسکو به دلیل “ویدیوهای استثمار کودکان” مورد بازرسی قرار گرفت. او از هرگونه جرمی پاک شد، با این حال گوگل هنوز حساب های خود را بازنگردانده است و می گوید که بر تصمیم خود ایستاده است.
با حسن نیت از مایکروسافت
لیلی افزود که بررسی بیشتر حساب مارک، ویدئویی را از شش ماه قبل نشان داد که کودکی را در رختخواب با زنی بیلباس نشان میداد. مارک می گوید که نمی تواند ویدیو را به خاطر بیاورد و هنوز به آن دسترسی ندارد.
اپل در حالی که تحقیقات بیشتری را انجام می دهد، تاخیر در ابزارهای اسکن تلفن مورد نظر خود را اعلام کرده است. اما این شرکت باید فراتر رفته و برنامه های خود را برای قرار دادن یک درب پشتی در رمزگذاری خود به طور کامل کنار بگذارد. https://t.co/d0N1XDnRl3
یک سیب زمینی داغ: در حالی که تعداد فزایندهای از تدابیر حفاظتی توسط سرویسهای آنلاین استفاده میشود که تصاویر کودک آزاری را شناسایی و پرچمگذاری میکنند، این سیستمها خطاناپذیر نیستند و میتوانند تأثیر مخربی بر متهمان اشتباه داشته باشند. پدری که پس از اینکه این شرکت به اشتباه تصاویر پزشکی کشاله ران پسر نوپاش را به عنوان پورن کودک علامت گذاری کرد، هنوز حساب گوگل بسته است.
مارک به عنوان یک مهندس نرمافزار سابق که روی ابزارهای هوش مصنوعی مشابه برای شناسایی محتوای مشکلساز کار کرده بود، تصور میکرد وقتی یک ناظر محتوای انسانی عکسها را بازبینی کند، همه چیز پاک میشود.
به نظر میرسد که تصاویر بهطور خودکار در Google Photos پشتیبانگیری شدهاند، در این مرحله ابزار هوش مصنوعی این شرکت و PhotoDNA مایکروسافت آنها را بهعنوان مواد آزار جنسی کودکان (CSAM) علامتگذاری کردند. مارک دو روز بعد اعلانی دریافت کرد که به او اطلاع میداد حسابهای Google او، از جمله سرویس تلفن Gmail و Google Fi، به دلیل «محتوای مضر» قفل شدهاند که «نقض شدید خطمشیهای Google و ممکن است غیرقانونی باشد».
این حادثه مشکلات مرتبط با سیستم های خودکار تشخیص تصویر سوء استفاده جنسی از کودکان را برجسته می کند. برنامههای اپل برای اسکن CSAM در دستگاههای خود قبل از آپلود عکسها در فضای ابری، سال گذشته با اعتراض طرفداران حفظ حریم خصوصی مواجه شد. در نهایت این ویژگی را در حالت توقف نامحدود قرار داد. با این حال، یک ویژگی اختیاری مشابه برای حسابهای فرزند در طرح اشتراکگذاری خانواده در دسترس است.
کریستا مولدون، سخنگوی گوگل گفت: «ما در تعریف CSAM از قوانین ایالات متحده پیروی می کنیم و از ترکیبی از فناوری تطبیق هش و هوش مصنوعی برای شناسایی و حذف آن از پلتفرم های خود استفاده می کنیم.
بر اساس گزارش نیویورک تایمز، پدر، مارک، در فوریه سال گذشته به توصیه یک پرستار قبل از قرار ملاقات ویدیویی با پزشک، این عکس ها را گرفت. همسر مارک از تلفن اندرویدی شوهرش برای گرفتن عکس از ناحیه تناسلی متورم پسر استفاده کرد و آنها را به آیفون خود پیامک کرد تا در سیستم پیام رسانی ارائه دهنده خدمات بهداشتی بارگذاری شود. دکتر آنتی بیوتیک تجویز کرد، اما این پایان کار نبود.
کلر لیلی، رئیس بخش عملیات ایمنی کودکان گوگل، گفت که بازبینها بثورات یا قرمزی در عکسهای مارک شناسایی نکردهاند. کارکنان Google که CSAM را بررسی میکنند توسط متخصصان اطفال آموزش دیدهاند تا به دنبال مسائلی مانند جوشهای پوستی باشند، اما در این موارد با متخصصان پزشکی مشورت نمیشود.