گوگل پس از اینکه تصاویر پزشکی را به عنوان کودک آزاری علامت گذاری کرد، از بازگرداندن حساب خودداری کرد

مارک گفت: “می توانم تصورش کنم. یک روز صبح از خواب بیدار شدیم. روز زیبایی با همسر و پسرم بود و من می خواستم آن لحظه را ضبط کنم.” اگر فقط با پیژامه می‌خوابیدیم، می‌توانست از همه اینها جلوگیری شود.»

ماست هد: کای ونزل





منبع

یک سیب زمینی داغ: در حالی که تعداد فزاینده‌ای از تدابیر حفاظتی توسط سرویس‌های آنلاین استفاده می‌شود که تصاویر کودک آزاری را شناسایی و پرچم‌گذاری می‌کنند، این سیستم‌ها خطاناپذیر نیستند و می‌توانند تأثیر مخربی بر متهمان اشتباه داشته باشند. پدری که پس از اینکه این شرکت به اشتباه تصاویر پزشکی کشاله ران پسر نوپاش را به عنوان پورن کودک علامت گذاری کرد، هنوز حساب گوگل بسته است.

مارک به عنوان یک مهندس نرم‌افزار سابق که روی ابزارهای هوش مصنوعی مشابه برای شناسایی محتوای مشکل‌ساز کار کرده بود، تصور می‌کرد وقتی یک ناظر محتوای انسانی عکس‌ها را بازبینی کند، همه چیز پاک می‌شود.

به نظر می‌رسد که تصاویر به‌طور خودکار در Google Photos پشتیبان‌گیری شده‌اند، در این مرحله ابزار هوش مصنوعی این شرکت و PhotoDNA مایکروسافت آن‌ها را به‌عنوان مواد آزار جنسی کودکان (CSAM) علامت‌گذاری کردند. مارک دو روز بعد اعلانی دریافت کرد که به او اطلاع می‌داد حساب‌های Google او، از جمله سرویس تلفن Gmail و Google Fi، به دلیل «محتوای مضر» قفل شده‌اند که «نقض شدید خط‌مشی‌های Google و ممکن است غیرقانونی باشد».

این حادثه مشکلات مرتبط با سیستم های خودکار تشخیص تصویر سوء استفاده جنسی از کودکان را برجسته می کند. برنامه‌های اپل برای اسکن CSAM در دستگاه‌های خود قبل از آپلود عکس‌ها در فضای ابری، سال گذشته با اعتراض طرفداران حفظ حریم خصوصی مواجه شد. در نهایت این ویژگی را در حالت توقف نامحدود قرار داد. با این حال، یک ویژگی اختیاری مشابه برای حساب‌های فرزند در طرح اشتراک‌گذاری خانواده در دسترس است.

کریستا مولدون، سخنگوی گوگل گفت: «ما در تعریف CSAM از قوانین ایالات متحده پیروی می کنیم و از ترکیبی از فناوری تطبیق هش و هوش مصنوعی برای شناسایی و حذف آن از پلتفرم های خود استفاده می کنیم.

بر اساس گزارش نیویورک تایمز، پدر، مارک، در فوریه سال گذشته به توصیه یک پرستار قبل از قرار ملاقات ویدیویی با پزشک، این عکس ها را گرفت. همسر مارک از تلفن اندرویدی شوهرش برای گرفتن عکس از ناحیه تناسلی متورم پسر استفاده کرد و آنها را به آیفون خود پیامک کرد تا در سیستم پیام رسانی ارائه دهنده خدمات بهداشتی بارگذاری شود. دکتر آنتی بیوتیک تجویز کرد، اما این پایان کار نبود.

کلر لیلی، رئیس بخش عملیات ایمنی کودکان گوگل، گفت که بازبین‌ها بثورات یا قرمزی در عکس‌های مارک شناسایی نکرده‌اند. کارکنان Google که CSAM را بررسی می‌کنند توسط متخصصان اطفال آموزش دیده‌اند تا به دنبال مسائلی مانند جوش‌های پوستی باشند، اما در این موارد با متخصصان پزشکی مشورت نمی‌شود.

ما برنده هستیم