به نظر می رسد که فرانسه هشدار 38 سازمان جامعه مدنی را که در نامه ای سرگشاده نگرانی های خود را در مورد این فناوری ابراز کرده اند، نادیده گرفته است. آنها می گویند که اقدامات نظارتی پیشنهادی ناقض قوانین بین المللی حقوق بشر است زیرا با اصول ضرورت و تناسب مغایرت دارد و خطرات غیرقابل قبولی برای حقوق اساسی مانند حق حریم خصوصی، آزادی اجتماعات و تشکل، و حق عدم تبعیض ایجاد می کند. .
مهر هاکوبیان، مشاور حقوقی عفو بینالملل در مورد مقررات هوش مصنوعی، گفت که این تصمیم فرانسه را در معرض خطر تبدیل دائمی به یک دولت ناظر دیستوپیایی قرار میدهد.
گفته میشود که این سیستم رویدادهای مشکوک خاص را در فضاهای عمومی شناسایی میکند، مانند رفتار غیرعادی، رویدادهای از پیش تعیینشده و افزایش جمعیت.
این نامه هشدار می دهد که اگر سیستم هوش مصنوعی به کار گرفته شود، سابقه ای از نظارت ناموجه و نامتناسب در فضاهای در دسترس عموم ایجاد خواهد کرد.
طبق قانون، دولت فرانسه ماده 7 قانون معلق برای بازیهای المپیک و پارالمپیک 2024 را تصویب کرد که اجازه استفاده از تجزیه و تحلیل خودکار ویدیوهای نظارتی از دوربینهای ثابت و پهپاد را میدهد.
در حالی که طرح نظارت مبتنی بر هوش مصنوعی می تواند در بالاترین دادگاه قانون اساسی به چالش کشیده شود، فرانسه به نظر می رسد در مسیر تبدیل شدن به اولین کشور در اتحادیه اروپا قرار گیرد که از چنین سیستمی استفاده می کند.
اگر هدف دوربینهای الگوریتممحور تشخیص رویدادهای مشکوک خاص در فضاهای عمومی باشد، لزوماً ویژگیها و رفتارهای فیزیولوژیکی افراد حاضر در این فضاها مانند وضعیت بدن، راه رفتن، حرکات، ژستها یا ظاهر آنها را ضبط و تحلیل میکنند. ” در نامه سرگشاده آمده است. منزوی کردن افراد از پسزمینهای که بدون آن دستیابی به هدف نظام غیرممکن است، به منزله «شناسایی منحصربهفرد» خواهد بود.»
کمیسیون نظارتی کمیسیون ملی اطلاعات و آزادیهای فرانسه (CNIL) از این لایحه با این شرط حمایت کرد که دادههای بیومتریک پردازش نشود، اما طرفداران حریم خصوصی معتقدند چنین چیزی ممکن نیست.
یک سیب زمینی داغ: در داستانی نادر (این روزها) در مورد هوش مصنوعی از نوع غیر مولد، مجلس ملی فرانسه استفاده از هوش مصنوعی را برای کمک به نظارت تصویری از المپیک 2024 پاریس تایید کرد. این اقدام علیرغم مخالفت گروههای حقوق بشری صورت میگیرد که میگویند استفاده از آن نقض بالقوه آزادیهای مدنی است و در عین حال راه را برای استفاده آینده از نظارت تصویری مبتنی بر الگوریتم تهاجمی در سراسر اروپا هموار میکند.
ماست هد: هنینگ شلاتمن
همانطور که اغلب در مورد نظارت هوش مصنوعی اتفاق می افتد، ترس از تبعیض نیز وجود دارد. این گروه ها می افزایند: «استفاده از سیستم های الگوریتمی برای مبارزه با جرایم منجر به پلیسی بیش از حد، تبعیض ساختاری در سیستم عدالت کیفری و جرم انگاری بیش از حد اقلیت های نژادی، قومی و مذهبی شده است».
دانیل لوفر، مشاور سیاستگذاری در سازمان حقوق دیجیتال Access Now، گفت: “شما می توانید دو کار انجام دهید: تشخیص شی یا تجزیه و تحلیل رفتار انسان – دومی پردازش داده های بیومتریک است.”