مقامات حریم خصوصی بریتانیا می‌گویند فناوری‌های تجزیه و تحلیل احساسات می‌توانند «نابالغ و تبعیض‌آمیز» باشند

هوش مصنوعی «احساسی» یک نگرانی برای ICO است زیرا در حال حاضر هیچ سیستمی وجود ندارد که الزامات حفاظت از داده ها، انصاف و شفافیت را برآورده کند. بونر پیشنهاد کرد که تنها فناوری‌های تشخیص بیومتریک پایدار آن‌هایی هستند که «کاملاً کاربردی، پاسخ‌گو و با پشتوانه علم هستند» و الگوریتم‌های تحلیل احساسات هیچ کدام از این موارد نیستند.

دفتر کمیسر اطلاعات بریتانیا (ICO) اخیراً هشداری جدی برای شرکت‌ها و سازمان‌هایی منتشر کرده است که به دنبال به کارگیری فناوری‌های تحلیل احساسات مبتنی بر هوش مصنوعی هستند. به نظر می رسد این سیستم ها هنوز کار نمی کنند و به طور بالقوه هرگز نمی توانند به درستی عمل کنند. معاون کمیسر استفان بونر گفت الگوریتم‌های یادگیری ماشینی که خلق و خوی افراد را شناسایی و متمایز می‌کنند «نابالغ» هستند. او گفت که خطرات ناشی از این نوع فناوری بیشتر از مزایای احتمالی است.

فناوری های تحلیل عاطفی داده هایی مانند ردیابی نگاه، تحلیل احساسات، حرکات صورت، تجزیه و تحلیل راه رفتن، ضربان قلب، حالات چهره و رطوبت پوست را پردازش می کنند. این داده ها قابلیت های نظارتی را برای سلامت جسمانی کارگران، دانش آموزان در طول امتحانات و موارد دیگر ارائه می دهد. ICO هشدار داد که یک سیستم هوش مصنوعی طراحی شده برای شناسایی حالات می تواند سوگیری سیستمیک، عدم دقت و حتی تبعیض علیه ویژگی ها و ویژگی های صورت خاص را نشان دهد.

یک سیب زمینی داغ: مرجع مستقل حریم خصوصی بریتانیا نمی خواهد شرکت ها یا سازمان ها از سیستم های تجزیه و تحلیل احساسات بر اساس ویژگی های بیومتریک استفاده کنند. این یک فناوری آزمایش نشده و نوپا است که حتی ممکن است به هیچ وجه محقق نشود.

بخونید:  گزارش نقض داده ها در سال 2022: حوادث کمتر، قربانیان بیشتر

از آنجایی که مقامات هنوز نمی توانند به فناوری های تجزیه و تحلیل احساسات اعتماد کنند، ICO هشدار داد که سازمان هایی که از آن استفاده می کنند.[pose] خطرات برای افراد آسیب پذیر” و با تحقیقات مواجه خواهد شد. این دفتر به شرکت ها توصیه می کند که حداقل یک سال دیگر برای استقرار هوش مصنوعی احساسی تجاری صبر کنند.

هوش مصنوعی تجزیه و تحلیل احساسات معمولاً با سیستم‌های بیومتریک پیچیده جفت می‌شود، زیرا علاوه بر خود تصاویر چهره، نیاز به مدیریت حجم وسیعی از اطلاعات شخصی دارد. فراتر از سودمندی الگوریتم، دلیل دیگری برای نگرانی در مورد نحوه ثبت و ذخیره داده ها توسط این سیستم ها وجود دارد. «پاسخ‌های رفتاری یا احساسی ناخودآگاه» نسبت به فناوری‌های بیومتریک سنتی خطرناک‌تر هستند.

در همین حال، سازمان دیده بان حریم خصوصی در حال کار بر روی یک “راهنمای بیومتریک” جامع در رابطه با نحوه مدیریت داده های بیومتریک، از جمله ویژگی های صورت، اثر انگشت و نمونه های صدا، به شیوه ای مناسب و بدون تبعیض است. ICO انتظار دارد دستورالعمل هایی را تا بهار 2023 منتشر کند.



منبع