سازمان ناظر بر حفاظت از دادههای انگلستان خواستار پاسخ فوری از دولت شده است. این درخواست پس از انتشار گزارشی توسط آزمایشگاه ملی فیزیک (NPL) مبنی بر وجود سوگیری نژادی در فناوری تشخیص چهره بازنگریشده (RFR) مورد استفاده پلیس، صورت گرفته است.
امیلی کینی، معاون اطلاعاترسان، در بیانیهای اعلام کرد که سازمان ناظر بر حفاظت از دادهها (ICO) برای روشن شدن این موضوع و ارزیابی اقدامات بعدی نیاز به پاسخگویی فوری دارد. گزارش NPL نشان میدهد الگوریتم Cognitec FaceVACS-DBScan ID v5.5 در شرایط محدودی، احتمالاً گروههای جمعیتی خاص را بهطور نادرست در نتایج جستجو وارد میکند.
به طور مشخصتر، نرخ مثبت کاذب برای افراد سفیدپوست (0.04%) به مراتب کمتر از افراد آسیایی (4٪) و سیاهپوست (5.5٪) است. گزارش تاکید میکند که نرخ مثبت کاذب برای مردان سیاهپوست (0.4٪) نسبت به زنان سیاهپوست (9.9٪) پایینتر است.
ICO اذعان دارد که دولت در حال انجام اقداماتی برای رفع این سوگیریهاست، اما ابراز نارضایتی کرده که تا کنون این موضوع بهطور کامل اطلاعرسانی نشده بود، با وجود تعامل منظم با دولت و نهادهای پلیسی. این سازمان بر اهمیت اعتماد عمومی به فناوری تاکید میکند و هشدار میدهد که هرگونه تصور از تبعیض میتواند بیاعتمادی را تشدید کند.
دولت در گزارش خود اعلام کرده است که بر اساس یافتههای این آزمایش، الگوریتم جدیدی خریداری شده که عملکرد آن بدون ایجاد تفاوتهای جمعیتی قابلتوجه است. برآورد میشود این الگوریتم برای تست عملیاتی زودتر از سال آینده آماده شود و مورد ارزیابی قرار گیرد.
انجمن کمیسیونرهای پلیس و جنایی (APCC) نیز ضمن تایید اقدامات دولت برای کاهش سوگیری در سیستم RFR، نسبت به عدم شفافیت ابراز نگرانی کرده است. این انجمن معتقد است که فناوریهای پیشرفتهی تشخیص چهره باید قبل از اجرا بهطور مستقل و دقیق ارزیابی شوند و در طول عملیات، نظارت مستمر با مسئولیتپذیری کامل نسبت به مردم داشته باشند.
APCC خواستار آن شد تا اشتباهات گذشته تصحیح شده و دولت با نهادهای مسئول حاکمیت پلیس در سطوح محلی و ملی همکاری کند تا اطمینان حاصل شود که بازبینی و شفافیت، محور اصلی برنامههای اصلاح پلیس و سند سیاستی آتی باشد. به اعتقاد این انجمن، ارزیابی عملکرد پلیس نباید توسط خود آن انجام شود.
📌 توجه: این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.