യുകെ പൊലീസിന്റെ ഫെയ്സ് റെക്കഗ്നേഷൻ സിസ്റ്റത്തിലുണ്ടായ വംശീയ പക്ഷപാതത്തെ കുറിച്ച് അടിയന്തിര വിശദീകരണം ആവശ്യപ്പെട്ട് ഡേറ്റാ പ്രൊട്ടക്ഷൻ വാച്ച്‌ഡോഗ് രംഗത്തു വന്നു . പൊലിസ് നാഷണൽ ഡേറ്റാബേസിൽ ഉപയോഗിക്കുന്ന സാങ്കേതികവിദ്യ ചില വിഭാഗക്കാർക്കെതിരെ കൂടുതൽ തെറ്റായ തിരിച്ചറിയൽ ഉണ്ടാക്കിയെന്ന നാഷണൽ ഫിസിക്കൽ ലബോറട്ടറിയുടെ (NPL) കണ്ടെത്തലിനെ തുടര്‍ന്നാണ് ഇൻഫർമേഷൻ കമ്മീഷണേഴ്സ് ഓഫീസ് (ICO) ഹോം ഓഫീസിനോട് അടിയന്തിര നടപടി ആവശ്യപ്പെട്ടത്.

WhatsApp Image 2024-12-09 at 10.15.48 PM
Migration 2
AHPRA Registration
STEP into AHPRA NCNZ

റിപ്പോർട്ടിൽ വെളിപ്പെട്ട കണക്കുകള്‍ ആശങ്ക ഉളവാക്കുന്നതാണ് . വെള്ളക്കാരിൽ 0.04% ആയിരുന്ന തെറ്റായ തിരിച്ചറിയൽ നിരക്ക് ഏഷ്യക്കാരിൽ 4%, കറുത്തവരിൽ 5.5% എന്ന നിലയിലായെന്നും, പ്രത്യേകിച്ച് കറുത്ത സ്ത്രീകളിൽ ഈ നിരക്ക് 9.9% ആയി കുത്തനെ ഉയർന്നതുമായാണ് റിപ്പോർട്ട് വ്യക്തമാക്കുന്നത്. ഇത്രയും ഗൗരവമായ പക്ഷപാതം ഇതുവരെ തിരിച്ചറിയാതിരുന്നത് നിരാശാജനകമാണെന്ന് ഐ സി ഒ വിമർശിച്ചു.

വിഷയം ഗൗരവത്തോടെ കാണുന്നതായാണ് പുറത്തുവന്ന വിവരങ്ങളോട് ഹോം ഓഫിസ് പ്രതികരിച്ചത് . പുതിയ അൽഗോരിതം പരിശോധിച്ചു വരികയാണെന്നും അതിൽ സ്ഥിതിവിവരം ശാസ്ത്രപരമായ പക്ഷപാതമില്ലെന്നുമാണ് അവര്‍ വ്യക്തമാക്കുന്നത്. അതേസമയം, ഫെയ്സ് റെക്കഗനേഷൻ സിസ്റ്റം രാജ്യവ്യാപകമായി വ്യാപിപ്പിക്കാനുള്ള നീക്കങ്ങളിൽ കൂടുതല്‍ ജാഗ്രത വേണമെന്ന് പൊലീസ് ആൻഡ് ക്രൈം കമ്മീഷണർമാർ മുന്നറിയിപ്പ് നൽകി. ഷോപ്പിംഗ് സെന്ററുകളും സ്റ്റേഡിയങ്ങളും ഗതാഗതകേന്ദ്രങ്ങളും ഉള്‍പ്പെടെ പൊതുസ്ഥലങ്ങളിൽ ഈ സാങ്കേതികവിദ്യ വ്യാപകമാക്കുന്നതിന് മുൻപ് ശക്തമായ സുരക്ഷാ സംവിധാനങ്ങൾ ആവശ്യമാണ് എന്നും അവർ വ്യക്തമാക്കി.