'Algoritmes politie kunnen leiden tot discriminatie'
Het gebruik van algoritmes om misdaad te voorspellen, kan leiden tot etnisch profileren en discriminatie.
Die waarschuwing geeft de Britse mensenrechtenorganisatie Liberty in het rapport ‘Policing by machine’ (pdf). Uit onderzoek van Liberty blijkt dat 14 van de 90 politiediensten in het Verenigd Koninkrijk gebruik maken of gebruik hebben gemaakt van algoritmes die moeten voorspellen waar de kans op criminaliteit het grootst is.
Deze vorm van ‘predictive policing’ is volgens Liberty niet zonder gevaar. “Mensen denken dat computerprogramma’s neutraal zijn, maar in feite bevestigen ze de bestaande vooroordelen van de politie”, verklaart Hannah Couchman van Liberty tegenover The Guardian. Zo wordt met hulp van de algoritmes een ‘technologisch sausje’ over discriminerende politiepraktijken gegoten.
Feedback loop
Als de politie in het verleden veel mensen heeft opgepakt in een bepaalde buurt, zal een algoritme vermoedelijk ook adviseren om vaker politieagenten naar die buurt te sturen. Zo ontstaat er een ‘feedback loop’, waarbij agenten steeds weer terug gaan naar bepaalde buurten, waarschuwt Liberty. “Vaak zijn dat buurten waar veel inwoners wonen die lage inkomens hebben of behoren tot een etnische minderheid.”
De organisatie wijst erop dat zwarte bewoners van het Verenigd Koninkrijk nu al drie keer zo vaak worden gearresteerd als witte mensen. De kans dat de rechter opgepakte zwarten vrijspreekt, is echter een stuk hoger dan bij witte verdachten.
Gebrek aan transparantie
Liberty hekelt het ‘enorme gebrek aan transparantie’ bij de politie over de algoritmes. “Er is maar heel weinig informatie over hoe de voorspellende algoritmes tot hun conclusies komen. Zelfs de politie lijkt niet te begrijpen hoe de machines tot hun oordelen komen.”
Kijk ook: worden robots slimmer dan mensen?
Volg Bright op YouTube voor meer video's over technologie