Objavljeno: 15.9.2021 05:00 | Teme: umetna inteligenca

Avstralska policija bo z umetno inteligenco napovedovala družinsko nasilje

Policija v avstralskem Queenslandu bo začela preizkušati sistem z umetno inteligenco, s katerim bodo identificirali, za koga obstaja največja verjetnost povzročitve nasilja v družini. Orodje, ki bo uporabljajo podatke iz policijske baze o preteklih incidentih Qprime (Queensland Police Records Information Management Exchange), bo ocenilo tveganje in verjetnost za vse potencialne storilce, da bi ponovili svoja dejanja.

Če se ob tem spomnimo na film Posebno poročilo (Minority Report), policija miri, da rezultati programa ne bodo uporabljeni na sodišču ali za aretacije. Priznavajo pa, da bodo s tem bolj proaktivno nadzirali dogajanje in potrkali na kakšna vrata tudi brez klica na pomoč. Tako imenovani pregledi (wellness check) bodo tem bolj pogosti, čim večjo možnost za nasilje bo izračunal program.

Sliši se koristno, a v praksi imajo takšni sistemi več slabih kakor dobrih lastnosti, predvsem pa so neučinkoviti. Eden izmed nezanemarljivih problemov umetne inteligence je tudi pristranskost (bias), ki so jo dokazali številni poizkusi. Ker so umetno inteligenco spisali ljudje in ker se napaja iz obstoječih podatkov, ki so že obremenjeni s pristranskostjo (npr. temnopolti ljudje so v ZDA večkrat aretirani kakor belci zaradi enakih prestopkov), jo še propagira.

The Guardian

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji