Kategori: menneske og computer
Artikler om algoritmer i USA i sundhedsvæsenet diskriminerer mod sorte, eller snarere mod fattige og kronisk syge.
27-10-2019
Overskrifterne på artiklerne kunne have været, at de amerikanske algoritmer og det amerikanske sundhedsvæsen er udtryk for en syg kultur.

Flere medier bringer nyheden om, at forskere, som for en gang skyld havde adgang til mange sundhedsdata og adgang til koden i én af algoritmerne, opdagede, at sorte blev frasorteret af den kunstig intelligens, så de ikke fik behandling for deres alvorlige sygdom.

Scientists detected racial bias in a product sold by Optum, but the problem likely extends to algorithms used by major health systems and insurers - The Washington Post

A Health Care Algorithm Offered Less Care to Black Patients | WIRED

Millions of black people affected by racial bias in health-care algorithms | NATURE

I Danmark ville ikke vi ikke kunne bruge sådanne algoritmer, da vi - så vidt jeg ved - ikke kender udgifterne for behandlingerne af enkelte patienter. I USA er det forsikringsselskaber, som betaler og derfor har tal på udgifterne for hver patient. Det er disse tal, som algoritmerne bruger til at forudsige, hvilke patienter som skal indstilles til en længerevarende behandling, dvs. det kan de selvfølgelig ikke forudsige for det kan ikke omsættes til tal.

Derimod kan algoritmerne ud fra de fortidige beløb for patienterne forudsige de fremtidige udgifter. Det skabte problemet. Sorte, eller snarere fattige, havde ikke så ofte været på hospitalet, fordi de simpelthen ikke har råd til det. Algoritmen mente derfor om en fattig patient, at han/hun heller ikke i fremtiden ville resultere i store udgifter og dermed heller ikke skulle indstilles til intensiv behandling. Som om de to ting har noget med hinanden at gøre.

Det er et af problemerne ved algoritmer. Den kan kun arbejde med noget, som kan omsættes til tal. Det er svært, når det handler om at bedømme hvor syg en patient er og endnu sværere at forudsige, om en behandling vil gavne, dvs. sagt på amerikansk: hvor mange penge forsikringsselskabet kan spare, når patienten på grund af behandlingen bliver mere rask og derfor ikke i fremtiden vil medføre omkostninger for forsikringsselskabet.

I artiklen "A Health Care Algorithm Offered Less Care to Black Patients" siger en kvindelig forsker:
It is not because people are black, it’s because of the experience of being black. If you looked at poor white or Hispanic patients, I’m sure you would see similar patterns.


Hvis en algoritme blev brugt i det danske sygehusvæsen, ville den gå ud over kontanthjælpsmodtagere, som er fattige og ofte kronisk syge.

Hvorfor diskriminerer algoritmer altid de fattige både når algoritmerne bruges til vurdering af kreditværdighed i banker eller til forudsigelse af om en anklaget skal i fængsel eller om en jobansøger er egnet eller om en persons børn er i fare for misrøgt eller om en ansøger til en uddannelse skal optages på studiet.

Fordi algoritmerne er udviklet og betalt af de rige for at de kan tjene flere penge til deres i forvejen enorme formuer, som de ikke har tænkt sig at bruge til noget nyttigt og da slet ikke noget samfundsgavnligt.

Til slut om et andet problem ved algoritmer: de variabler, som bruges til forudsigelserne kan være underlige.

Et AI system kan ved oplæringen med de millioner af data om kriminelle have opdaget, at et vist antal af kriminelle brugte en stor skostørrelse. Det kunne være statistisk rigtigt. Den variabel ville det AI system tage med i vurderingen af, om en person skulle dømmes for en forbrydelse. Ville vi acceptere, at skostørrelse skulle have nogen betydning for en dom?

AI evangelister mener at alle variabler kan bruges:

For example, if other things equal, shoe size is a useful predictor of recidivism, then it can be included as a predictor. Why shoe size matters is immaterialkilde


Hvis en patient har været en byrde som sundhedsvæsenet i lang tid, vil patienten sikkert også være det i fremtiden. Det siger statistikken sikkert. Det siger sund fornuft. Men det kan ikke være en varibel, som må bruges ( undtagen i amerikansk tankegang), når man bedømmer en patient til behandling. Hvis en person, som aldrig har været på sygehuset, kommer til lægen og hun/han må konstatere, at personen lider af en alvorlig sygdom, skal personen straks under behandling. Det siger sig selv. Men det siger algoritmen måske ikke, hvis den ikke er udviklet til det, dvs i det tilfælde at bruge helt andre variabler.

se alle indlæg
cookies