Kategori: menneske og computer
Har Kommunernes Landsforening brugt 270.000 kr på at købe et håndværkertilbud, som de troede var et dollargrin.
26-08-2020

Hvorfor er det vigtigt at analysere og kommentere en 3 år gammel rapport? Fordi den i værste fald stadig præger de danske kommuners visioner for ny teknologi. Hvorfor er det interessant at læse rapporten? Fordi vi nu kan bedømme i hvor høj grad forfatterne tog fejl.

Rapporten " Fem teknologiske temaer", udarbejdet af DareDisrupt i 1997, handler om betydningen af 5 teknologiske temaer (Kunstig intelligens, big data og robotter, Internet of Things, Virtual Reality og Augmented Reality, Deleøkonomi og Blockchain, Data, privatliv, transparens og sikkerhed) inden for de 6 kommunale områder: arbejdsmarked og erhverv, Social og sundhed, Børn og læring, Miljø, teknik og forsyning, Demokrati og involvering, Administration og organisation.

Teknologierne og de kommunale områder er beskrevet ordrigt og tilforladeligt. Men kun på overfladen. Den vil jeg kradse i og undersøge, hvor meget substans der er bag påstandene om de nye teknologiers enorme potentiale og lovende perspektiver.

Hvis man var venlig, kunne man sige, at DareDisrupt i sin begejstring i 2017 ikke havde mulighed for at bedømme de nye teknologier realistisk. Men når det handler om det menneskesyn, som kommer til udtryk i rapporten, er der ikke plads til venlighed. Min væsentligste kritik er netop mod rapportens opfattelse af borgerne i kommunen og de kommunalt ansatte.

Borgere
DareDisrupt leger med den tanke, at borgerne ikke behøver at blive hørt, men i stedet blive målt.

[Algoritmer kan læse ] store mængder data, [og ] finde frem til personlighedstræk, præferencer, samt politiske holdninger og meget andet ved at samle data fra f.eks. sociale medier.( s. 68)


[Det kan blive muligt at en kommune ikke har] brug for borgernes holdninger, men målte borgernes adfærd og på den måde kendte borgernes præferencer?( s. 70)


Der vil givetvis være temaer og dilemmaer, hvor borgernes adfærd siger mere om den optimale løsning end en stemme- eller holdningstilkendegivelse. (s. 200)

Inspirationen til dette kommer fra et firma ved navn Cambridge Analytica, som omtales flere steder. Firmaet blev berømt, fordi det gav politikere ved præsidentvalget 2016 i USA mulighed for at målrette annoncer til vælgere, som måske var villige til at flytte deres stemme. Men det skabte en debat om den slags metoder må bruges. Debatten blev til en skandale storm mod firmaet, som måtte lukke (og sikkert er genopstået med et andet navn).

Allerede i 2017, hvor rapporten blev skrevet, var der kritiske artikler mod firmaet. Enten er forfatterne af rapporten naive, eller de har ikke haft tid til at tjekke oplysningerne om firmaet, eller de har ønsket at fremstille firmaet positivt. DareDisrupt skriver med næsegrus beundring om firmaet. Reklamerer de for firmaet? Cambridge Analytica benytter "adfærdspsykologiske modeller og indsigt fra sociale medier til at forudsige præcist, hvilken type en person er. " Mon ikke det mildest talt er upræcist at bruge ordet 'præcist'.
Begejstringen når et højdepunkt i dette citat:

Cambridge Analytica har stået for nogle af de mest effektive kampagner. (s. 109)

DareDisrupt mener, at forskeren Michael Kosinski står bag Cambridge Analytica's metode. I følge denne forsker kunne de likes som en facebookbruger har trykket, bestemme, hvilken person brugeren er: "Kosinski selv siger, at med 4-500 likes vil algoritmen sandsynligvis kende en bedre, end personen kender sig selv!" (s. 108)

Det er ikke kun upræcist. Det er det rene vrøvl. Det væsentlige ved en person kan ikke kvantificeres og tælles. Det kunne jeg skrive meget om, og det ville fylde flere blogposts.

I sammenhæng med omtalen af Cambridge Analytica nævnes ordet 'nudge': adfærdsvidenskab kan hjælpe med at 'nudge' brugeren i en bestemt retning. For mig betyder begrebet 'nudge' at 'manipulere'. Kommunen kan fx udstyre svage borgere med et 'smart ur' og kræve, at de går til fitness, og holde øje med deres motionsvaner.

[Kommunen kan følge] patientens motionsmønster - via wearables og indtjekning på et fitnesscenter - og kan således automatisk belønne - eller straffe - patienten når han/hun har udført motionen. (s. 172)


Rapporten nævner flere steder ganske kort at et forhold kan rejse etiske dilemmaer. Men det er nærmest en formssag og uddybes ikke. Det vigtige er potentialet for kommunerne. I sammenhæng med Cambridge Analytica indrømmes det, at firmaets metode "bringer en masse etiske spørgsmål på banen. " Og så fortsættes: "Men uanset hvad man mener om det, er det et . . "( s. 108). Den går ikke. Sådan fungerer etik og moral ikke. I hvert fald ikke hos anstændige mennesker. Hvis jeg siger:" Den metode eller opførsel er uetisk og umoralsk", kan du ikke sige:" Uanset hvad du mener, så er der et stort potentiale og store perspektiver i at gøre sådan." Det er ikke ligegyldigt om en metode er etisk eller uetisk. Og netop i disse år udkommer mange artikler om, at brugen af AI i mange tilfælde ikke er etisk forsvarlig, når det gælder sociale og menneskelige forhold.

DareDisrupt reklamerer for Cambridge Analytica, måske ikke kun for at kommunerne skal bruge samme metode, men for at de skal bruge det firma? Kommunernes Landsforening er sikkert ikke bevidst om, at de her selv bliver udsat for 'nudging' : de ledes, lokkes og fristes til at bruge uetiske, umoralske og farlige metoder over for borgerne.

Faktatjek: Kosinki mente selv, at hans metode kunne misbruges til at manipulere folk. Hans metode " could pose a threat to an individual’s well-being, freedom, or even life."
Tvunget af den massive kritik måtte en talsmand for firmaet Cambridge Analytica trække i land og hævdede, at firmaet intet havde at gøre med Michael Kosinski og ikke brugte hans metode og (næsten) ikke brugte profilering ('Psychographics') og kun havde haft den hensigt at få mange så som muligt til at stemme ved valget.
Udtalelserne er - så vidt jeg kan bedømme - fra 2017. Mon forfatterne til DareDisrupt's rapport har læst det og mod bedrevidende reklamerer for et lusket og farligt firma.

Mon DareDisrupt i ren teknologibegejstring mener, at mennesker er som maskiner eller computere, som kan og skal programmeres. Der skal bare drejes på nogle knapper, så opfører mennesker sig som kommunen ønsker det. Bortset fra at det er udtryk for et uhyggeligt menneskesyn, så undervurderes menneskers modstandskraft og oprørskhed. Mennesker vil selvfølgelig ikke finde sig i den slags behandling, som det også viste sig i protesterne mod Cambridge Analytica.

Når vi er blevet opmærksomme på det uetiske i nudging, skyldes det bl.a. skandalen om Cambridge Analytica. Netop det firma, som DareDisrupt roser i høje toner, har medført, at vi kraftigt afviser den slags metoder.

Predictive policing

… kommunen kan forudse destruktiv adfærd hos den enkelte borger – gennem analyser af data fra infrastrukturen i kommunen – før borgeren selv kan, eller i hvert fald før handlingen udføres (eget misbrug, misbrug af andre eller vold…)?( s. 198)

Allerede i 2017 blev dette kaldt 'preditive policing', men det ord nævner rapporten ikke. Mon der er en grund til det? Kender forfatterne til rapporten den kritik, som flere år før blev rejst i USA mod politiets brug af algoritmer mod kriminelle.

Med big data og kunstig intelligens kan man f.eks. forudsige hvilke behandlinger og forebyggende indsatser, der reelt giver effekt. Det bliver muligt at identificere risikogrupper eller individer og lave en indsats for dem meget tidligt.( s. 84)

Faktatjek: I juni 2020 udtalte EU kommissionens næstformand, Margrethe Vestager, at hun er er imod, at politiet bruger algoritmer mod kriminelle, fordi den teknologi medfører, at politiet diskriminerer og går målrettet efter bestemte grupper i befolkningen.
Flere byer i USA har opgivet teknologien. Dels var den ikke effektiv og var til ingen hjælp for politibetjente. Dels var den diskriminerende og ramte i høj grad de fattige og minoriteter.
Børn
DareDisrupt ser for sig en fremtid, hvor:

data kan følge børnene fra dagtilbud til skole og videre i livet, så der på tværs af kommunen er mulighed for at målrette indsatser og derigennem bedst muligt understøtte den enkelte igennem livet. ( s. 196)


vi kan forudse før børn fylder 6 år, hvordan de vil klare sig i livet – hvem får succes, og hvem bliver omkostningstunge?( s. 89)

I et humanistisk menneskesyn skelnes mellem en persons væsen og det som personen har gjort. Enhver person skal behandles med værdighed og respekt, uanset hvad personen har gjort. Hvis data skal (for)følge et barn hele livet, er personen værre stillet end forbrydere, som efter vores nuværende system får slettet deres straffeattest efter et antal år. I sig selv er det en uhyggelig og absurd tanke, at en person skal vurderes ikke kun ud fra hans liv førhen, men også ud fra hvordan hans liv bliver i fremtiden, hvilket en algoritme i øvrigt ikke er i stand til at forudsige, lige så lidt som vi mennesker kan. Vi kan ikke forudsige fremtiden, som for det meste overrasker os.

Faktatjek:Et omfattende og imponerende studie, "Measuring the predictability of life outcomes with a scientific mass collaboration", interviewede 4.242 familier, og 160 AI teams konkurrerede om, hvem af dem der bedst kunne forudsige et barns fremtid. Men det lykkedes ikke for nogen af dem at give en akkurat forudsigelse. Desuden viste det sig, at almindelige statistiske metoder var lige så (u)nøjagtige som disse systemer med kunstig intelligens: " the best predictions were not very accurate and were only slightly better than those from a simple benchmark model."
Om undervisning skriver rapporten:

I en verden med kunstig intelligens er det ikke længere nødvendigt, at læreren er faglig ekspert i et fag, læreren vil ikke skulle forberede og afholde den samme faglige undervisning igen og igen eller rette opgaver. ( s. 90)


Underviserens rolle ændres fra at være underviser til at være lærings-moderator, hvilket kræver nye kompetencer.


[Der er mulighed for at] alle børn har sin helt egen underviser [ en AI-robot], som følger dem 24/7?( s. 89)


[Der er mulighed for at] børn kan lære alt fagindholdet i folkeskolen via AI-robotter – og de kan gøre det på den halve tid.( s. 89)


[Der er mulighed for at] borgere og børn - med hjælp af digitale værktøjer [vil kunne undervise] hinanden bedre, end skolen kan undervise dem i dag?( s. 54)

Det er mærkeligt at forfatterne til rapporten er så ufølsomme og kolde, at de ikke kan fornemme, hvor uhyggeligt det ville være, hvis et barn blev (for)fulgt af en robot 24/7. Jeg kan røbe, at jeg nu ikke længere behøver og heller ikke ønsker at tale med indremissionske eller folk fra vækkelsesbevægelser. De giver mig kvalme. Den samme fornemmelse får jeg, når jeg læser DareDisrupt's rapport. Mon forfatterne til rapporten selv har børn? Det er ironisk, at mange af techguruerne i Silicon Valley ikke tillader, at deres børn bruger ipad og iphone eller kun i meget begrænset omfang. Her en artikel fra 2020: " 6 tech executives who raise their kids tech-free or seriously limit their screen time"

Denne tanke, at børn kan undervise sig selv via en robot og ikke behøver at gå i skole og være sammen med andre, er ikke kun frastødende, men også usand.
Hvad husker du bedst fra din skoletid? Mon ikke det du lærte i de fag, hvor læreren var en personlighed og en rollemodel.

Vi mennesker er skabt til at være sammen. Det har corona lockdownen lært os. De unge måtte i flere uger undervises online, og de mistede motivationen og længtes kun efter at være sammen med deres kammerater og lærere. Netop i disse dage demonstrerer unge i Aarhus. De vil i skole. De vil ikke være hjemme og lære via en skærm.
I øvrigt har det vist sig, at online undervisning er trættende og påvirker hjernen. ('Zoom fatigue' is taxing the brain. Here's why that happens. Video calls seemed an elegant solution to remote work, but they wear on the psyche in complicated ways. )

Faktatjek: i USA, som DareDisrupt henter sin inspiration fra til alle deres teknologi anbefalinger, er der kritik af teknologi til personrettet undervisning via AI-robot systemer.
"Big claims, little evidence, lots of money: the reality behind the Summit Learning Program and the push to adopt digital personalized learning program" er titlen på et studie fra Universitetet i Colorado. Rapporten handler om en platform, Summit Learning Program, udviklet med støtte fra Facebooks Mark Zuckerberg. Rapporten konkluderer, at platformen er ubrugelig. " The Summit Learning Program does not deliver on its promise to provide a higher quality education, with superior student outcomes."


I en verden med kunstig intelligens er det ikke længere nødvendigt, at læreren er faglig ekspert i et fag, læreren vil ikke skulle forberede og afholde den samme faglige undervisning igen og igen eller rette opgaver.( s. 90)

Faktatjek: en lærer afholder ikke den samme faglige undervisning igen og igen. Han er ikke en maskine. Han prøver hvert år at gøre stoffet levende ved at tale til og se på eleverne. I USA har det vist sig, at en algoritme ikke kan rette opgaver. Dels kan den ikke forstå komplekse spørgsmål, fx i matematik, men kun multiple choise spørgsmål. Dels kan en elev skrive en stil, som er det rene vrøvl, men hvis sætningerne er skrevet i et formfuldendt sprog, vil algoritmen give eleven en høj karakter, fordi kunstige systemer kun er i stand til at se form og ikke indhold.

Kommunens sagsbehandlere.

Vi må også forvente, at AI vil have en stor indflydelse ift. at varetage den offentlige sagsbehandling, således at de kommunale medarbejdere går fra at være dem, der konkret foretager sagsbehandlingen og træffer afgørelser, til at de laver kvalitetssikring af en hel- eller delvist automatiseret sagsbehandling .( s. 4)

Sætningen er ulogisk. En helautomatisk sagsbehandling kan ikke kvalitetssikres, fordi den består i, at systemet i overmenneskelig fart sprøjter så mange (forkerte) afgørelser ud, at et menneske aldrig vil kunne overskue dem. Her i august 2020 er der et tydeligt eksempel. I UK er der stor kritik og protester mod en algoritme, som har givet elever eksamenskarakterer. Skolerne var lukket i eksamenstiden på grund af corona, og eleverne stod uden et eksamensbevis, som fx kunne give adgang til universitet. Mon ikke algoritmen kun brugte nogle minutter til at afgøre tusinder af elevers karakterer. Ingen kunne kvalitetssikre det og ændre forkerte afgørelser. Den engelske regering har nødtvunget indrømmet det og har nu skrottet synstemet.

Udbetaling Danmark sendte i 2019 forkerte oplysninger til Skat om 111.000 personer. I 2015 berørte fejl 325.000 danskere. I 2013 berørte fejl 300.000 pensionister. Hvis de ansatte i Udbetaling Danmark er almindelige mennesker, må de være skamfulde og indrømme, at de havde ingen mulighed for at forhindre disse fejl, og at det var en pinlig overraskelse for dem, at det kunne ske.

Formuleringen i citatet er ikke kun uklar, men også usand når det gælder delvist automatiseret sagsbehandling, som rapporten skriver sådan om:

[Det kan blive muligt at] sagsbehandlere fik løst de fleste sager med hjælp fra kunstig intelligens, der kunne forberede en sag og komme med løsningsforslag til vurderingen, som sagsbehandleren så kunne godkende eller ændre?( s. 111)

Hvordan man sagsbehandleren godkende eller ændre en dom fra et AI system, når maskinen ikke kan forklare hvilke forhold som førte til afgørelsen, og hvilke forhold der blev vægtet som vigtige.

Mange af kommunens mere standardiserede processer som dokumentation, sagsbehandling og kommunikation kan allerede automatiseres med RPA-robotter. (s. 78)

Jeg er tvivl om dokumentation kan automatiseres. Kan en maskine bedømme, hvad der er vigtigt i en sag og dokumentere det? Jeg er sikker på, at sagsbehandling ikke kan automatiseres. Et kunstigt system kan ikke fortolke en regel ind i en konkret situation og lægge vægt på konkrete omstændigheder. Mennesker kan dømme fordomsfuldt, men kunstige systemer kan også være biased og det i endnu højere grad end mennesker. I ovennævnte eksempel fra UK mente algoritmen, at elever fra dyre privat skole skulle have højere karakterer end elever fra underklassen.

Et argument som ofte bruges om algoritmers overlegenhed i forhold mennesker, er at algoritmer er objektive og neutrale. Dels er det synspunkt udtryk for en menneskelig 'fordom'. Mennesker er tilbøjelige til at overvurdere maskiners præstationer. Det kaldes 'automation bias'. Dels tages der ikke højde for, at mennesker arbejder sammen, og at deres forskellige fordomme udjævner hinanden. I vigtige retssager er der altid flere dommere og lægdommere. I øvrigt sker det alt for ofte, at fortalere for AI først bliver nødt til at reducere menneskers præstationer for at kunne bevise AI's overlegenhed.

En sagsbehandlers opgave kan ikke udføres af en maskine, fordi en regel eller lov ikke kan forudse alle undtagelsestilfælde. Sagsbehandleren bruger sin indfølelse og viden til at tolke lovens ånd ind i den konkrete situation. Administrative computersystemer kan selvfølgelig lette personalets arbejde bl.a. ved at finde alle sagens akter, men det er i mødet og samtalen med klienten, at sagsbehandleren vurderer en situation.

Af de ovennævnte grunde er følgende påstand usand, hvis der med disse områder menes de sociale:

Inden for enkelte områder vil digitale systemer selv kunne navigere uden brug af mennesker ,( s. 5)

Hvis kommunern vil være moderne og være med på det nyeste, skal de ikke lytte til DareDisrupt's lovprisning af algoritmer, men hellere rette opmærksomheden mod alle de retssager og protester fra borgerrettighedsgrupper bl.a. i USA, England, Australien, Holland, Sverige. Bare for at nævne nogle lande. I Holland dømte retten, at AI systemet strider mod menneskerettighederne. Den 24. august 2020 skriver Guardian under titlen "Councils scrapping use of algorithms in benefit and welfare decisions", at 20 byer i UK har stoppet med at bruge computer algoritmer.

Ansatte i kommunens tekniske forvaltning

Flere vil arbejde som freelancere og/eller i jobs, hvor deres kompetencer købes ad hoc. ( s. 97)

Det er udtryk for et kynisk syn på arbejdere, at de bare kan hyres og fyres efter kommunens forgodtbefindende. Og heldigvis gik denne spådom ikke i opfyldelse i Danmark.
Faktatjek: et indlæg fra 2019 på Dansk arbejdsgiverforenings hjemmeside har titlen "Tendens til færre vikarer og freelancere" og artiklen argumenterer for at 'det danske arbejdsmarked ikke er under pres'. Det må betyde at DA ikke ønsker, at arbejdere bliver til "prekariat af vikarer, projektansatte og freelancere". I USA er udviklingen gået anderledes, hvilket her i 2020 har medført strejker. GIG arbejdere demonstrerer med held mod techgiganterne for at få bedre forhold, bla. minimumsløn og status som ansatte.


Efter at have kommenteret rapportens menneskesyn, vil jeg gennemgå de teknologiske temaer, som rapporten nævner: 1)Kunstig intelligens, big data og robotter, 2) Internet of Things, 3) Virtual Reality og Augmented Reality, 4) Deleøkonomi og Blockchain, 5) Data, privatliv, transparens og sikkerhed

Kunstig intelligens


Kunstig intelligens . . kan se mønstre, som et menneske ikke kan se. (side 60)

Rapporten undlader at nævne, at nogle af de korrelationer eller mønstre, som opstår i de statistiske beregninger i AI systemer kan være falske, dvs. vi mennesker kan klart se, at de ikke passer. Det kaldes 'spurious patterns'. Et andet problem er, at mønstrene er baseret på fortidige data. AI er ude af stand til at håndtere forandringer i den virkelige verden. Det kan tydeligt ses i denne pandemi periode, hvor virkeligheden er meget forskellig fra fortiden. I fx lagerstyring har firmaer måtte tage AI systemer ud af drift, og mennesker har taget over, fordi det var helt forkert hvad maskinerne forudsage, at kunderne ville købe.

Et problem, som rapporten heller ikke omtaler, er at hverken udviklere eller eksperter kan forklare eller overskue de statistisk beregniger, som foregår i et kunstigt program, og derfor ikke kan forklare, hvorfor algoritmen kommer til sit resultat, sin afgørelse eller 'dom'. Man kan ikke forklare, hvorfor det (måske ofte) er rigtigt det som maskinen når frem til. Men værre er, at man heller ikke kan forklare, når maskinen (måske ofte) tager helt fejl.

Endelig er det vigtigt at slå fast, at algoritmer ikke er neutrale og objektive. De er udviklet med et formål, og brugerne har også deres formål, som farver algoritmens vurderinger. Netop i år har mange AI artikler fokus på, at AI systemer er socio-tekniske, dvs. de har sociale virkninger og udøver magt, som udnytter og underkuer mennesker.

Digitale assistenter effektiviserer og reducerer fejl i sagsbehandling. (side 48).

Det stemmer ikke. Som nævnt ovenfor er der mange uhyggelige eksempler på, at algoritmer i det offentlige (bl.a. i Canada, USA, Australien og Holland) har begået så katastrofale fejl, at algoritmerne af domstole blev dømt ulovlige, og endda værende i strid med menneskerettighederne. Regeringer har været nødsaget til at betale millioner af kroner tilbage til borgere, som uretmæssigt blev frataget deres hjælp. Algoritmernes beregninger var forkerte.

DareDisrupt har en naiv tiltro til kunstig intelligens, og det gælder også med hensyn til data.

Data er tal eller målinger foretaget af mennesker, som har udvalgt, hvad der skal tælles. Og når data er indsamlet, kan de ikke bruges uden videre i udviklingen af det kunstige program, men skal renses og bedømmes. Måske opdager udviklerne, at deres data ikke er repræsentative, dvs. mangler vigtige forhold, som ikke er talt med, eller at der er grænsetilfælde, som skal fjernes, fordi de ville forvirre algoritmen. Hvilket i øvrigt også er problematisk, da algoritmen så ikke kan tage individuelle hensyn og retfærdigt bedømme personer, som falder uden for det almindelige. Behandlingen af data tager 2 til 3 gange længere tid end at udvikle eller 'kode' algoritmen.

Rapporten undlader at nævne de mange problemer, som knytter sig til kunstig intelligens og til data. Det er ikke så lige til, som rapporten antyder.

Digitale støvsugere på nettet [ samler data] (side 39)

Det er pjattet at sammenligne dataindsamling med støvsugning. Dels har dette ord en uskyldig og positiv klang, dels findes data ikke, så de bare kan suges op. Data er konstrueret af mennesker.


[ Måske vil det ske, at] tankegangen om privatliv skifter , og borgerne er villige til at give deres data væk til kommercielle aktører - for at få en bedre diagnose eller service?( s. 194)

Fra 2017 til nu har der været stigende fokus på, at dataindsamling krænker borgernes privatliv. Det er gået lige modsat af det, som DareDisrupt håber, nemlig at borgere vil se bort fra deres privatliv og villigt give deres data fra sig.

Internet of things
DareDisrupt nævner 'internet of things' mange gange.
Faktatjek: Tre år efter rapportens udfærdigelse konstaterer en artikel, " The IoT industry is broken, but can it be fixed?", at IoT ikke har levet op til de oprindelige og overdrevne forventninger. Det er helt ude af proportion, at DareDisrupt bruger så meget plads på denne teknologi.

Virtual Reality, Augmented Reality.
Faktatjek:
Ved en søgning på Google ved ordene "Virtual Reality hype" findes bl.a. en artikel fra BBC fra 2020 med titlen " What went wrong with virtual reality?". Selv Google har opgivet salget af deres VR headset. Heller ikke i 2017 var VR en 'moden' teknologi.
Det samme gælder AR. Allerede i 2015 opgav Google salget af deres brille 'Google glass'. I en artikel fra 2019 med overskriften 'Google prøver igen: Mød de nye Google Glass AR-briller' står der:" Det bliver spændende at se, om Google kan få en succes ud af Glass-konceptet trods alt. " Det er misvisende, når DareDisrupt skriver:

VR og AR er teknologier, som først inden for det sidste år har nået en modenhed, der gør dem relevante. Men nu går udviklingen stærkt, og perspektiverne er store.

De kunne have skrevet, at udviklingen går stærkt nedad.

Deleøkonomi.
I en artikel fra Nordea fra 2019 står der:

Deleøkonomien er stadig ’til pynt’, da man kun deltager få gange om året. Tilfredsheden med de deleøkonomiske løsninger er desværre ikke i top hos brugerne.

Firmaer som Airbnb og Uber er kommet i modvind og blevet forbudt i flere byer og lande. Lige nu i august 2020 overvejer Uber at trække sig ud af Californien, fordi retssager vil tvinge dem til at ansætte chaufførerne og ikke opfatte dem som selvstændige, der er på kontrakt med firmaet, som kun vil opfattes som en teknologisk platform, der leverer en service til chaufførerne.

Blockchain
Her kan det også konkluderes, at den teknologi ikke endnu (og aldrig?) vil leve op til forventningerne. Hanne Marie Motzfeldt, lektor i digital forvaltning, skriver i et tweet 2020:

. . det var den HELT store hype for 2 år siden og nu prøver jeg desperat at finde et eksempel, hvor blockchain er blevet anvendt (helst med succes) i det offentlige .... altså i Danmark. ..


Allerede i 2017 ved rapportens udfærdigelse var der klare tegn på, at de teknologier, som rapporten priser i høje toner, var hypet, og at de ikke kunne leve op til de overdrevne forventninger. Det gælder også de eksempler på produkter, som rapporten nævner.

Selvkørende biler
Selvkørende biler er nævnt 27 gange i rapporten. Her ét citat:

Selvkørende biler muliggør også, at tiden i trafikken kan omsættes til arbejde – dette vil kunne påvirke til- og fraflytning mellem kommunerne og vil kunne påvirkeboligpriserne (s. 60)

Faktatjek: firmaet Tesla, som er længst fremme i udviklingen af selvkørende biler, har hvert andet år forudsagt, at nu ville det blive virkelighed. Men ligesom med forudsigelser om jordens undergang, venter vi stadig på at se en fuldt selvkørende bil. Jo længere man kommer til målet, desto større problemer opstår der.

IBM Watson
Rapporten nævner som et pilotprojekt et kunstigt maskinprogram fra IBM, som skulle kunne diagnosticere kræft og foreslå den rigtige behandling.

IBM Watson i brug i Gentofte Kommune til diagnosticering.( s. 46)

Faktatjek: allerede i 2017, hvor rapporten blev udfærdiget, skriver TV2 en artikel med titlen "Lægerobot i modvind - foreslog livsfarlig medicin til danske patienter". Danske læger har opgivet Watson. Det samme er sket andre steder i verden.

I en tredjedel af tilfældene var Watsons forslag 'helt i skoven', som lægen Leif Panduro Jensen udtrykker det


I de tilfælde hvor Watson foreslog den rigtige behandling, havde lægerne allerede selv bestemt sig for den behandling.

Vi har jo ikke brug for at vide, at det vi allerede ved, er rigtigt. Værdien ligger i, hvis Watson kan foreslå os behandlinger, når vi har prøvet alt, og patienten stadig har det så godt, at det ikke giver mening at give op,



Jeg kunne kommentere flere af de andre produkter, som rapporten nævner: fx VR til genoptræning af patienter eller Hyperloop eller robotten Ziggy, som hævdes at kunne bedømme personers følelser.
Men her kun om appen 'Street Bump':

App’en 'Street Bump' tracker trafik og huller i asfalten, så man opsamler information omvejens kvalitet uden brug af kommunale mandetimer. (s. 104)

Faktatjek: i virkeligheden er det ikke (kun) huller i vejen, som appen registrerer, men snarere hvilke områder, hvor der bor folk med de nyeste smartphones, som kan bruge appen. Dvs. appen medfører diskriminering. Det er kun i de velstående kvarterer, at vejene bliver repareret.

DareDisrupt har støvsuget alle de teknologier som var hotte i det år, rapporten blev skrevet.
Mon året 2017 var et specielt år, hvor der var stor hype og overdrevne forventninger til umodne teknologier. I øvrigt er det kendetegnende også for kunstig intelligens, som stadig er en umoden teknologi, at de fleste nyheder om den handler om hvad den "vil" kunne eller om dens potentialer, og meget få nyheder handler om, at AI i praksis har gjort en forskel. På det seneste har jeg set artikler, som mener, at AI udviklere egentlig ikke er interesseret i om deres forsøg kan anvendes i den virkelige verden. De er mere interesseret i at vise, at performancen af deres produkt er bedre end andres, og altså ikke om det overhovedet er til nogen nytte i praksis.

Om rapportens struktur.
Rapporten har ingen indholdsfortegnelse. Mon forfatterne selv havde lige så stort besvær, som jeg havde, med at forstå opbygningen af rapporten. Her forsøger jeg: første del nævner hver af de teknologiske temaer ( ved hver teknologi nævnes perspektiver for hver af de kommunale områder). Anden del handler om hver af de kommunale områder (ved hvert af områderne nævnes hver af de nye teknologier igen). I tredje del beskrives 30 'kryds'. Jeg var lang tid om forstå, hvad et kryds er. Måske er det, at der ved hvert 'kryds' er en figur, som viser modenheden og potentialet af en teknologi. Første kryds har titlen 'Kryds: Hvad betyder kunstig intelligens, big data og robotter for arbejdsmarked og erhverv'. Andet kryds er 'Kryds: Hvad betyder kunstig intelligens, big data og robotter for miljø og forsyning'. Sådan fortsættes 30 gange. Dvs. det som allerede blev omtalt i første og anden del, bliver nu gentaget. (hver af de nye teknologier og hvert af de kommunale områder nævnes igen)
Det er klart at den rodede struktur i rapporten giver mulighed for mange gentagelser. Mon det er for at gøre rapporten så lang som mulig. Underligt er det også, at en side ordret går igen 5 steder, første gang s. 37.

Rapporten har næsten ingen links til artikler. Det er gjort så vanskeligt som muligt at efterprøve rapportens påstande.

Rapporten har ingen litteraturliste.

Kommunernes Landsforening har givet 270.000 kr for et håndværkertilbud, som udgiver sig for at være et dollargrin.

Jeg vil slutte med at pointere, at jeg ikke er mod computerprogrammer eller ny teknologi. Jeg skriver på et avanceret tastatur og bruger en trackball mus! På min pc har jeg slettet Windows og installeret styresystemet Ubuntu, som jeg har tilpasset til mine behov. Og under udarbejdelsen af denne blogpost har jeg brugt 7 java programmer, som jeg selv har udviklet. Den slags programmer er kendetegnet ved, at jeg tydeligt kan se, når de begår fejl, og jeg kan finde fejlene og rette dem. Jeg kan 'debugge' koden og finde den linie, hvor fejlen sker. Når alle fejlene er rettet, kører programmet som jeg ønsker det.

Et system med kunstig intelligens kan ikke 'debugges', dvs. fejl kan ikke rettes. Desuden er det også svært overhovedet at opdage, når systemet begår en fejl. Det gør disse programmer meget upålidelige. De skal ikke bruges på sociale og menneskelige områder.

Litteraturliste

Her er en litteraturliste med nogle af de artikler, som jeg bygger mine synspunkter på.
Jeg har ikke indsat mange links og noter oppe i teksten, da jeg ikke forventer, at ret mange vil læse blogposten.
Hvis du ønsker flere links, så skriv til mogensagerbo@gmail.com og jeg vil med glæde fylde teksten med links.

KL: Kommunerne må selv klare etiske fremtidsproblemer (https://www.version2.dk/artikel/kl-kommunerne-maa-selv-klare-etiske-fremtidsproblemer-1084088)

Se en anden af mine blogposts om DareDisrupt: "Er digitaliseringen dæmonisk" (side.mogensagerbo.dk)

Se en omfattende liste med "Artikler om AI brugt i det offentlige" (side.mogensagerbo.dk)

På min blog er der andre blogposts om det problematiske ved kunstig intelligens (side.mogensagerbo.dk)

Meget om myter om AI. Her er mange af mine synspunkter repræsenteret (https://www.aimyths.org/)

The Automated Administrative State: A Crisis of Legitimacy (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=35)

First, They Came for the Old and Demented (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3494304)

Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements (https://journals.sagepub.com/doi/10.1177/1529100619832930)

Uber Rides Cost More? OK. Many gig-based business models help customers take advantage of workers. Let’s stop giving tech companies a free ride.
(https://www.nytimes.com/2020/06/27/opinion/uber-covid-gig-economy.html)

Big claims, little evidence, lots of money: the reality behind the Summit Learning Program and the push to adopt digital personalized learning program (https://nepc.colorado.edu/sites/default/files/publications/RB%20Summit.pdf)

This Robot Can Guess How You're Feeling by the Way You Walk. Citat derfra: " A caveat right off the bat: This emotionally intelligent robot is basing its actions on perceived emotions. It can’t truly read anyone’s inner state" (https://www.wired.com/story/proxemo-robot-guesses-emotion-from-walking)

Om Cambridge Analytica
Big data and the Future of Democracy (https://www.ifimes.org/en/9316)

https://fairmlbook.org/introduction.html

Let’s Talk about Human Welfare Instead (https://arxiv.org/pdf/2001.05046v1.pdf)

Is Artificial Intelligence Too Dehumanizing to Succeed? (https://www.commondreams.org/views/2018/07/21/artificial-intelligence-too-dehumanizing-succeed)

Measuring the predictability of life outcomes with a scientific mass collaboration (https://www.pnas.org/content/117/15/8398)

Om den fart AI udfører afgørelser (https://twitter.com/MogensAgerbo/status/1295604007046610945)

In a quest to optimize welfare management, Denmark built a surveillance behemoth – AlgorithmWatch (https://algorithmwatch.org/en/story/udbetaling-danmark/)

Councils scrapping use of algorithms in benefit and welfare decisions (https://www.theguardian.com/society/2020/aug/24/councils-scrapping-algorithms-benefit-welfare-decisions-concerns-bias)

Uber and Lyft’s Business Model May Be Dead. Good. -The biggest startups in modern history were built on old-fashioned worker exploitation. Time for an upgrade. (https://onezero.medium.com/uber-and-lyfts-business-model-may-be-dead-good-53940dcbac34)

Blockchain, the amazing solution for almost nothing (https://thecorrespondent.com/655/blockchain-the-amazing-solution-for-almost-nothing/86714927310-8f431cae?pk_campaign=weekly)

Ethics review of machine learting in childrens social care ( https://www.turing.ac.uk/research/publications/ethics-machine-learning-childrens-social-care )

Raw Data Is an Oxymoron (https://t.co/sqYG74LeH2?amp=1)

Critical questions for big data (https://www.microsoft.com/en-us/research/wp-content/uploads/2012/05/CriticalQuestionsForBigDataICS.pdf)

Six Provocations for Big Data (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431)

Notes on AI Bias — Benedict Evans (https://www.ben-evans.com/benedictevans/2019/4/15/notes-on-ai-bias)

Artificial Intelligence Is Rushing Into Patient Care - And Could Raise Risks - Scientific American (https://www.scientificamerican.com/article/artificial-intelligence-is-rushing-into-patient-care-and-could-raise-risks/)

Three Risks in Building Machine Learning Systems (https://insights.sei.cmu.edu/sei_blog/2020/05/three-risks-in-building-machine-learning-systems.html)

Mapping the landscape of artificial intelligence applications against Covid-19 (https://arxiv.org/abs/2003.11336)

Rethinking the maturity of artificial intelligence in safety-critical settings 2020-min.pdf (https://hal.pratt.duke.edu/sites/hal.pratt.duke.edu/files/u39/2020-min.pdf)

A Survey on Explainable Artificial Intelligence (XAI): Towards Medical XAI (https://arxiv.org/abs/1907.07374)


se alle indlæg
cookies