Kategori: politisk alvor
Kan kunstig intelligens være medmenneskelig?
27-05-2019
Mennesker tager fejl. Det kan enten skyldes manglende viden eller forudfattede, forkerte og fordomsfulde antagelser. Men digitale systemer tager også fejl. Både fortalere for og kritikere mod kunstig teknologi mener, at der kan være bias i et kunstigt system, så det forslag, som algoritmen forudsiger som sandsynligvis akkurat, er helt forkert.

Techgiganterne forsvarer deres produkter med, at disse fejl er uundgåelige, fordi data er fyldt menneskers forkerte afgørelser. Når et system indlæres med data, vil algoritmen nå frem til de samme fordomsfulde resultater, som mennesker gjorde. Renses data for 'snavs', vil algoritmen ikke begå fejl.

Mod dette hævder kritikere af kunstig teknologi, at fejl ikke kun stammer fra data, men også dannes inde i den digitale maskine og er 'systematiske', fordi koden eller algoritmerne består i statistik og sandsynlighedsregning.

Mennesker tilføjelige til at tænke ud fra sig selv og opfatte fx en computer som et menneske. Det kaldes antropomorfisering. Vi tillægger dyr menneskelige egenskaber. Det samme gør vi med computere.

Et eksempel er techgiganternes beskrivelse af deres produkter som kunstig intelligens, og de taler om, at det digitalt system er neuroner, der ligger i mange lag og er i forbindelse med hinanden, og at det ligner den menneskelige hjerne. Det passer ikke. Det er langt fra virkeligheden. Det som styrer en computer er den kode, som programmører skriver. Det er kommandoerne i kodesproget, som computeren udfører.

I et almindeligt computersystem i en virksomhed kunne programmøren i sin kode skrive 'kunde' og når systemet kørte, blev der dannet 'kunder' og deres fornavn og efternavn osv kunne registreres og gemmes i en database. Egentlig blev disse kunder ikke 'dannet'. Der blev sat plads af i computeren, hvor der kunne tilføjes oplysninger. Kunder, som vi kender dem fra den virkelige verden, var der ikke i systemet. Neuroner, som i følge nuværende forskning er i hjernen, er der ingen af i kunstige programmer.

Læs også Kunstig intelligens er som et mærkeligt højhus med mærkelige beboere.

Ikke engang programmører kan helt fatte, at der i en digital maskine kun er chips, som har strøm og ikke strøm. Derfor bruges kodesprog. Programmøren skriver en kommando, som kan han forstå:" Læg tallet 5 og tallet 7 sammen", og kommandoen oversættes til signaler, som computeren kan bruge, strøm og nul strøm, og det er disse signaler som behandles og resultatet er også strøm og nul strøm i nogle chips, som så oversættes til tallet 12, som vi forstår.

Det er en forståelig men forkert antagelse, når vi opfatter maskiner som mennesker. Vi gør det for at lettere at kunne forstå computere. Det er netop grunden til, at vi i andre forhold bruger forenklede forestillinger. Vi bruger stereotyper, når vi møder et andet menneske. Vi bruger forenklede stereotyper. Går vi på gaden og møder en person af anden etnisk oprindelse end vores egen, går vi en lang bue uden om ham, fordi vi på forhånd tror, at han er farlig. Vores fordomme kan være fyldt med antipati.

Hvis vi kun hører negative nyheder i medierne om indvandrere, tror vi, at de ikke er som os, at de ikke er sympatiske, og at de skal behandles derefter.

Stereotyper kan dog også være fornuftige og sande.

En tysk undersøgelse har vist, at tyskerne har et overvejende negativt billede af de rige, som har formuer over 7 millioner kr. , og de mest nævnte egenskaber er egoistisk (62 procent), materialistisk (56 procent), hensynsløs (50 procent), nærig (49 procent). Og det er måske sandheden. Sociologer og psykologer har påvist, at der er noget om snakken. Rigdom fører til grådighed og magtmisbrug.

Den tyske undersøgelse nævner det bemærkelsesværdige, at tyskere, som personligt kender en rig, ikke i samme grad har negative forestillinger om rige. Det er værd at lægge mærke til, fordi det viser en væsentlig egenskab ved os mennesker. Vi kan have fordomme, men vi er ikke bundet af dem. Vi kan ændre dem og helt opgive dem, når vi lærer et andet menneske at kende. Det giver en overraskende, positiv oplevelse, når ens fordomme ikke bekræftes. Man ser, til sin egen forbavselse og glæde, sig selv åbne armene for og acceptere en person, man troede man ikke kunne lide.

Filosoffen Gadamer mente, at vi skal have fordomme for overhovedet at forstå nogenting, men vi skal være villige til at opgive vores fordomme, når de viser sig ikke at være sande. Det er netop den måde videnskab arbejder. Den er deduktiv. Først opstilles en teori. Så prøver videnskabsmanden at bevise, at teorien er sand. Hvis det viser sig at være umuligt, er teorien falsk og må forkastes.

En digital maskine har ikke følelser som forbavselse eller glæde. Den beregner alt som tal lige ud ad landevejen. Den kan kun lægge tal sammen eller trække dem fra hinanden. Hvis et computer program anvendes i retsvæsenet, bliver alle forhold i en persons liv omsat til tal; at hans forældre blev skilt, skrives som et tal; at han er arbejdsløs bliver til et andet tal, som lægges til det første, og til sidst kommer et tal ud i computeren, som betyder 'kriminel'.

Måske er en bedre forklaring af et digitalt system, at det ud fra data danner mønstre, egentlig stereotyper: de fleste, som er arbejdsløse og har forældre, som har været i fængsel, er for det meste ikke helt pålidelige. Hvis en person passer ind i mønstret, må det samme gælde for ham. Men når vi står over for en enkeltperson, en sort eller en rig, og taler med ham, opdager vi ofte, at han falder uden mønstret. Der er endda person, som vi kalder mønsterbrydere. De falder helt uden for mønstret.

Sådan kan en computer ikke 'tænke'. Sådan arbejder den ikke. Også det er en væsentlig grund til, at resultater fra algoritmer kan være helt forkerte.

Her i maj 2019 er det pludselig kommet frem, at regeringen i en lov på side 212 har vedtaget at bruge et digitalt program til at forudsige, hvis ledige som bliver langtidsledige. Det på trods af at programmet har været testet og vist sig uanvendeligt. Som en af kritikerne udtalte:" At lægge alle ledige ind i ét og samme værktøj giver ikke mening. De ledige er i så forskellige situationer, at et one-size-værktøj nærmest er uanvendeligt."

Et digitalt system er i bund og grund fyldt med fejl eller 'fordomme', fordi det ikke behandler enkeltpersoner som individer. Det ser kun grupper af ens mennesker.

Men der er et endnu større problem ved den digitale teknologis brug af mønstre. Det er kendt i almindelig statistik. Det er falske mønstre. En Harvard student har den hobby at finde falske mønstre eller sammenfald, korrelationer, i statistiker. Et eksempel: Ser man på, hvordan antallet personer, som døde fordi de blev viklet ind i deres sengetøj, er steget og faldet over nogle år, og tegner en kurve. Ser man på samme måde, hvordan forbruget af ost har vekslet over nogle år, og tegner kurven over forbruger. Så er det 'morsomt' og mærkeligt at de to kurver er næsten ens: de stiger og falder samtidig.

Men vi kan tydeligt se, at der ingen sammenhæng mellem de to forhold. Det kan et digitalt program ikke se.

Et andet eksempel : et tech firma ønskede at udvikle et program, som kunne bruges ved ansættelse af folk i en virksomhed. Programmet blevet testet. Og det fandt sammenhænge eller kurver som var ens: når der stod navnet 'Jared' i en ansøgning og når der stod, at personen i gymnasiet havde spillet lacrosse, et boldspil, så var denne person egnet til ansættelse. Statistisk set var det korrekt. Det viste firmaets historik eller data. Men det var en intetsigende tilfældighed. Det var ikke af den grund at disse var blevet ansat. Systemet havde fundet et falsk mønster, ligesom eksemplet ovenfor om døde og oste.

Hvad værre er: et program skal trænes med hundredetusinde af data, og jo større datamængden er, desto større er antallet af falske mønstre, siger statistikkere og kritiske eksperter. Det er den største kilde til bias eller forkerte resultater fra algoritmer.

Et sidste problem for kunstig teknologi er, at det er tvivlsomt, om et menneske kan omsættes til tal, om et menneske er digitaliserbart. Menneskers egenskaber kan ikke omsættes til excelark. De væsentligste egenskaber ved en enkeltperson er netop det, som ikke kan omregnes til tal. Empati, nærvær osv.

Alle skriver om hvordan digitale systemer vil påvirke vores arbejde, at nogle bliver arbejdsløse, udkonkurreret af kunstig teknologi. Det minder om den ideologi, neoliberalismen, som har præget den vestlige verden i de sidste 20 - 30 år, hvor mennesker blev opfattet som konkurrenter og at den stærkeste havde ret til at vinde. Et lille tegn derpå er det stigende antal af unge, som lider af stress og mindreværd og angst. Er det mistænkeligt, at techgiganterne nu taler stort om, hvordan kunstig teknologi vil udkonkurrere mennesker. Menneskesynet ligger i tråd med neoliberalismen og har samme formål, at techgiganterne og virksomheder skal kunne tjene flere penge ved at spare på omkostningerne til ansatte. Det er også årsagen til at myndigheder er så begejstrede for den nye teknologi, besparelser.

Det er umenneskeligt. Det enkelte menneske bliver frataget sin værdighed.

Læs også Digitale systemer er imponerende dumme.

se alle indlæg
cookies