EU har vedtaget et charter om brug af kunstig intelligens i retsvæsenet: "European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment", udgivet af Europa-Kommissionen 3. dec. 2018.

I chartret tales flere steder om, at kunstig intelligens ikke har øje for individder og om at mønstre, som er kernen i digitale systemers virkemåde, kan være falske:


While it is commonly accepted that statistical and probabilistic models are improved by increasing the data feeding them, some mathematicians have warned of the risks of increasing false correlations (i.e. links between factors having absolutely no causal link) in big data. The mathematicians Cristian Sorin Calude and Giuseppe Longo point to the risk of a deluge of false correlations in big data: the larger a database used for correlations, the greater the chances of finding recurrent patterns and the greater the chances of making errors.

(Læs mere om chartret)

Technologyreview skriver om risikoen for, at en anklaget vil begå ny kriminalitet, hvis han løslades :

But those patterns are statistical correlations—nowhere near the same as causations. If an algorithm found, for example, that low income was correlated with high recidivism, it would leave you none the wiser about whether low income actually caused crime.
kilde

Quarz:

Binding decisions made by banks, insurers, employers, and public officers are made by big data and algorithms, not people. It saves a lot time and money to look at data instead of talking to humans, after all. And it seems more rational to place statistical correlations over a messy individual story.
kilde

Og:

If you happen to not be a typical individual, showing unusual characteristics, there is a chance that an algorithm will misinterpret your behavior. It may make a mistake regarding your employment, your loan, or your right to cross the border.
kilde

Technologyreview skriver om kunstig intelligens og mønstre:

Machine-learning algorithms use statistics to find patterns in massive amounts of data. And data, here, encompasses a lot of things—numbers, words, images, clicks, what have you. If it can be digitally stored, it can be fed into a machine-learning algorithm.
kilde

Kdnuggets skriver at forkerte resultater kan stamme fra brugen af statistik:

Another block of biases which stems from pure statistical reasons
kilde

Politiken:

Trods udtrykket er maskinerne er ikke specielt intelligente. De kan finde statistiske mønstre i de store datamængder og bruge mønstrene til at beregne sandsynligheder
kilde

I artiklen "Are Algorithms Building the New Infrastructure of Racism?" er der et tankevækkende eksempel på kønsdiskriminering. I det tyrkiske sprog er stedord kønsneutrale. Det tyrkiske stedordet 'o' kan betyde både han og hun. Google Translate oversætter den tyrkiske sætning "o bir doktor" til engelsk:" he is a doctor." Og den tyrkiske sætning "o bir hemşire" til "she is a nurse".

Google Translate has a hidden sexism. To see it, try translating the phrases “o bir doktor” and “o bir hemşire” from Turkish to English. Because the Turkish phrases use the gender-neutral pronoun “o,” Google Translate is forced to choose a gendered pronoun on its own. The result: It translates the first phrase to “he is a doctor,” and the second to “she is a nurse.”


Googles digitale system har gennemtrawlet mange tyrkiske ( eller engelske?) tekster og fundet mønstre: ordet doktor står ofte i nærheden af ordet han, og systemet mener derfor at en doktor er mandlig.

Af nysgerrighed prøvede jeg på Google Translate at oversætte sætningen til dansk og fik svaret:" Hun er læge." Googles oversættelse til engelsk og til dansk er forskellig!
Det gælder også oversættelse til de andre nordiske sprog og tysk.


Agerbos Side