Kasper Hermans
Kasper Hermans Tech 8 dec 2018
Leestijd: 4 minuten

‘Robots met AI denken als bedrijf, niet als persoon’

Volgens experts had 2018 het jaar van de artificial intelligence (AI) moeten worden. Hoewel er zeker ontwikkelingen op dat gebied hebben plaatsgevonden, is de echte revolutie – nog even – uitgebleven. En volgens sommige experts is dat maar goed ook.

Denken als een CEO

Want hoewel robots en machines met artificial intelligence volgens hun makers zouden leren en denken als een mens, doen ze dat niet. Of nou ja: ze doen het vanuit het perspectief van CEO’s van bedrijven. Dat stelt Jonnie Penn, een professor aan de universiteit van Cambridge gespecialiseerd in artificial intelligence, in een lang betoog waarin hij zijn zorgen uit over technologie.

Hij wijst daarvoor al naar de eerste persoon die met lerende computers ‘Administrative Behaviour’ aan de slag ging. ,,Samen met twee collega ontwikkelde Herbert Simon uiteindelijk een model dat mensenlijke problemen kon oplossen. Alleen in plaats van dat hij de computer als persoon liet denken, liet hij hem denken als een bedrijf.” De resultaten werden gepresenteerd als Heuristic Problem Solving: The Next Advance in Operations Research. ,,De clue in de titel is Operations Research, AI betekent zakendoen.”

Minder fantasierijk

Volgens Penn is dat uitgangspunt nooit meer veranderd. ,,Veel AI-systemen bootsen niet het menselijke denken na, maar de minder fantasierijke gedachten van bureaucratische instellingen. Ze zijn vaak geprogrammeerd om bovenmenselijke snelheid en nauwkeurigheid te behalen, maar dit gaat ten koste van menselijke originaliteit, ambitie of moraal.”

Penn zijn collega politicologie, David Runciman, ziet daarin een probleem. ,,Veel angsten die de mensen hebben over de steeds geavanceerdere AI-robots zijn dezelfde die er al decennia zijn over de steeds machtige wordende bedrijven. Het is ons nooit gelukt om er controle over te krijgen.”

Geen consequenties

Ze wijzen bijvoorbeeld naar het olielek van BP in 2010 bij de Golf van Mexico. Elf mensen overleden als gevolg van het lek, maar niemand ging de cel in. Als zoiets zou gebeuren aan de hand van AI dan is daartegen stappen ondernemen haast onmogelijk. ,,Het is een blauwdruk om bedrijfsaansprakelijkheid te ontlopen en dat ze zonder consequenties kunnen worden ingezet.”

Penn en Runciman staan niet alleen in hun standpunt. Diverse onderzoekers hebben al aangetoond hoe dergelijke algoritmische systemen fundamentele democratische waarden, zoals het nemen van verantwoordelijkheid, aan hun laars kunnen lappen. En dit hoeft niet eens opzettelijk te gaan.

We have arrived unprepared

Toch kan juist dit ook weer leiden tot nieuwe sectoren. ,,Ethische service”, zo omschrijft Penn het. Hij wijst naar een van de onderzoekers Cathy O’Neil. ,,Zij heeft nu een eigen service opgezet die algoritmen controleert.” Wie naar de site van O’Neil Risk Consulting & Algorithmic Auditing (ORCAA) gaat, ziet direct een dreigende, haast apocalyptische slogan. ,,It’s the age of the algorithm and we have arrived unprepared.”

ORCAA wil vooral bedrijven die AI gebruiken helpen om de risico’s te begrijpen die er komen kijken bij het proces en hun reputatie. Daarnaast hopen ze strenge normen te creëren, die de inbreng van algoritmen beter moet kunnen duiden.

,,Er zijn heel veel datawetenschappers aan het werk, die zichzelf ook als techneut zien en volgen het handboek zonder rekening te houden met de gevolgen”, zo legt O’Neil uit in gesprek met Wired. ,,Ze zijn niet in staat om na te lopen wat voor invloed hun werk heeft op de mensen die beïnvloed worden door het algoritme dat ze optimaliseren.”

Risico op recidivisme

,,Ik was laatst in gesprek met een data-analist, iemand die zijn PhD behaalde door een algoritme voor het risico op recidivisme te maken. Ik vroeg hem of hij daarin ook wel eens rassen in meenam om dat te bepalen. ‘Nee, dat zou ik nooit doen.’ En postcodes? ‘Dat doe ik wel eens, omdat het zoveel nauwkeuriger is’”, zo geeft ze als voorbeeld. ,,Hij laat daarmee zien dat hij eigenlijk meer geeft om de accuracy van zijn proef, dan om de eerlijkheid of gelijkheid. Toen ik hem vroeg of er iemand binnen de ‘gevangeniswereld’ was waarmee hij had overlegd welke aspecten waardevol kunnen zijn om mee te nemen, zei hij: ‘Nee. Ze vertrouwen me, omdat ik een doctoraat heb.’ Voel je je dan persoonlijk verantwoordelijk voor de gevolgen van het algoritme? ‘Nee, ik heb het algoritme alleen maar gebouwd. Zij beslissen hoe ze het moeten gebruiken.’”

,,Voor mij is dit een perfect voorbeeld”, stelt O’Neil. ,,Omdat het ook paradigma laat zien waar wij mee werken. Er is geen verbinding meer tussen de mensen die de algortimes maken en degenen die er door geraakt worden.”

Foutje gezien? Mail ons. Wij zijn je dankbaar.