Laurens Bluekens
Laurens Bluekens Metro-panel 11 mei 2023
Leestijd: 7 minuten

Het Metro-panel over de stelling: ‘De snelle ontwikkeling van kunstmatige intelligentie is zorgwekkend’

Sinds de komst van ChatGPT barsten de media van berichten dat kunstmatige intelligentie ons werk gaat overnemen, dat kunstmatige intelligentie binnenkort slimmer en creatiever is dan de mens en dat kunstmatige intelligentie misschien zelfs een eigen wil gaat krijgen. Reden voor de redactie om de stelling ‘De snelle ontwikkeling van kunstmatige intelligentie is zorgwekkend’ voor te leggen aan het Metro-panel.

Deze week nemen plaats in het panel Siri Beerends, promovenda kunstmatige intelligentie en authenticiteit aan de Universiteit Twente en werkzaam bij SETUP, een organisatie die zich inzet voor een technologie-kritische samenleving, wetenschaps- en technologiejournalist Ed Croonenberg en technologiejournalist Ramon Mens.

De experts uit het Metro-panel:

‘Vooral de snelle hypevorming, de misleiding en de marketing er omheen zijn zorgwekkend’

Siri Beerends

Siri Beerends

Promovenda kunstmatige intelligentie en authenticiteit aan de Universiteit Twente en werkzaam bij SETUP

„Niet zozeer de snelle ontwikkeling van kunstmatige intelligentie zelf, maar vooral de snelle hypevorming, de misleiding en de marketing er omheen is zorgwekkend. Dat jaagt een te snelle implementatie van kunstmatige intelligentie aan; grote organisaties en bedrijven, maar ook individuele gebruikers, lopen te snel achter toepassingen aan.

Wat ik interessant vind is die brief waarin door bazen van grote techbedrijven wordt opgeroepen om een pauze in te lassen in de ontwikkeling van kunstmatige intelligentie. Daardoor ontstaat een beeld dat kunstmatige intelligentie van de volgende versies van ChatGPT echt gevaarlijk gaat worden en we daarom op de pauzeknop moeten drukken. Ten eerste zeg je daarmee indirect dat ChatGPT versie 4 prima is om te gebruiken, terwijl ik denk dat we nu al ontzettend grote problemen en gevaren hebben met grote kunstmatige intelligentie-taalmodellen.

In de media gaat het nu over dat fictieve scifi-toekomstbeeld, over de superintelligentie van kunstmatige intelligentie, die plotseling bewustzijn krijgt en zich tegen de mensheid keert. In die pauzebrief wordt dan gedaan alsof dat komt doordat kunstmatige intelligentie zich exponentieel ontwikkelt, waarvan ChatGPT een voorbeeld is. Het is feitelijk waar dat die taalmodellen steeds groter worden, maar het is niet zo dat kunstmatige intelligentie zelf intelligenter wordt. De modellen worden krachtiger omdat steeds meer mensen ze gebruiken – ze worden gevoed met steeds meer data en zo maakt de mensheid de modellen zogenaamd slim.

Het is ook niet zo dat kunstmatige intelligentie buiten onszelf staat en een eigen leven met mensachtige trekjes gaat leiden. We worden nu afhankelijk gemaakt van grote techbazen die roepen ‘Kijk eens hoe geweldig maar ook gevaarlijk ons product is! Maar geen zorgen, met een pauze leiden we alles in goede banen’. Dat schetst een verkeerd beeld van kunstmatige intelligentie en de daadwerkelijke gevaren waar we allang middenin zitten.”

‘Gevaar van kunstmatige intelligentie zit niet in de explosie van intelligentie’

„Het gevaar van kunstmatige intelligentie zit niet in de explosie van intelligentie, maar in de machtsconcentratie van grote techbedrijven, schade aan ons informatie-ecosysteem en ook het gigantische energiegebruik van bijvoorbeeld ChatGPT. Als je nog wat meer wil uitzoomen, vind ik kunstmatige intelligentie an sich persoonlijk al een probleem: het gaat al mis bij het idee dat intelligentie zich beperkt tot rekenkracht, statistische patroonvertaling en kansberekening – want dat is waar kunstmatige intelligentie goed in is.

Dat is dus iets anders dan intelligentie. Nu worden we op het verkeerde been gezet, met de belofte dat we alle menselijke taken en intelligentie kunnen uitbesteden aan computerintelligentie. Maar dat verschraalt de taakopvatting van wat mensen doen.

In NRC stond bijvoorbeeld een tendentieus artikel met de kop: ChatGPT verslaat arts bij het beantwoorden van medische vragen. Maar aan het onderzoek daar achter zitten allerlei haken en ogen, zoals dat er antwoorden zijn meegenomen van medische vrijwilligers en niet van gediplomeerd artsen. Het gevaar van kunstmatige intelligentie zit erin dat wij te makkelijk denken dat menselijke intelligentie en kunstmatige intelligentie veel op elkaar lijken.”

‘Hooguit zorgwekkend dat mensen zelf steeds minder kunnen’

Ed Croonenberg

Ed Croonenberg

Wetenschaps- en technologiejournalist

„Ik ben het niet eens met de stelling, hooguit vind ik het zorgwekkend dat mensen zelf steeds minder kunnen. Machines nemen ons al een paar eeuwen werk uit handen, dat is begonnen met de simpelste taken – met het weven van stoffen begon zo’n beetje de industriële revolutie.

Kunstmatige intelligentie is niet iets nieuws, maar schrijdt voor. Je had twintig, dertig jaar geleden ook al handschriftherkenning, dat je een krantenknipsel door de scanner kon halen en het dan door de computer werd uitgeschreven: dat vond ik ook magisch. Later kwam spraakherkenning, wat natuurlijk ook gebaseerd is op machine learning.

En nu hebben we dus kunstmatige intelligentiemodellen als ChatGPT die in staat zijn zich voor te doen als menselijke schrijver. Dat is best indrukwekkend, maar niet zorgwekkend. Dat het een schok heeft opgeleverd toen mensen ermee gingen experimenteren, begrijp ik heel goed. Toen ik het voor het eerst gebruikte, dacht ik ook: nou, dit is wel heel indrukwekkend. Maar op het tweede gezicht vond ik het niet meer zo indrukwekkend, eigenlijk.”

‘Kwaliteitsdingen blijven mensenwerk’

„Je ziet namelijk al vrij snel het trucje. Je kunt kunstmatige intelligentie goed gebruiken om dingen te schrijven waar mensen hun hart niet hebben liggen: persberichten, beleidsnota’s, et cetera. Daar zal het ook erg voor gebruikt worden, denk aan scholieren die er hun schoolwerk mee doen. Docenten lezen het vaak niet eens meer en geven de scholieren een zes.

Maar andere dingen kan ChatGPT weer helemaal niet. Zo vroeg ik om een column in de stijl van Sylvia Witteman te schrijven, daar bakte ChatGPT helemaal niets van. Het is ook een politiek correct model, dat is heel verstandig van de makers. Maar Sylvia Witteman is nou niet per se de meest politiek correcte schrijver, en daarnaast is ze ook prikkelend, leuk en humoristisch. Dat soort dingen kunnen niet gedaan worden door kunstmatige intelligentie.

Kunstmatige intelligentie kan dus uitsluitend gebruikt worden voor het maken van teksten die saai en bloedeloos zijn, een nieuwsbericht op Nu.nl bijvoorbeeld. Dat kan ChatGPT zelfs beter dan de redacteuren daar, zeker als het bijvoorbeeld over ruimtevaart gaat. Kwaliteitsdingen blijven mensenwerk omdat die dingen dicht bij ons hart liggen, terwijl het kunstmatige intelligentiemodel geen mens is, niets wil, niet bang is om dood te gaan, en allerlei andere dingen ontbeert die ons als mens kenmerken. ChatGPT betekent imitatie, maar voor dingen die lelijk, saai of van lage kwaliteit zijn, is het een goede tool om nog veel meer rotzooi te genereren.”

‘We zijn ook niet massaal werkloos geraakt door andere uitvindingen’

Ramon Mens

Ramon Mens

Technologiejournalist

„Bij de stelling denk ik aan twee dingen. Het eerste is dat mensen bang zijn voor hun baan, maar daar geloof ik niet zo in. Ik zag een alarmistisch onderzoekje van de universiteit van Pennsylvania, dat beweert dat tachtig procent van de werkenden iets gaat merken van de opkomst van kunstmatige intelligentie. Dat werd al snel geïnterpreteerd alsof tachtig procent van de banen overbodig zal worden, maar die angst is wat mij betreft van alle tijden. We zijn ook niet massaal werkloos geraakt door andere uitvindingen.

Als mensen zijn we altijd op zoek naar meer: meer ontwikkeling, meer welvaart, meer banen en dergelijken. De afgelopen tijd zijn er ook banen bijgekomen zoals flitsbezorger of community manager: die bestonden dertig jaar geleden nog niet. We krijgen dus ook nieuwe dingen terug, al wil dat niet altijd zeggen dat het positief is. Denk aan een caissière versus een zelfscanmedewerker: ik snap dat dat niet dezelfde baan is.”

‘Ik heb de vrees dat iedereen straks in staat is enorme hoeveelheden goed geschreven desinformatie te creëren’

„Waarom ik het toch met de stelling eens ben, heeft te maken met het tweede punt: mijn angst dat kunstmatige intelligentie gaat leiden tot nog veel meer desinformatie. Daar hebben we pas het begin van gezien. Sowieso lopen enthousiasme en verwarring door elkaar als het gaat over kunstmatige intelligentie. Dat kan ik ook wel begrijpen, want social media duurde twintig jaar, we hadden Hyves, Facebook, en opeens was Donald Trump er.

Maar nu maken we in een half jaar heel veel mee met generatieve kunstmatige intelligentie: computers die iets meer kunnen dan de regels volgen en ook het creatieve proces overtuigend kunnen nabootsen. Ik heb de vrees dat iedereen straks in staat is enorme hoeveelheden goed geschreven desinformatie te creëren, versterkt door bots, zodat we een tsunami aan meuk en content over ons heen gespoeld krijgen.

Laatst heb ik bijvoorbeeld als experiment mijn eigen stem gekloond. We hebben altijd geleerd dat je door goed onderzoek echt van nep kunt onderscheiden, maar we staan nu wel aan een ontwikkeling waarin dat veel moeilijker wordt.

Met een druk op de knop kun je een hele site genereren die gevuld is door ChatGPT, maar waarop de informatie gewoon niet klopt. Er zijn al hele contentfarms die als enige doel het genereren van zoveel mogelijk clicks hebben en de waarheid niet bepaald hoog in het vaandel hebben staan. Dat zou ik zorgwekkend noemen.”

Iedere week leggen we een breed scala aan panelleden uit het Metro-panel een stelling voor die inhaakt op de actualiteit. Iedere keer kun je uiteenlopende meningen, interessante quotes en onderbouwde standpunten vinden op metronieuws.nl/metro-panel.

Het Metro-panel over de stelling: ‘BBB zal een blijvende machtsfactor worden’

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste van Metro in je inbox 🌐

Meld je aan voor onze nieuwsbrief en ontvang tot drie keer per week een selectie van onze mooiste verhalen.