Ook de kwaliteit van spraaksynthese (computergegenereerde stemmen) en fotoherkenning is de afgelopen jaren met sprongen vooruitgegaan. Google Maps brengt je snel naar de juiste plek en Google Lens vertelt je binnen een paar seconden alles over een gefotografeerd voorwerp.
Hype of blijvende impact?
Veel mensen zijn sceptisch over de mogelijkheden en gevolgen van AI. Toch geloven veel wetenschappers dat het géén hype is en de impact ervan steeds groter zal worden. Vooral door verbeterde algoritmes, de toegenomen rekenkracht van computers en de hoeveelheid beschikbare data om neutrale netwerken te trainen.
Volgens computerwetenschapper Andrew Ng zal de impact van kunstmatige intelligentie vergelijkbaar zijn met die van elektriciteit. Hij verwacht dat de meeste apparaten in de nabije toekomst een vorm van intelligentie bevatten en dat wij mensen dat ook steeds normaler gaan vinden. Volgens Ng zal het industrieën gaan transformeren, net als elektriciteit dat heeft gedaan. En dat kan positief uitpakken, maar ook risico’s met zich meebrengen.
Risico’s van AI
Nu al heeft AI een grote impact op ons dagelijks leven en ondervinden we er gemak van. Maar er kleven ook risico’s aan het gebruik. Een aantal van de slimste mensen maakt zich zorgen. Elon Musk denk dat kunstmatige intelligentie de grootste bedreiging is voor het voortbestaan van de mensheid. Bill Gates is het daarmee eens en begrijpt niet waarom er niet meer mensen ongerust zijn. Stephen Hawking dacht dat het ofwel het beste, ofwel het slechtste is dat ons kan overkomen.
Veranderende arbeidsmarkt
Een van de risico’s van kunstmatige intelligentie is de impact ervan op de arbeidsmarkt. Intelligente machines nemen steeds meer banen over. Dat is natuurlijk geen nieuwe ontwikkeling. Dit gebeurde ook tijdens de industriële revolutie en de introductie van de computer en het internet. Het verschil is dat de transitie nu waarschijnlijk veel korter zal duren. Geen tientallen jaren, maar hooguit een jaar of tien, twintig.
Net als voorheen zullen er nieuwe banen ontstaan, maar de vraag is of dit banen zijn waarin een mens beter is dan een machine. In de woorden van Yuval Harari: ‘Het cruciale probleem zit ’m niet in het creëren van nieuwe banen. Het cruciale probleem is het creëren van nieuwe banen die mensen beter uitvoeren dan algoritmes.’
Selffulfilling prophecy
Een tweede risico vormt ons vertrouwen op kunstmatig gegenereerd advies. Op dit moment worden er al algoritmes gebruikt om te bepalen wie een baan of lening krijgt, wie er in aanmerking komt voor een verzekering of welke gevangene op borgtocht mag.
Algoritmes geven zulke adviezen door patronen te ontdekken in historische data. Klinkt handig, maar helemaal betrouwbaar is het niet. Want bevatten die data bepaalde vooroordelen, dan zal het algoritme deze vooroordelen overnemen.
Zo wordt op steeds meer plaatsen smart policing gebruikt: algoritmes bepalen waar de kans op een misdrijf het grootst is, zodat dat gebied beter kan worden beveiligd. Maar als de politie meer patrouilleert op bepaalde plaatsen, is het logisch dat ze daar meer misdrijven gaan ontdekken. Zo kan er, net als met de geprogrammeerde vooroordelen, een onjuist beeld ontstaan dat zichzelf in stand houdt. Kortom, een selffulfilling prophecy.
Profilering en manipulatie
Een derde risico is groepsprofilering en manipulatie. Met alles wat je deelt en liket op social media, met iedere YouTube-video die je bekijkt en elke zoekactie op Google geef je veel informatie over jezelf. Zelfs door alleen met je telefoon op zak te lopen weet Google precies waar je bent geweest. Algoritmes kunnen daar gemakkelijk conclusies uit trekken. Bijvoorbeeld over je interesses en waarden en de winkels waar je vaak komt.
Zulke gegevens kunnen worden gebruikt om mensen te manipuleren. Een bekend voorbeeld: Cambridge Analytica maakte profielen van miljoenen Amerikaanse kiezers, met behulp van kunstmatige intelligentie en illegaal verkregen Facebook-data. Op basis van die informatie gaf het bedrijf Amerikaanse kiezers gepersonaliseerde advertenties, met als doel hun meningen te beïnvloeden. Mede hierdoor heeft Trump de verkiezingen gewonnen.
Een ander voorbeeld hiervan zijn deep fakes: zeer geloofwaardige video’s waarin gezichten of stemmen zijn vervangen door die van iemand anders. Het is daardoor zo goed als onmogelijk te bepalen of een video echt is of niet. Welk nieuws kun je dan nog geloven?
Autonome wapens
Een risico dat voor zich spreekt is dat van autonome wapens. Semi-autonome wapens worden al gebruikt. Denk aan verdedigingswapens op marineschepen of drones om specifieke doelen te bombarderen. Maar tot nu toe moet er nog altijd een mens op de knop drukken.
De meeste landen vinden het onethisch om volledig autonome wapens te gebruiken. Maar die stelling wordt onnavolgbaar zodra één land of terroristische organisatie besluit dat wel te doen. Dan hebben andere landen geen andere keuze dan mee te doen, gezien hun militaire positie.
Experts als Elon Musk en Stephen Hawking waarschuwden voor de gevaren van een dergelijke wapenwedloop. Dat bevestigde de Russische president Poetin: ‘Het land dat de macht heeft in kunstmatige intelligentie is de leider van de wereld.’
Superintelligentie
De hierboven genoemde risico’s zijn nu al aan de orde. Een laatste risico vergt meer inbeeldingsvermogen: artificial superintelligence. Dat betekent dat machines het menselijk niveau van intelligentie ontstijgen. De weg daarnaartoe bestaat uit drie stappen.
- Artificial narrow intelligence (ANI): computers beschikken over één vaardigheid, zoals schaken of vertalen. In deze eerste stap bevinden we ons momenteel. Alle hierboven genoemde risico’s zijn hier voorbeelden van.
- Artificial general intelligence (AGI): computers zijn op alle vlakken net zo intelligent als een mens. Experts verwachten deze stap in 2040 te kunnen maken.
- Artificial superintelligence (ASI) bereiken we naar verwachting in 2060, als een machine vele malen intelligenter is dan welke mens dan ook.
Het bestaan van superintelligentie zou betekenen dat intelligentie niet beperkt is tot menselijk niveau, hoe moeilijk wij ons dat ook kunnen voorstellen. Of we dat punt ooit bereiken is niet zeker, maar er is geen natuurkundige die het als onmogelijk ziet.
Wat wel zeker is: om superintelligentie te bereiken, hebben we snelle hardware nodig. Vergelijkbaar met de snelste supercomputer van dit moment. En daarnaast software die hetzelfde kan als onze hersenen. Zulke snelle computers zijn nu nog gigantisch groot, verbruiken veel energie en kosten een fortuin. Het is een kwestie van tijd voor dat verandert. Ter vergelijking: de iPad 2 uit 2011 had dezelfde rekenkracht als de snelste supercomputer uit 1994. Om de benodigde software te ontwikkelen experimenteren bedrijven met chips die hetzelfde werken als onze hersenen.
Uitsterven of het eeuwige leven
ASI is omstreden. En dat is niet gek. Het zou er, als we het al bereiken, voor kunnen zorgen dat mensen uitsterven. Niet door kwaadaardige robots, maar om dezelfde reden als dat wij bepaalde diersoorten hebben uitgeroeid: om onze doelen te kunnen bereiken. Denk aan het kappen van bossen om in onze behoefte aan vlees te voorzien, waardoor de dieren die daar leven verdwijnen.
Een optimistische voorspelling is dat superintelligentie ons ook het eeuwige leven kan geven. Gecombineerd met de vooruitgang in genetica, nanotechnologie, robotica en 3D-printen zouden we superintelligentie kunnen gebruiken om problemen als klimaatverandering, armoede, voedsel- en energietekorten op te lossen. Om ziektes te genezen of te voorkomen, of om ons lichaam zodanig aan te passen dat we minder kwetsbaar worden. En misschien zelfs onsterfelijk.
Onvoorstelbaar
Hoewel kunstmatige intelligentie ons dagelijks leven al steeds meer beïnvloedt, zowel in positieve als negatieve zin, is de impact ervan misschien nog moeilijk voor te stellen. Hetzelfde zagen we bij de introductie van elektriciteit, het internet en de mobiele telefoon. Waar we ons toen geen leven mét konden voorstellen, kunnen we nu niet meer zonder.