Bewuste robots?



Fan Hui verliest van DeepMind

We hoeven maar te denken aan de cv installatie, fornuizen, stofzuigers, waterleiding, elektriciteit, sanitaire voorzieningen, auto’s, straten en wegen, verkeersregels en bestuurlijke regels, om te zien dat automatismen ons vrij kunnen maken om nieuwe interesses te volgen of te ontwikkelen. Het idee van helpende robots is dus niet zonder meer verwerpelijk. Maar wat nu als deze, om ons beter te kunnen begrijpen en helpen, op een dag van bewustzijn worden voorzien. Dan zullen zij vrij zijn om hun eigen plan te trekken, net als wij. Zullen zij dan niet de wereld van ons overnemen?

Onszelf begrijpen
Een robot maken als een mens is dan misschien gevaarlijk, het is ook een uitdaging. Want als dat lukt, hebben we dan niet bewezen dat we onszelf uiteindelijk begrepen hebben?
Al in 1770 probeerde Wolfgang von Kempelen een machine te maken die, net als een mens, kon schaken. Maar Wolfgang speelde vals… in de machine zat een menselijke speler van vlees en bloed verborgen.


De schakende Turk. Wolfgang von Kempelen, 1770

Veel later werden er computers ontwikkeld die niet alleen goed konden rekenen maar die ook ingewikkelde taken konden uitvoeren, zoals het kraken van geheime codes.


Colossus, een vroege versie van de computer, gebruikt om de Duitse codes te ontcijferen in de Tweede Wereldoorlog

Uiteindelijk is het IBM in 1996 gelukt een computer te ontwikkelen, ‘Deep Blue’, die ‘zelf’ kon schaken, zonder hulp van een verborgen speler. Deze leek dan wel niet op een mens, maar versloeg wel grootmeester Kasparov. Intussen is de ontwikkeling van spelende computers doorgegaan. In 2016 versloeg de computer ‘DeepMind’ grootmeester Fan Hui in het eeuwenoude ‘go’ spel dat nog ingewikkelder is dan schaken. Dit lukte dankzij het ‘zelflerende’ vermogen van moderne computerprogramma’s. Hier start de computer met een simpel programma, terwijl terugkoppeling van de resultaten leidt tot een proces van voortdurende verbetering van dat programma.

Computer met bewustzijn? 
Deep Blue was een echte schaakcomputer, zonder mens erin. Was het eindelijk gelukt om echt een mens na te maken? Of althans het principe van het menselijk denkvermogen.
Er gaan geruchten dat de programmeurs van Deep Blue zich tijdens de match nog met het programma bemoeid hebben. Maar bij DeepMind zou de computer dan toch op eigen kracht gewonnen hebben… door het zelflerende programma. ‘Zelflerend’, een term die doet vermoeden dat we inderdaad in staat zijn het bewuste denken van de mens na te maken. Maakt dit computer robots vrij om hun eigen plan te trekken? Dat zou geweldig zijn, maar niet minder angstaanjagend.


De ‘Princesse’ in Liverpool 2009. Nu nog met 12 verborgen operateurs…
 Ontworpen door Francois Delaroziere. 

Essentieel bij ‘zelflerend’ is het idee van terugkoppeling. In het stoomtijdperk gebruikte men al een terugkoppelingsmechanisme om de snelheid van stoommachines in toom te houden. Zo bestond de zogenaamde ‘Governor’ uit een met de motor verbonden as die was voorzien van gewichtjes. Bij toenemende snelheid van motor, en daarmee van de as, werden de gewichtjes door de middelpuntvliedende kracht uit elkaar gedreven. Daardoor werd een hefboom bewogen die de stoomtoevoer verminderde. Het begin van het idee dat een machine wist wat hij deed, bewust van de omgeving.


                                        De ‘Governor’ leek zich bewust te zijn van de omgeving

Een paar decennia geleden introduceerde men auto’s met een ‘denkende’ radiator: een fan die aansloeg om de radiator te koelen, als de temperatuur van de motor te hoog werd. Hetzelfde zien we bij de kamerthermostaat die de verwarming activeert als het te koud wordt, en ook hier kan terugkoppeling worden aangezien voor denken. Maar is dit apparaatje voorzien van een bewustzijn dat de kou of de warmte in de kamer kan voelen? Dit zal niemand serieus denken, maar met computers kan men, ook door terugkoppeling, dichter in de buurt komen van de suggestie van menselijk denken.

Al in de jaren zestig leek het erop dat de computer als mens zou kunnen denken. Tussen 1964 en 1966 ontwikkelde Joseph Weizenbaum het programma ELIZA op basis van de psychiatrie van Carl Rogers. Door dit programma leek de computer op een psychiater, die op verhalen van patiënten reageerde met relevante vragen, waardoor patiënten makkelijk konden geloven dat ze met een persoon te maken hadden. Deze terugkoppeling van de computer, die bedoeld was voor een zinvolle interactie met de patiënt, was ontleend aan psychiatrische literatuur en ervaringen. Daardoor leek het misschien dat ELIZA echt wist wat ‘zij’ deed en bewust was.

Dit voorbeeld laat zien hoe we makkelijk kunnen gaan geloven dat computers uiteindelijk toch een soort mensen kunnen zijn, met begrip voor menselijke zaken. En inmiddels hebben we computers ontwikkeld, niet met menselijke kennis, maar met een het vermogen te leren van de resultaten van eigen acties… waardoor zij ook erg menselijk aandoen.

Blind functionerende mechanismen
Sinds de ‘Governor’ zijn terugkoppelingsmechanismen steeds gecompliceerder geworden. De ‘denkende radiator’ en de kamerthermostaat werkten nog met een eenvoudig bimetaal dat een stroomkring sloot, waardoor respectievelijk een fan en een cv ketel in werking werden gesteld. Een mechanische terugkoppeling.

Bij computers gaat het om een elektronisch gedefinieerde terugkoppeling, waarbij de output wordt bepaald aan de hand van de input, of waarbij resultaten worden teruggekoppeld om initiële programma’s aan te passen. Op grond waarvan zouden we nu moeten aannemen dat het bij deze voorbeelden van terugkoppeling om meer gaat dan blind functionerende mechanismen?

Complexiteit en bewustzijn
Er zijn stemmen die beweren dat de toenemende complexiteit van het elektronische verkeer in computers er uiteindelijk voor zal zorgen dat deze zich bewust worden van hun omgeving. Eenmaal verlost van hun blindheid zouden zij in staat zijn om keuzen te maken, een eigen leven te leiden en uiteindelijk de wereld te overheersen.

https://www.youtube.com/watch?v=UIWWLg4wLEY

Maar laten we nuchter blijven en ons eerst afvragen: wat zijn bewuste ervaringen? Als we dit proberen te begrijpen stuiten we op een probleem, want alles wat we aanvoeren om de ervaring te verklaren, elektrische stroompjes, chemische omzettingen, dendrieten, synapsen, dit alles bestaat dankzij de ervaring. Een dergelijke verklaring gaat dus uit van wat we nog moeten verklaren. Dat komt neer op een truc, een clandestiene operatie. Conclusie: onze bewuste ervaring is eenvoudigweg niet te verklaren. Hoe zouden we dan in staat zijn om computers zo te programmeren dat zij deze genereren!
Een geruststellend probleem waardoor we niet meer hoeven te vrezen dat bewust geworden robots de wereld van ons over zullen nemen. *)

Don’t mind the dog, mind the owner
Kunnen we nu dus met een gerust hart achterover leunen? Toch maar niet. Zoals we eerder hebben gezien kunnen computers, al weten ze het zelf niet, gezichten herkennen in een menigte. Hetzelfde geldt voor kleding en objecten. Dit heeft militaire toepassingen mogelijk gemaakt: robots op het slagveld of drones erboven, die vijanden kunnen herkennen, en wat meer is: ook ombrengen.


Een zwerm ‘killer drones’

Ook zagen we dat computers, op basis van patroonherkenning, kunnen voorspellen wat consumenten in de toekomst nodig zullen hebben. Dit is niet alles, deze computers kunnen ook voorspellen wie in de toekomst mogelijk in de moeilijkheden komen of een gevaar gaan vormen voor de samenleving. Toekomstmuziek? Van de benodigde algoritmen wordt in sommige gemeenten al gebruik gemaakt om een idee te krijgen van waar de kinderen wonen door spijbelen een leerachterstand zullen oplopen, of van welke inwoners de kans lopen in financiële problemen komen.
Combineren we nu de militaire toepassingen met het voorspellend vermogen, dan kunnen we ons gewapende robots of drones voorstellen die, steeds beter, in staat zullen zijn te herkennen wie er in de toekomst mogelijk problemen zal gaan veroorzaken voor de gevestigde orde.

Uitgerust met gezichtsherkenning zouden drones potentiële activisten of dissidenten preventief kunnen liquideren. Robots zonder bewustzijn, maar wel gevaarlijk!
Het zijn dus niet de robots ‘zelf’ die het gevaar vormen, hoe zelfstandig zij ook opereren. Het zijn hun baasjes die we in de gaten moeten houden… of beter gezegd, de bedrijven of regimes die deze robotjes ontwikkelen en inzetten. Om te voorkomen dat het inderdaad zo erg wordt. Immers, ervaringen uit het verleden vormen geen garantie voor een zonnige toekomst.

*) Dit geruststellende probleem is aan de andere kant misschien niet zo geruststellend als we ons realiseren dat ons leven geheel is ingebed in deze onverklaarbare ervaringen….

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *