
door Monique Spangenberg
Informatie over de ontwikkeling van kunstmatige intelligentie (AI) is niet voor niets chaotisch en fragmentarisch. Influencers zijn druk bezig het innerlijk landschap van mensen in te richten met hun geprojecteerde toekomst-beelden. Voorbeelden van zulke influencers zijn Joe Rogan, Tucker Carlson, Elon Musk, Klaus Schwab, Yuval Harari en woordvoerders van Big Tech. Ze maken deel uit van strak georganiseerde PsyOp-netwerken. Think tanks, experts en wetenschappers uit universitaire circuits, futuristen en ‘wereldleiders’ spelen allemaal hun rol in het bewerken van de publieke opinie.
Rond de invoering van AI wordt de bekende tactiek van het waarschuwen op grote schaal toegepast. Dat wekt vertrouwen. Musk roept al jaren hoe gevaarlijk AI kan zijn, maar hij wil elk mens er wel op aansluiten en president worden van zijn kolonie op Mars. Sam Altman van Open AI zei in 2023 dat het einde van de mensheid, ‘lights out for all of us’, tot de mogelijkheden behoort. En dat willen we natuurlijk niet.
Bio-ethiek
Agenda 2030-projecten met inzet van nanotech, biotech en AI op universiteiten en in privé-laboratoria zijn allang opgestart. We zouden op de drempel staan van een prachtige Toekomst, een kwantumsprong op het gebied van Wetenschap en Technologie. Bio-ethiek houdt zich bezig met de morele kant van al die ontwikkelingen, inclusief advies over wetgeving rond AI.
Dr. Matthew Liao, een Taiwanees-Amerikaanse professor, werpt zich in de universitaire wereld op als de moraalridder van Agenda 2030. Zijn staat van dienst is indrukwekkend. Aan de Universiteit van Oxford werkte hij aan het programma De Ethiek van de Nieuwe Biowetenschappen. Hij heeft banden met de John Hopkins-universiteit. Als professor in de filosofie werkt hij voor de universiteit van New York en hij is directeur van het Centrum voor Bio-ethiek.
In 2020 schreef hij De ethiek van AI, waarin hij het standpunt verdedigt dat ‘kunstmatige intelligentie die leeft, bewust is, pijn kan voelen en een geweten heeft’, dezelfde ‘morele status’ moet hebben als een ‘andere entiteit’ met deze eigenschappen, dus een mens. AI moet dan bijpassende rechten krijgen. Hij voorziet een toekomst waarin een robot een mens kan aanklagen. In 2023 verscheen van zijn hand De ethiek van AI en de Gezondheidszorg.
Voor een beter inzicht in de mentaliteit van bio-ethicus Liao gaan we terug naar het jaar 2012. In sustainable development-kringen werd, ‘om de planeet te redden’, een discussie gevoerd of men vooral moest inzetten op geo-engineering (sleutelen aan het weer, de zon blokkeren, chemtrails) of op human engineering, sleutelen aan het menselijk lichaam.
Meneer Liao wierp zich op als voorstander van human engineering en stelde voor om mensen te dwingen minder vlees te eten door hen allergisch te maken voor vlees, een truc die wetenschappers in het laboratorium hebben afgekeken van een teek. Er kon een anti-vlees-pleister worden ontwikkeld voor mensen die wel minder vlees willen eten, maar eraan verslaafd zijn; die pleister kon net als nicotinepleisters op de markt worden gebracht. Een ander voorstel van hem was om te zorgen dat mensen minder hard groeien, dus kleiner en magerder blijven, want kleine magere mensen consumeren minder kilo’s vlees.
Liao zou de aangewezen persoon zijn om wereldwijd morele besluitvormingsprocessen rond AI in gewenste banen te leiden.
Future of Life Institute (FLI)
Dit instituut is een think tank, mede opgericht en geleid door Dr. Max Tegmark. In 2017 ontwikkelde men de Asilomar AI Principles. Dat zijn 23 richtlijnen over verantwoorde ontwikkeling en gebruik van AI die wereldwijd worden aangehouden, ook door de Verenigde Naties.
In maart 2023 tekenden ruim 30.000 ‘experts’ op het gebied van AI, waaronder Elon Musk en Steve Wozniak (Apple) een open brief van Max Tegmark. Het moest een wereldwijde noodkreet voorstellen: de ontwikkeling van AI-systemen ging veel te snel en zou door alle ontwikkelaars zes maanden stilgelegd moeten worden. De politiek en de samenleving konden het niet bijhouden, de mensen hadden geen inzicht in de risico’s en er was onvoldoende garantie dat de AI-wedloop veilig zou verlopen. De techmiljardairs deden of ze dit verontrustend vonden.
Drie soorten AI en aanbevelingen
Er zijn drie soorten AI, legt Tegmark uit. De eerste is voor afgebakende taken, de tweede voor meer algemene taken die ook door slimme mensen uitgevoerd kunnen worden en de derde soort betreft onbeheersbare AI-systemen die hij superintelligent noemt. Alle grote techbedrijven zijn bezig met het ontwikkelen van superintelligente AI en dat baart hem ernstig zorgen.
Deze waarschuwingen en doemscenario’s dienen een doel. Men wekt zo de indruk zich verantwoordelijk te willen gedragen, maar als Tegmark met zijn aanbevelingen komt, valt hij door de mand. De gevaren voor de mensheid zijn zo enorm groot, zegt hij, dat we mensen pas aan deze machtige systemen kunnen blootstellen als zij daar veilig van kunnen profiteren. Dat kan alleen met rigoureuze veiligheidsmaatregelen in cyberspace. Dit sluit aan bij de Zero-Trust politiek waarbij men online doorlopend op meerdere manieren zal worden gecontroleerd.
Verder zegt hij dat we de wetgeving rond AI natuurlijk niet door de Big Tech-bedrijven zelf kunnen laten bepalen, dus is er een krachtige centrale overheid nodig om dit te regelen. Cyberspace houdt zich niet aan landsgrenzen. Een wereldregering of minimaal een centrale westerse aanpak is noodzaak.
Het FLI is gestart met Project GRASP (Global Risk and AI Safety Preparedness), waarin men beweert twee groepen risico’s aan te pakken. Endogene risico’s ontstaan als AI buiten menselijk toezicht om zijn eigen dingen gaat doen. Laat dat nou net kenmerkend zijn voor superintelligente AI. Exogene risico’s ontstaan als mensen met slechte bedoelingen deze systemen gebruiken. Aangezien we het met elkaar eens zijn dat zulke mensen bestaan, is de beste oplossing: niemand vertrouwen. Zero trust.
Het Moloch-dilemma
Pas op de plaats maken, de AI-race even stoppen en samen rustig nadenken over onze gedeelde verantwoordelijkheid? Als er een concurrentiestroom op gang is gekomen waarin bedrijven worden meegesleurd, kunnen waarschuwers vanaf de kant wel gaan staan roepen: mensen, kijk nou toch uit! Doe nou toch rustig aan! Maar je kunt van tevoren weten dat het effect nihil is. Is het Future of Life-instituut dan een domme denktank? Of juist een doortrapte illusionist op het wereldtoneel?
Nou komt daar heel toevallig een nieuwe speltheorie bovendrijven, die veel aandacht krijgt en zou verklaren waarom we met zijn allen gedoemd zijn ten onder te gaan: het Moloch-dilemma. Moloch of Baal is een oeroude god die kinderoffers eist. De heidense sekte eromheen is volgens sommigen niet meer dan een mythe, terwijl anderen beweren dat die ondergronds is gegaan, nog steeds bestaat, en zelfs banden heeft met de onzichtbare hand achter de gevestigde orde.
Liv Boeree, die de theorie bekendheid geeft, noemt Moloch de god van negative sum-spellen. Het volk offert aan hem om zijn steun te behouden of zijn toorn te vermijden, maar houdt hem zo gezamenlijk in leven en iedereen lijdt daaronder. In een zero sum-spel is er een koek die verdeeld moet worden. Als de één meer krijgt, krijgen anderen minder. Door de competitie lukt het niet om met zijn allen die koek netjes te verdelen. Negative sum betekent dat ongezonde competitie leidt tot groepsgedrag waarbij uiteindelijk iedereen verliest. Die hele koek verdwijnt. Men offert iets door bepaald gedrag te kopiëren. Dit levert een tijdelijk voordeel op, maar de hele groep of samenleving komt in een neerwaartse spiraal terecht met alleen maar verliezers.
Livs voorbeeld is Instagram, waar men schoonheidsfilters is gaan gebruiken. Liegen over je uiterlijk is zo normaal geworden dat iedereen er een minderwaardigheidscomplex van krijgt.
Niemand kan het zich veroorloven even uit de AI-race te stappen, want men weet dat de concurrentie doorgaat. Je zou jouw bedrijf benadelen en op je kop krijgen van aandeelhouders, dus gaat men uiteindelijk samen ten onder.
Dit Moloch-dilemma suggereert dat wij onszelf alleen uit dit negative sum-spel kunnen bevrijden als we als één man opstaan om ons gezamenlijk belang te verdedigen. Omdat mensen verdeeld zijn, gaat dat niet gebeuren. Zo kan deze speltheorie het vertrouwen van mensen in zichzelf en elkaar ondermijnen en dienen als ‘wetenschappelijk bewijs’ dat wij dringende wereldproblemen niet zelf kunnen oplossen. Dat past in de agenda van technocraten die de mensheid onder leiding van AI een Gouden Tijdperk beloven.
Een Instagramgebruiker is een mens die kan besluiten dat beautyfilter of heel Instagram gewoon niet te gebruiken. Het moreel kompas van gewone mensen lijkt niet op dat van technocraten die de AI-race aansturen. Maar dergelijke nuanceringen passen niet in het propagandaverhaal van techno-optimistische volksmenners.
Worden we aardig geboren?
Rob Jetten maakt het wel heel bont in de Kamer: ‘Dit is echt bij de beesten af’
Medicijnen zijn tot 130 keer duurder dan nodig is. Ontdek hoe jij opgelicht wordt
Zon gaat in ‘lockdown’: Lage zonneactiviteit ‘doet temperaturen kelderen’
Vrouw probeert zes maanden op water en zonlicht te leven (video)
In dit museum ligt iets vreemds tentoongesteld. Door mensen gemaakte voorwerpen in 300 miljoen jaar oud zandsteen?
Zon ruimt afval rond de Aarde op
Von der Leyen legt hier uit: niet u, maar de EU bepaalt wat u wel en niet mag zien
Must see: “Ik ben in Syrië geweest. Onze media liegen over wat daar gebeurt”