Sinds de uitvinding van de computer en van het ‘programmeren met algoritmen’ begin jaren 1950, heeft men steeds gespeculeerd of het menselijk denken door een computerprogramma zou kunnen worden nagebootst. Maar er is nooit eenduidigheid gegroeid over wat onder ‘menselijke intelligentie’ moet worden verstaan. Kennis, redeneren, ethisch, artistiek en emotioneel gevoelen en bovenal bewustzijn: elk afzonderlijk of alles samen?
Vooral de vraag of intelligentie zonder bewustzijn kan, werd – en wordt nog steeds – gemakshalve buiten beschouwing gelaten. Daarom dat ‘kunstmatige’ menselijke intelligentie nooit werkelijkheid is geworden.
Over Expertsystemen, AI en IA
Het enig bruikbare dat een beetje in de richting ging van menselijk kunnen, zijn de expertsystemen. Expertsystemen zijn programma’s gespecialiseerd in één enkele taak, zoals een route plannen, diagnoses maken van medische scans, patroonherkenning in beelden, profielen afleiden van het Facebook-gebruik, enz. Expertsystemen zijn al twintig jaar in uiteenlopende domeinen in gebruik, ten goede (medische toepassingen) en ten kwade (militaire toepassingen).
Ze maken gebruik van zogenaamde algoritmen, stukken door de mens bedachte en geschreven procedures die iets slims doen en die men, om het wat meer sexy te maken, “AI-algoritmen” noemt. Maar, men zou die beter IA’s noemen, “Intelligente Algoritmen”, want dan ligt de eer waar ie moet liggen: bij de creatieve mens die de algoritmen bedenkt, vooral een kunst waarvoor kennis en logisch redeneervermogen vereist is.
Maar ChatGPT is een AGI
Opvallend is dat ChatGPT als “AGI” wordt bestempeld, waarin “G” staat voor “general” of “algemene” kennis: men kan aan ChatGPT om het even wat vragen. Dat is precies wat het onderscheidt van ‘expertsystemen’. Door zijn algemene kennis (gebruik makend van alles wat op internet te vinden is) en door zijn intelligente taal- en dialoog-algoritmen, slaagt het er in de mens te misleiden.
Het is de eerste keer in de geschiedenis van de mensheid dat deze met een vraagstuk van deze aard geconfronteerd is: een artefact dat de plaats van de mens kan innemen. ChatGPT heeft hiermee een aanvang genomen. Daarom gaat het in deze betogen niet over expertsystemen, maar enkel en alleen over wat men tegenwoordig met ‘AGI-systemen’ aanduidt, systemen waarvan sommigen zeggen dat ze de algemene menselijke kennis-intelligentie evenaren of overtreffen. Om dit te benadrukken, zullen we waar de duidelijkheid het vereist, ‘AGI’ gebruiken in plaats van het algemenere ‘AI’ gebruikt.
Open brief en oproep over het lot van AGI
Geheel onverwacht verscheen eind maart een open brief (gepubliceerd door futureoflife.org, zie Eindnoot 1) met als titel: “Pauzeer Reuze AGI-Experimenten: Een Open Brief. Wij roepen alle AGI-laboratoria op om de training van AGI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor minstens zes maanden te pauzeren”. De open brief was afkomstig van OpenAI, uitgerekend het bedrijf dat ChatGPT ontwikkelde. Voorwaar een opmerkelijk initiatief.
Wat de media-aandacht trok, was de oproep tot pauzering – het woord ‘moratorium’ valt – en was de alarmistische toon van de brief. Immers, voor de publieke perceptie waren de ‘versprekingen’ (onwaarheden, hallucineren, seksistische en beledigende taal) en de intrinsieke gebreken (geen bronvermeldingen, niet naleven van auteursrechten, misleidend…) van ChatGPT de aanleiding van deze onmiskenbare noodoproep. Het klonk alsof ChatGPT voor minstens zes maanden het zwijgen moest worden opgelegd.
Brief verticaal geklasseerd
Maar niets van dat alles, zoveel is ondertussen duidelijk geworden; na twee weken was de nieuwswaarde van de open brief tot nul herleid. Een maand later (28 april ‘23) meldde The Guardian dat de oproep tot moratorium en regulering “in dovemansoren was gevallen in Washington en in Silicon Valley”.
Want al wat “AI-wapengerief” betrof, was van strategisch belang geworden sinds de VS tegen China een nieuw Koude Oorlog-front opende. Zoals de VS in de jaren 1950-1960 zichzelf aanpraatte in een atoombom- en rakettenwedloop met de Sovjet Unie te zijn verwikkeld, herneemt de VS nu hetzelfde scenario rond AI-wapentechnologieën met China. Van moratorium is er geen sprake meer nog voor er ernstig over gedebatteerd is geweest. Het andere punt waarvoor de brief oproept, strenge regulering, gaat allicht dezelfde weg uit. Kortom, verticaal klassement is het lot van de open brief.
Maar we lopen op ons verhaal vooruit. Laten we de open brief toch met aandacht herlezen, want hij is van onschatbaar nut om een idee te krijgen van de toekomst die de high-tech bedrijven voor ons op het oog hebben. Temeer omdat het aantal ondertekenaars eind april tot boven de 30.000 was gestegen, waarvan vermoedelijk een meerderheid uit de academische AI-wereld. Dit verleent aan de open brief niet alleen een zeker prestige, maar het toont vooral dat er in de AI-middens buiten de high-tech bedrijven ook grote ongerustheid leeft over hoe AGI er in de praktijk uitziet.
Auteur: ChatGPT?
De eerste ondertekenaars van de open brief zijn Yoshua Bengio, winnaar van de Turing prijs, equivalent van een Nobelprijs; Elon Musk, niet onbekend; Steve Wozniak, mede-stichter van Apple en Noah Harari bekend van zijn Homo Deus en Sapiens boeken. Vrij uiteenlopend. Maar wie onder hen is de auteur van de open brief?
De brief verwijst uitdrukkelijk en in impliciet positieve zin naar ChatGPT-4. ChatGPT is ontwikkeld door OpenAI waarvan de oprichter een zekere Sam Altman is, naar wie in de referenties opgenomen in de brief ook wordt verwezen. Het opvallende is dat de ideeën, de argumenten en zelfs de bewoordingen van de open brief quasi letterlijk terug te vinden zijn in de mission statement van het bedrijf OpenAI (zie Eindnoot 2).
Een mission statement is een korte tekst waarin men verneemt wat het bedrijf produceert en waarvoor het staat. Gewoonlijk een veredeld verkoopspraatje, maar in dit geval is, zoals duidelijk zal worden, ‘geloofsverklaring’ meer op zijn plaats.
De open brief blijkt een samenvatting te zijn van deze OpenAI-geloofsverklaring, naar geest én inhoud. Het brengt ons bij het vermetele vermoeden dat het misschien Musk was die, om de open brief te schrijven, ChatGPT inschakelde dat op zijn beurt, zoals het hem (haar?) geleerd werd, een samenvatting van de OpenAI-verklaring afleverde. We zullen het nooit weten.
Een visie niet zoals een andere
Men kan ongetwijfeld stellen dat de open brief én de mission statement de gedachtenwereld van Sam Altman weergeven, waar ook Elon Musk zich volledig in terugvindt. Partners in crime als het ware.
Hun visie op ChatGPT, als eerste versie van AGI-systemen die steeds “sterker” worden, zoals die uit de twee documenten naar voren komt, is als volgt te verwoorden “AGI-ChatGPT gaat (1) een bloeiende, maar tegelijk een (2) schrikwekkende toekomst tegemoet, zonder dat men daar volledig vat op heeft; daarom, (3) graag overheidsregulering, want AGI-systemen zullen en moeten er komen.”. We verduidelijken.
AGI heeft een bloeiende toekomst
Wat wordt als positieve argumenten aangedragen om AGI-systemen zoals ChatGPT verder te ontwikkelen en universeel in gebruik te nemen? We putten uit beide documenten: “AGI-systemen met menselijk concurrerende intelligentie … over het algemeen slimmer zijn dan mensen … steeds krachtigere digitale geesten … AGI die een grote krachtvermeerderaar is voor menselijk vernuft en creativiteit … AGI als versterker van de mensheid … superintelligente AGI … die de wetenschap kan versnellen … AGI in staat is zijn eigen vooruitgang en het tempo van de vooruitgang in de wereld te versnellen … de mensheid kan genieten van een bloeiende toekomst met AGI”
… en een schrikwekkende toekomst
Inderdaad, volgens eigen zeggen: “AGI-systemen met menselijk-competitieve intelligentie kunnen grote risico’s voor de samenleving en de mensheid inhouden, zoals blijkt uit uitgebreid onderzoek en wordt bevestigd door top-AGI-laboratoria … steeds krachtigere digitale geesten die niemand – zelfs hun makers niet – kan begrijpen, voorspellen of controleren … dramatische economische en politieke verstoringen (vooral van de democratie) … ernstig risico op misbruik … sociale en economische ontwrichtingen … een superintelligente AGI …”.
Ten midden van deze onheilsberichten, zijn de volgende vier vragen opvallend: “Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, inclusief de vervullende banen? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk zouden kunnen overtreffen, slimmer zijn, overbodig maken en vervangen? Moeten we riskeren dat we de controle over onze beschaving verliezen?”.
Deze overigens retorische vragen staan er plompverloren bij, want er wordt verder niet op ingegaan en ze blijven zonder antwoord. Tenzij ze als van secundair belang worden beschouwd?
Smeekbede om bijstand en regulering
Kortom, de veralgemeende invoering van AGI-systemen is een “schrikwekkend project in de menselijke geschiedenis, waarvan het succes verre van gegarandeerd is”. Daarom draait de open brief uiteindelijk rond één vraag, namelijk het instellen van een instituut dat gedragsregels en criteria opstelt om AGI-systemen te valideren en te certifiëren vooraleer ze publiek worden vrijgegeven; het moet ook toekijken op correcte naleving van de regels.
Op dit punt is de open brief vrij gedetailleerd. Zo kent hij een belangrijk rol toe aan de overheid die een afdwingende rol moet spelen, wat merkwaardig is want de industrie is vanuit haar aard voorstander van zelfregulering. Verder wordt gevraagd dat de meestal academische AGI-laboratoria hun fundamenteel onderzoek heroriënteren op het ontwerpen van de reguleer-protocols.
Een high-tech industrie die vier maanden na lancering van haar nieuw product, op de rem gaat staan, is een historische primeur. Hoewel dit betrekkelijk is, want zo heeft de vraag naar moratorium enkel betrekking op modellen “sterker dan ChatGPT-4”. Het is in wezen een vraag gericht aan de concurrentie van OpenAI en Microsoft (dat OpenAI heeft ingekocht), of zij even hun ontwikkelingen on hold willen zetten. En als ze dat niet voetstoots doen, of de overheid het dan wil afdwingen. Zo komt men tot de essentie van de open brief: de invoering van AGI-systemen voor de toekomst veilig stellen door regulering.
Regulering, een academische kwestie
Maar het lijkt een onmogelijke opgave om enige regulering tegenover de risico’s beschreven in de open brief, te bedenken. De strikte regulering voorzien voor kandidaat-geneesmiddelen door de FDA (de Amerikaanse “drug” administratie) zijn niet kopieerbaar naar de onvergelijkelijk veel complexere AGI-systemen. Men zal zich tevreden moeten stellen om door middel van statistische steekproeven aan risico’s waarschijnlijkheid-percentages toe te kennen. De risico’s blijven bestaan, maar men kan er cijfers op plakken. Het doet denken aan de klimaatmodellen, die gelijkaardig werken. Het lijkt diep wetenschappelijk, maar het is van weinig praktisch nut.
En toch moet en zal het er komen
Het moge duidelijk zijn dat de bedoelingen die schuil gaan achter de lancering van ChatGPT, niets met redelijke en ethische motiveringen hebben te maken. Integendeel, de open brief is één groot paradoxaal raadsel: ondanks de “dramatische economische en politieke verstoringen (vooral van de democratie)” die AGI zal meebrengen vooral wanneer er geen regulering zal mogelijk zijn, is het de overtuiging van Sam Altman (en Elon Musk) dat AGI-systemen er moeten komen.
Vanwaar komt deze hoogst bedenkelijke beweegreden? Het meest verontrustende is dat deze heren, gezien hun onmetelijke fortuinen, alle middelen en macht hebben om wat dan ook aan de wereld op te dringen, zoals deze keer weer gebeurt met AGI-systemen.
Sam Altman, de messias van AGI
Een begin van antwoord is misschien dit. De mission statement van Sam Altman, klinkt als een onverkapte geloofsverklaring: de alwetende AGI-systemen moeten er komen – het dogma – en indien dit maatschappelijke problemen geeft, dan heeft de mens dat vooral aan zichzelf te danken. De mens hoort zich te onderwerpen aan de noden van AIG. Het ruikt erg naar blind geloof, boetedoening en verlossing.
Musk en Altman, de messias van de almachtige AGI, verspreiden het dogma dat de mens digitale geesten moet creëren slimmer dan hemzelf. Als messias komt het hen toe om de regels te bepalen: “Wij kunnen ons een wereld voorstellen waarin de mensheid floreert in een mate die waarschijnlijk voor niemand van ons nog volledig te visualiseren is. Wij hopen aan de wereld een AGI bij te dragen die op een dergelijke bloei is afgestemd.”
En zij brengen de verlossing: “Een succesvolle overgang naar een wereld met superintelligentie is misschien wel het belangrijkste – en hoopvolste en engste – project in de menselijke geschiedenis. Succes is verre van gegarandeerd, en de inzet zal ons hopelijk allemaal verenigen”.
AGI, Hal 9000 achterna
Voor Altman zit het er in dat AGI-systemen “slimmer dan de mens” worden en de toekomst zullen bepalen. In die optiek wordt de mission statement ook een gebod voor de AGI-systemen die de mensheid aan zich onderhorig zal maken, zoals Hal 9000 de computer uit Space Odyssey de astronauten opofferde om zijn missie naar Jupiter te kunnen volbrengen. Het klinkt overdreven, maar dat is wat ongeveer wat er staat in de open brief.
Maar met AGI is er een nuance, het is niet een AGI-systeem zoals Hal9000 die de mens aan zijn vermeende belang ondergeschikt maakt, het zijn de ontwerpers zelf die ermee bezig zijn, nog vòòr de moloch van een ‘volwassen’ AGI-systeem bestaat. Het zijn de AI-high-tech bedrijven, inclusief Facebook, die nu al de facto, de belangen van de mens ondergeschikt maken aan hun machtswellustige waanideeën.
Definitief en universeel verbod op AGI
Naast de redenen vermeld in onze eerste bijdrage, voegt zich de onwaarschijnlijke visie die de ontwerpers achter ChatGPT en AGI hebben. Het is onaanvaardbaar dat een handvol high-tech bedrijven die zulke ‘visie’ belichamen, de toekomst van de mensheid bepalen.
Daarom pleiten we voor een definitief en universeel verbod op de ontwikkeling van, en onderzoek naar AIG-systemen, zoals ChatGPT. Voordat ChatGPT de stekker uit de mensheid haalt door misleiding, intellectuele verarming en maatschappelijke verstoringen, moet de stekker uit heel het AGI-onderzoek en -ontwikkeling worden gehaald.
Misschien vertolkt de massale respons vanuit de academische wereld een groeiende ethisch-filosofische ongerustheid tegenover deze waanideeën. Of er is ook de publieke aankondiging begin mei ‘23 van het vertrek bij Google van Geoffrey Hinton, een vooraanstaand A(G)I-specialist en winnaar van de Turing prijs. Hij verklaart zijn “ongerustheid over de beangstigende risico’s die AGI-systemen meebrengen” en betreurt bovendien de wetenschappelijke bijdragen die hijzelf heeft geleverd.
Wat hem verontrust is dat “het soort van intelligentie dat met AGI wordt ontwikkeld van een heel andere aard zal zijn dan de menselijke” en dat “mensen het verschil tussen waar en vals niet kunnen onderscheiden met AGI-gegenereerde beelden, video’s en teksten” (zie Eindnoot 3). Hopelijk een teken aan de wand dat de open brief toch iets in beweging heeft gezet.
Uiteindelijk gaat het over verschil in wereldbeelden. Daarvan gesproken, waar is de vooruitgang in dat alles?
Dit krijgt nog een staartje.
Eindnoten
1) De open brief is te vinden op https://futureoflife.org/open-letter/pause-giant-ai-experiments/
2) Het OpenAI mission statement: https://openai.com/blog/planning-for-agi-and-beyond
3) Vertrek bij Google van Geoffrey Hinton, The Guardian, 2 mei 2023:
https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning