PauseAI is een internationale beweging, opgericht in 2023 in Nederland. Het doel: de ontwikkeling van AI-systemen krachtiger dan GPT-4 stoppen. Althans, totdat duidelijk is hoe deze veilig kunnen worden gebouwd en onder democratische controle blijven. De beweging ontstond in mei 2023 in Utrecht, op initiatief van software-ondernemer Joep Meindertsma.
PauseAI streeft naar een pauze in de training van AI-systemen die krachtiger zijn dan GPT-4. Op hun website stellen ze enkele stappen voor om dit doel te bereiken:
In de late jaren 2010 en vroege jaren 2020 was er een snelle verbetering in de capaciteiten van AI-modellen, wat leidde tot bezorgdheid over de risico's van geavanceerde AI. Dit resulteerde in een open brief van het Future of Life Institute, waarin werd opgeroepen tot een pauze van ten minste zes maanden in de training van AI-systemen krachtiger dan GPT-4. Deze brief werd ondertekend door duizenden AI-onderzoekers en industrie-CEO's, waaronder Yoshua Bengio, Stuart Russell en Elon Musk.
Joep Meindertsma werd zich bewust van het existentiële risico van algemene kunstmatige intelligentie na het lezen van het boek "Superintelligence: Paths, Dangers, Strategies" van filosoof Nick Bostrom uit 2014. Hij richtte PauseAI op in mei 2023 en zette zijn functie als CEO van een softwarebedrijf opzij om zich hierop te concentreren. Meindertsma stelde dat de vooruitgang in AI-alignmentonderzoek achterblijft bij de vooruitgang in AI-capaciteiten en uitte zijn bezorgdheid over een mogelijke uitsterving op korte termijn.
PauseAI voerde zijn eerste publieke actie uit in mei 2023 met een protest voor het lobbykantoor van Microsoft in Brussel tijdens een evenement over kunstmatige intelligentie. In november van hetzelfde jaar protesteerden ze buiten de inaugurele AI Safety Summit in Bletchley Park. Hoewel de Bletchley-verklaring, die tijdens de top werd ondertekend, het potentieel voor catastrofale risico's van AI erkende, pleitte Meindertsma voor bindende internationale verdragen, vergelijkbaar met het Montreal Protocol. Ethiek en AI zijn belangrijke onderwerpen in een wereld die razendsnel aan het veranderen is.
In februari 2024 verzamelden leden van PauseAI zich buiten het hoofdkantoor van OpenAI in San Francisco, deels vanwege een wijziging in het gebruiksbeleid van OpenAI die het gebruik van hun modellen voor militaire doeleinden toestond. In mei 2024 werden protesten gehouden in dertien verschillende landen voorafgaand aan de AI Seoul Summit, waaronder de Verenigde Staten, het Verenigd Koninkrijk, Brazilië, Duitsland, Australië en Noorwegen. Protesteerders in San Francisco hielden borden vast met teksten als "When in doubt, pause" en "Quit your job at OpenAI. Trust your conscience". Kort daarna trad Jan Leike, hoofd van het "superalignment"-team bij OpenAI, af vanwege zijn overtuiging dat "veiligheidscultuur en -processen ondergeschikt waren geraakt aan glanzende producten".
PauseAI heeft zowel steun als kritiek ontvangen. Sommige critici stellen dat het streven naar een pauze in AI-ontwikkeling niet haalbaar is en dat de beweging zich bezighoudt met acties die contraproductief kunnen zijn. Anderen betwijfelen de effectiviteit van protesten en suggereren dat lobbyen bij beleidsmakers een betere strategie zou kunnen zijn. Er is ook discussie over de vraag of het vertragen van AI-ontwikkeling wenselijk is, gezien de potentiële voordelen die AI kan bieden.
PauseAI is een beweging die oproept tot een wereldwijde pauze in de ontwikkeling van geavanceerde AI-systemen totdat hun veiligheid kan worden gegarandeerd en ze onder democratische controle staan. Hoewel de beweging aandacht heeft gekregen voor haar protesten en voorstellen, blijft er discussie over de haalbaarheid en wenselijkheid van haar doelen en methoden.