p(doom) staat voor probability of doom en verwijst naar het risico dat kunstmatige intelligentie leidt tot de vernietiging van de mensheid. De term komt uit de AI-veiligheids community en wordt gebruikt om over existentiële risico’s te spreken: scenario’s waarin AI zó krachtig of autonoom wordt dat het de menselijke controle overstijgt.
Sommige onderzoekers schatten hun persoonlijke p(doom) op 1%, anderen op 50% of hoger. Het gaat dus niet over risico’s zoals biasBias is de set aan vooroordelen in AI-output die het resultaat is van de data en de manier waarop een model is getraind. Omdat LLM's leren van bestaande teksten, waarin... Meer of privacy, maar over de fundamentele vraag: kan AI ons vernietigen?
Waarom dit belangrijk is
p(doom) dwingt ons om na te denken over de ergste consequenties van de huidige AI-ontwikkelingen. Zelfs een lage inschatting zorgt ervoor dat we een morele verantwoordelijkheid hebben, om controlemechanismen voor AI serieus te nemen. De term helpt daarnaast ook om onderscheid maken tussen de verschrillende niveaus van risico’s: workslopWorkslop is door AI gegenereerd werk dat op het eerste gezicht best prima uitziet, maar dat als je goed kijkt, van lage kwaliteit is. Het kunnen rapporten, presentaties of documenten... Meer is vervelend en moet je niet willen, maar een existentieel risico is wel even iets anders.
Discussies over p(doom) beïnvloeden beleid, investeringen en welke technologische richtingen we maatschappelijk aanvaardbaar vinden.
Voorbeeld
AI-pionier Geoffrey Hinton, grondlegger van neurale netwerken en ook wel de vader van AI genoemd, schatte zijn p(doom) in 2023 op 10%. Hij zegt: als AI superintelligent wordt zonder betrouwbare beheersingsmechanismen, kunnen we het niet meer stoppen. Anderen, zoals Yann LeCun, noemen dat soort schattingen ernstig overdreven en houden hun p(doom) praktisch op nul.
Het grote verschil tussen deze verschillende schattingen illustreert hoe weinig consensus er bestaat over de aard en schaal van toekomstige AI-risico’s. En dat is zorgwekkend.
Risico
Het gevaar van p(doom) als concept is dat het het debat over AI-veiligheid scheef kan trekken. Kijken we alleen maar of we worden uitgeroeid door AI, dan kan dat praktische risico’s zoals bias, misinformatie en machtsconcentratie, overschaduwen. Maar het tegenovergestelde is net zo problematisch. Want als we p(doom) wegzetten als sciencefiction dan onderschatten we reële existentiële risico’s .
Wat kun je doen?
- Wees je ervan bewust dat existentiële AI-risico’s een serieus debat vormen tussen experts en dat het niet gaat om een wappie-verschijnsel.
- Maak onderscheid tussen verschillende soorten AI-risico’s, want niet alles is doom.
- Blijf kritisch tegenover zeer absolute claims: dat AI volkomen veilig is, of dat een ramp onvermijdelijk is.
- Houd in de gaten hoe grote AI-labs omgaan met veiligheid, governance en de afweging tussen snelheid en controle.