Högst två decennier, kanske bara fem år. Sen är AI-system smartare än människor. Sannolikheten för att det går riktigt illa? 20 procent, säger Nobelpristagaren Geoffrey Hinton till SvD.
https://www.svd.se/a/bmeG1k/ai-s-gudfader-om-utvecklingen-20-procents-risk-att-manniskan-utrotas
”Vi har en liten tigerunge framför oss. Just nu är den gullig. Men vi kan vara helt säkra på att den, när den blivit vuxen, kan döda oss när den vill.
Liknelsen kommer från en lågmäld och välklädd brittisk herre: Geoffrey Hinton, professor vid University of Toronto och en av årets Nobelpristagare i fysik. Han pratar om riskerna med den tekniska utveckling som han själv varit med och drivit fram.
– Men den här tigern kommer inte döda oss för att den är starkare än oss, utan för att den är mer intelligent. Kan vi hantera en varelse som är mer intelligent än oss själva? Det har vi ingen aning om.”
”Ett möjligt scenario är en AI som ändrar sin egen kod på ett sätt som människor inte kan se eller kontrollera. ”
”Ett begrepp inom AI-forskning är P(doom), som beskriver hur sannolikt det är att AI-utvecklingen leder till katastrof (probability of doom). Geoffrey Hintons tidigare forskarkollega Yann Le Cun, numera AI-chef på Meta, tror att siffran är mindre än en procent. I det andra lägret finns AI-forskaren Eliezer Yudkowsky, som tror att den är över 95 procent.”
Hintons bästa gissning är att det är 20 procents risk att AI tar över och utrotar mänskligheten. Och det vore ju synd om det blev så eftersom vi inte lade ner jobbet som behövs.
Bloggaren begagnar sig inte av AI. Smart är han inte men han begriper att risken med AI är större än att ägna sig år rysk roulette (med en kula i trumman).
https://sv.wikipedia.org/wiki/Rysk_roulette
