Tillbaka till senaste
Den stora lärdomen: Vi kan alla vara döda inom fem år på grund av AI – transkript
Kvartal Transkript 5 maj 2026 05:40

Den stora lärdomen: Vi kan alla vara döda inom fem år på grund av AI – transkript

I podden Den stora lärdomen intervjuas Olle Häggström, som är AI-forskare och professor i matematisk statistik vid Chalmers i Göteborg. Han har flera gånger varnat för AI-utvecklingen, som han menar är bokstavligt talat livsfarlig – men varför? Vilka är de konkreta och nära förestående problemen med AI? Hur lång tid har vi på oss och vad ska vi göra – om nu hotet är så påtagligt? Programledare är Henrik Höjer.

1 00:00:00,000 --> 00:00:04,320 Olle Häggström, du är statistiker, professor och framgångsrik forskare.

2 00:00:04,420 --> 00:00:07,780 Du sitter i Vetenskapsakademien och Ingenjörsvetenskapsakademien.

3 00:00:08,180 --> 00:00:12,700 Vilken skulle du säga är den stora lärdomen av det teknikgenombrott vi nu sätter med AI?

4 00:00:13,700 --> 00:00:24,220 Ja, alltså en viktig lärdom här är att inte ta mänsklighetens unika ställning som herrar över den här planeten för givet.

5 00:00:27,220 --> 00:00:29,760 Välkommen till podden Den stora lärdomen.

6 00:00:29,760 --> 00:00:36,460 Dagens gäster är Olle Häggström som är AI-forskare och professor i matematisk statistik vid Chalmers i Göteborg.

7 00:00:37,060 --> 00:00:41,660 Han har flera gånger varnat för AI-utvecklingar som han menar är bokstavligen talat livsfarlig.

8 00:00:42,280 --> 00:00:49,040 Men varför är artificiell intelligens så destruktiv och vilka är de konkreta och nära förestående problemen med AI?

9 00:00:49,780 --> 00:00:54,180 Hur lång tid har vi på oss och vad ska vi göra om nu hotet är så påtagligt?

10 00:00:54,860 --> 00:00:56,840 Och mitt namn det är Henrik Höjer.

11 00:00:58,020 --> 00:00:59,680 Välkommen till Kvartal, Olle Häggström.

12 00:00:59,760 --> 00:01:01,880 Tack så mycket, jättekul att vara här.

13 00:01:02,180 --> 00:01:12,020 Ja, du skrev en artikel här i Kvartal i december 2024 om den påtagliga risken att mänskligheten utplånas av en superintelligent AI.

14 00:01:12,260 --> 00:01:13,580 Så får du ner dig inom kort.

15 00:01:14,640 --> 00:01:22,680 Då varnar du för den civilisatoriskt livsfarliga kapplöpningen som ett litet antal AI-företag i norra Kalifornien just nu är inbegripna i.

16 00:01:23,380 --> 00:01:28,220 Så jag undrar, varför är artificiell intelligens så farlig för oss människor?

17 00:01:28,720 --> 00:01:29,320 Ja.

18 00:01:29,760 --> 00:01:47,900 Det är en bra fråga. I ingressen använder du ordet destruktiv och jag vill då mena att intelligensen till sin natur är varken destruktiv eller konstruktiv utan den kan användas i vilken riktning som helst.

19 00:01:48,100 --> 00:01:50,140 Okej, men konsekvenserna kan vara destruktiva.

20 00:01:50,540 --> 00:01:52,400 De kan vara det, de behöver inte bli det.

21 00:01:52,520 --> 00:01:54,200 Men du är orolig för just det här.

22 00:01:54,440 --> 00:01:54,900 Just det.

23 00:01:55,360 --> 00:01:55,660 Berätta.

24 00:01:55,660 --> 00:01:59,660 Och det har att göra med att AI-utvecklingen...

25 00:01:59,760 --> 00:02:02,560 ...går i rasande fart.

26 00:02:03,280 --> 00:02:10,479 Som det gjorde i 2024 och det har rullat på i ungefär den rasande takt som jag har väntat mig.

27 00:02:11,360 --> 00:02:23,340 Så till en grad att vi inom några få år kan komma och nå den punkt där vi själva inte är den mest kapabla arten på den här planeten.

28 00:02:24,100 --> 00:02:29,640 Och i ett sånt läge så hänger allting på vad den mest kapabla...

29 00:02:29,760 --> 00:02:32,420 ...kapabla arten vill göra.

30 00:02:33,640 --> 00:02:36,260 Och jag talar om AI då naturligtvis.

31 00:02:36,360 --> 00:02:36,620 Jag förstår, jag förstår.

32 00:02:36,620 --> 00:02:59,480 Och det finns då en inriktning på AI Safety, AI-säkerhetsarbete som heter AI Alignment som handlar om att försöka se till att de första riktigt, riktigt kapabla AI-systemen har mål och drivkrafter och värderingar.

33 00:02:59,760 --> 00:03:01,040 Som är i linje med våra.

34 00:03:01,300 --> 00:03:08,940 Eller som i alla fall i tillräcklig mån prioriterar mänsklig välfärd och sådana där grejer som vi brukar tycka är viktigt.

35 00:03:09,800 --> 00:03:16,740 För om vi misslyckas med det, då delar vi planet med en överlägsen motståndare som vill andra saker än vi.

36 00:03:17,440 --> 00:03:19,640 Och då är vi illa ute.

37 00:03:21,320 --> 00:03:29,640 Det som gör dagens situation så bekymmersam, det är att det ser ut som att vi är på väg att få det här som kallas...

38 00:03:29,760 --> 00:03:30,800 Superintelligens då.

39 00:03:30,800 --> 00:03:45,680 Som är AI som är kognitivt överlägsen människan över hela spektret av relevanta kognitiva förmågor.

40 00:03:46,900 --> 00:03:50,280 Det kan komma möjligen inom några få år.

41 00:03:50,540 --> 00:03:58,800 Anthropics vd Dario Amodei talar om att skapa en AI som är så kapabel så att det motsvarar en nation av genier i ett datacenter.

42 00:03:59,760 --> 00:04:00,980 Inom ett par år.

43 00:04:02,620 --> 00:04:10,540 Om vi inte har löst AI-alignment till dess, och det verkar inte som att vi är på väg att göra det och klara den tidtabellen.

44 00:04:11,300 --> 00:04:18,440 Och då uppstår den här situationen där vi har en icke-alignad superintelligent AI.

45 00:04:19,320 --> 00:04:29,400 Och AI-alignment-pionjären L.C. Judkowski som snudd på egenhändigt skapade det här forskningsområdet under 00-talet.

46 00:04:29,760 --> 00:04:31,280 Väldigt inflytelserik.

47 00:04:31,960 --> 00:04:37,420 Han skrev i en text från 2008, som bland annat påverkade mig att gå in i det här området.

48 00:04:38,260 --> 00:04:43,520 Om det som han ansåg vara default-scenariot ifall vi får superintelligent AI utan alignment.

49 00:04:44,120 --> 00:04:45,500 Han beskrev det som...

50 00:04:45,500 --> 00:04:54,020 Det låter dystert.

51 00:04:54,020 --> 00:04:59,020 Det är en typ av konflikt som vi inte vill hamna i med en överlägsen motståndare.

52 00:04:59,760 --> 00:05:00,960 Så är det.

53 00:05:01,300 --> 00:05:09,340 Men jag då som vanlig normalanvändare av dator, som inte alls är en AI-nödexpert, men försöker hänga med ungefär.

54 00:05:09,920 --> 00:05:11,120 Hur ska det här gå till?

55 00:05:11,260 --> 00:05:19,640 För mig är det ofta AI, det är något som finns på skärmen, det är kombinationer av bokstäver, det är halvsnuga bilder, det är fejkade videoklipp och så vidare.

56 00:05:19,840 --> 00:05:21,520 Hur ska de komma åt oss?

57 00:05:22,780 --> 00:05:24,100 Det måste vara lite tydligare.

58 00:05:25,320 --> 00:05:27,780 Så på ett vis är det här en omöjlig fråga.

59 00:05:27,780 --> 00:05:29,760 Och jag brukar dra en parallell till...

60 00:05:29,760 --> 00:05:40,020 Om jag skulle spela schack mot världssättaren Magnus Carlsen, då vet jag med säkerhet att han kommer att vinna det partiet.

61 00:05:40,300 --> 00:05:41,000 Låter sannolikt.

62 00:05:41,320 --> 00:05:41,520 Ja.

63 00:05:42,820 --> 00:05:45,540 Men jag vet inte exakt hur det kommer att gå till.

64 00:05:45,760 --> 00:05:54,540 Därför att om jag visste det, då skulle jag ju kunna förutse hans drag och då skulle jag vara en minst lika skicklig schackspelare som han.

65 00:05:54,760 --> 00:05:56,420 Och det är jag tyvärr inte.

66 00:05:56,840 --> 00:05:58,860 Och det här är en lite liknande situation.

67 00:05:59,100 --> 00:05:59,420 Eller det är också så...

68 00:05:59,760 --> 00:06:06,760 Om du skulle fråga en schimpans om hur kommer de här tvåbenta figurerna på savannen...

69 00:06:06,760 --> 00:06:07,560 Homo sapiens.

70 00:06:07,560 --> 00:06:11,200 Hur kommer homo sapiens att ta makten över den här planeten?

71 00:06:11,380 --> 00:06:16,500 Så är ju schimpansen då oförmögen att ge något vettigt svar på det här.

72 00:06:16,500 --> 00:06:17,460 Jag förstår, jag förstår.

73 00:06:17,620 --> 00:06:22,000 Men om jag ändå ska adressera lite grann din undran här.

74 00:06:22,140 --> 00:06:27,900 För allt de här AI-erna producerar är ju text i textfönster.

75 00:06:28,200 --> 00:06:29,280 Det kan väl inte liksom...

76 00:06:29,280 --> 00:06:29,560 På en skärm.

77 00:06:29,760 --> 00:06:31,780 Ja, hur farligt kan det vara?

78 00:06:32,300 --> 00:06:33,120 Ja, exakt.

79 00:06:33,380 --> 00:06:33,480 Ja.

80 00:06:35,800 --> 00:06:37,120 Då tror jag så här.

81 00:06:37,980 --> 00:06:41,800 Att så länge robotiken ligger efter.

82 00:06:42,620 --> 00:06:47,060 Och den börjar ta vissa steg framåt.

83 00:06:47,200 --> 00:06:56,680 Men den ligger fortfarande efter den gren av AI-utvecklingen som kallas generativ AI som inbegriper de här språkmodellerna.

84 00:06:57,640 --> 00:06:59,600 Då kan vi inte vänta oss...

85 00:06:59,600 --> 00:07:10,860 Det är ett sånt här Terminator-scenario med humanoida robotar av plåt och metall som springer omkring och skjuter på oss med maskinjivär.

86 00:07:11,600 --> 00:07:14,520 För den robotiken är liksom...

87 00:07:14,520 --> 00:07:15,700 Ja, man var inte tillgång till den.

88 00:07:15,700 --> 00:07:22,680 Så vad gör en AI som vill ta över världen i det läget och är i behov av att påverka den fysiska världen?

89 00:07:23,040 --> 00:07:24,980 Jo, då finns vi i homo sapiens.

90 00:07:25,900 --> 00:07:28,700 Och om AI bara blir tillräckligt skicklig på...

91 00:07:29,600 --> 00:07:35,400 Social manipulation, övertalning, bedrägligt beteende eller vad du vill.

92 00:07:35,400 --> 00:07:46,840 Så kan den då antagligen, tror jag, kunna få enskilda människor att gå dess ärenden i den fysiska världen.

93 00:07:47,360 --> 00:07:49,400 Så det kan vara människor som...

94 00:07:50,460 --> 00:07:58,400 Ja, som arbetar på börsen eller arbetar på ett viruslaboratorium eller...

95 00:07:59,600 --> 00:08:06,200 Har ansvar för någon kärnvapenavflygningsramp eller vad du vill.

96 00:08:07,040 --> 00:08:15,400 Och de här människorna kan eventuellt då göra saker som hjälper AI i dess maktövertagande.

97 00:08:15,660 --> 00:08:16,520 Okej, okej.

98 00:08:18,060 --> 00:08:21,780 Framtiden är här och den kan bli hur farlig som helst, skrev du på DN-debatt alldeles nyligen.

99 00:08:22,800 --> 00:08:29,180 Och det här var ju då ett och ett halvt år senare än du varnade här i kvartal om mänsklighetens risk för utplåning.

100 00:08:29,600 --> 00:08:32,440 Vad har hänt på det här ett och ett halvt åren?

101 00:08:32,559 --> 00:08:40,280 För jag som ganska vanlig medioker och datoravvändare har ju inte upplevt någonting alls direkt vad gäller AIs hotbild för oss i vardagen.

102 00:08:40,679 --> 00:08:43,720 Men vad skulle du säga om det sena tiden sen december 2024?

103 00:08:44,140 --> 00:08:48,900 Så som jag antydde förut då så har det inte hänt så mycket egentligen som överraskar mig.

104 00:08:48,900 --> 00:08:58,900 Men det som har hänt och det som har väntat det är att de här språkmodellerna har gjort stora framsteg.

105 00:08:59,600 --> 00:09:01,100 När det gäller agens.

106 00:09:01,820 --> 00:09:08,600 Så att de har övergått från att enbart vara samtalspartners till att kunna...

107 00:09:09,180 --> 00:09:18,860 Du kan lämna över i princip din laptop i AIs händer och den kan använda de olika programvaror som finns.

108 00:09:19,020 --> 00:09:26,100 Välja mellan dem, gå in och interagera på webbsidor och så vidare.

109 00:09:26,520 --> 00:09:28,280 För att...

110 00:09:28,280 --> 00:09:29,480 Ja, då har det ju...

111 00:09:29,480 --> 00:09:40,300 Vanligtvis då fått någon uppgift att hjälp mig att boka nästa tåg till Göteborg eller vad som helst då.

112 00:09:40,800 --> 00:09:43,100 Och gärna lite större uppgifter också.

113 00:09:43,100 --> 00:09:46,920 Så det där har de blivit i rask takt bättre och bättre på.

114 00:09:47,060 --> 00:09:59,100 Och så bra så att de kan göra saker även som inbegriper att de behöver göra kodning för att skapa sina egna små appar eller program som gör saker effektivt.

115 00:09:59,480 --> 00:10:08,780 Om de till exempel vill söka efter någon viss typ av data på nätet och sätta samman det till ett diagram eller något sånt där.

116 00:10:09,160 --> 00:10:12,200 Det är den typen av grejer då.

117 00:10:12,460 --> 00:10:21,180 Så att genomföra större uppgifter och ju större uppgifter de kan göra desto mer kapabla är de där ute.

118 00:10:21,180 --> 00:10:29,180 Och det tycker jag är en enorm skillnad mot att bara ha AI som en oskyldig samtalspartner.

119 00:10:29,480 --> 00:10:36,760 Men när jag pratade med dig inför den här intervjun häromdagen så sa du att det var en påtal i risk att vi alla är döda inom fem år.

120 00:10:37,880 --> 00:10:40,980 Vissa pratar om en risk på 10-25% för utlåning.

121 00:10:41,580 --> 00:10:44,960 Jag kan ju påminna om att med rysk roulette är risken ungefär 17% att man dör.

122 00:10:46,140 --> 00:10:48,700 Du menar det här alltså att det finns en påtal i risk för utlåning?

123 00:10:48,700 --> 00:10:49,200 Ja.

124 00:10:50,060 --> 00:10:53,500 Och jag vill helst inte ge en exakt siffra då.

125 00:10:53,800 --> 00:10:57,160 Men därför att det kan...

126 00:10:57,160 --> 00:10:58,540 Det är ändå oprecist.

127 00:10:58,760 --> 00:10:59,460 Och det varierar.

128 00:10:59,480 --> 00:11:00,500 Det varierar med min dagsform och så.

129 00:11:00,600 --> 00:11:01,920 Men den är alltid tvåsiffrig.

130 00:11:03,420 --> 00:11:04,900 Varför varierar med dagsformen?

131 00:11:05,740 --> 00:11:10,480 Det kan bero på vad jag senast har läst.

132 00:11:10,900 --> 00:11:17,340 Om det är en text som är optimistisk rörande möjligheten att lösa AI-alignment

133 00:11:17,340 --> 00:11:23,060 eller möjligheten att åstadkomma globala överenskommelser av den typ som jag menar behövs och så vidare.

134 00:11:23,060 --> 00:11:24,900 Ja men då går den här siffran ner.

135 00:11:25,420 --> 00:11:29,060 Och om jag istället, vilket händer lite oftare då, läser en text som...

136 00:11:29,480 --> 00:11:38,020 Som skisserar ännu värre domedagscenarier och så vidare så går siffran upp.

137 00:11:38,020 --> 00:11:39,700 Men det här låter ju ohyggligt dystert.

138 00:11:39,780 --> 00:11:43,120 Det är mycket värre risken för kärnvapenkrig när vi var unga.

139 00:11:44,300 --> 00:11:46,200 Problem med global uppvärmning.

140 00:11:47,100 --> 00:11:48,940 Risk för komet som träffar jorden.

141 00:11:49,060 --> 00:11:50,700 De här alltså storskaliga katastrofscenarierna.

142 00:11:50,820 --> 00:11:52,320 Det här är långt, långt, långt värre enligt dig.

143 00:11:52,840 --> 00:11:55,140 Ja, kometen kan vi ju liksom glömma.

144 00:11:55,260 --> 00:11:57,600 Det är ju en på miljarden eller sånt där.

145 00:11:57,700 --> 00:11:59,440 Alltså det är en risk som ackumuleras.

146 00:11:59,480 --> 00:12:04,320 År från år och tittar man över årmiljonerna så är det ju stor risk att någonting händer.

147 00:12:04,460 --> 00:12:09,240 Men att någonting ska hända det här århundradet, det är ingenting.

148 00:12:09,400 --> 00:12:12,200 Men de andra riskerna du nämner, de är ju påtagliga.

149 00:12:12,560 --> 00:12:13,620 Men det här låter mycket, mycket värre.

150 00:12:14,220 --> 00:12:20,620 Ja, alltså det är i alla fall mycket snabbare och kortsiktigare än de andra.

151 00:12:20,960 --> 00:12:22,480 Sen är det ju mycket då som tyder på...

152 00:12:23,340 --> 00:12:27,320 Ja, vi växte ju båda upp då med ångesten över kärnvapenkriget.

153 00:12:27,320 --> 00:12:27,700 Japp.

154 00:12:29,480 --> 00:12:38,100 Med de kärnvapennationaler som fanns då så fanns det inte tillräckligt för att utplåna alla människor i själva kriget.

155 00:12:38,240 --> 00:12:51,860 Och det är inte troligt att vi skulle utrotas heller i den atomvinter som väntas följa på grund av allt stoff i atmosfären som förmörkar i kanske ett årtionde eller någonting.

156 00:12:51,860 --> 00:12:58,860 Så det är faktiskt inte så supertroligt att ens ett globalt kärnvapenkrig skulle orsaka...

157 00:12:59,480 --> 00:13:00,300 ...möjlighetens utplåning.

158 00:13:00,560 --> 00:13:04,960 Men med AI så är det verkligen en ultraskarpt läge.

159 00:13:05,340 --> 00:13:11,620 Och jag ska bara tillägga att jag pratar med lite folk i AI-branschen och du verkar inte vara en ensam galning som tycker det här.

160 00:13:11,640 --> 00:13:13,100 Det finns en genuin oro.

161 00:13:13,520 --> 00:13:18,680 Sen kan man diskutera tidshorisonter, procentsatser, men det finns flera som är lika svartsynta.

162 00:13:19,040 --> 00:13:22,140 Och vad ska du göra med den här kunskapen, om du har rätt?

163 00:13:22,340 --> 00:13:25,920 Ja, jag vill tillägga då att du kan hitta dem som säger emot det här.

164 00:13:25,920 --> 00:13:26,620 Ja, det finns det absolut.

165 00:13:26,620 --> 00:13:28,620 Men ändå, jag tänkte att du kanske helt...

166 00:13:29,480 --> 00:13:32,660 Det finns alltid folk som har helt idéer långt vid sidan av...

167 00:13:32,660 --> 00:13:37,780 Men det finns flera som säger att det finns andring till oro alltså, som är insulterade här.

168 00:13:37,860 --> 00:13:49,060 Absolut. Så en beteckning som ibland används om oss som lyfter den här oron, som används på engelska då, då kallas vi för doomers.

169 00:13:49,340 --> 00:13:55,920 Och det är ett uttryck som jag verkligen ogillar, men det har tyvärr börjat sätta sig då.

170 00:13:56,200 --> 00:13:58,560 Att man är någon slags domedagspredikant.

171 00:13:59,480 --> 00:14:07,340 Och jag blev anklagad för att vara det så sent som igår, efter den här DN-artikeln då, någonstans på nätet.

172 00:14:08,060 --> 00:14:13,620 Jag menar att en domedagspredikant är en person som säger att vi kommer alla att dö.

173 00:14:13,920 --> 00:14:16,080 Undergången kommer, oavsett.

174 00:14:16,820 --> 00:14:26,300 Men det budskap som jag alltid försöker inskärpa, och vi gör det nu också, det är att vi kan undvika undergången om vi tar oss samman.

175 00:14:26,600 --> 00:14:29,100 Så på ett sätt är det liksom det motsatta.

176 00:14:29,480 --> 00:14:39,620 Vi kommer till den frågan, men jag tänkte bara på mig att du har tidigare hävdat då att nästa år är AI bättre än de bästa mänskliga AI-utvecklarna.

177 00:14:40,420 --> 00:14:41,980 Och då blir AI smartare än människan.

178 00:14:42,760 --> 00:14:47,820 Jag har nog inte hävdat att det kommer att bli så, men jag har sagt att det mycket väl kan bli så.

179 00:14:47,820 --> 00:14:50,300 En sannolikhet ungefär. Och vad händer då?

180 00:14:51,400 --> 00:14:56,160 Då får vi en acceleration i AI-utvecklingen.

181 00:14:56,260 --> 00:14:59,440 Och det har att göra med att de här bolagen som OpenAI och Anthrop.

182 00:14:59,480 --> 00:15:14,520 Den kanske allra största flaskhalsen för deras AI-utveckling är att det kostar väldigt mycket att anställa de här allra, allra bästa AI-forskarna och AI-utvecklarna.

183 00:15:14,640 --> 00:15:23,700 Det är ju verkligen mångmiljonlöner i dollar och det är stor konkurrens om att få anställa dem.

184 00:15:24,060 --> 00:15:29,080 Men vid den tidpunkt då de bästa AI-utvecklarna inte längre är människor av kött och blod.

185 00:15:29,480 --> 00:15:30,380 Men AI självt.

186 00:15:30,420 --> 00:15:31,400 Om kanske ett år eller så.

187 00:15:31,400 --> 00:15:42,940 Då kommer de att kunna anställa tusentals eller möjligtvis miljontals digitala, förstklassiga AI-forskare.

188 00:15:43,120 --> 00:15:45,560 De kan jobba 24 timmar om dygnet etc.

189 00:15:46,080 --> 00:15:49,160 Klagar aldrig på arbetsförhållanden.

190 00:15:49,720 --> 00:15:50,440 Inte änta på dagis.

191 00:15:50,880 --> 00:15:51,740 Inget sånt.

192 00:15:53,260 --> 00:15:59,440 Och det kan då ge en kraftig acceleration av AI-utvecklingen.

193 00:15:59,480 --> 00:16:01,660 Det är inte säkert att det här kommer att funka.

194 00:16:01,900 --> 00:16:04,360 Det kan dyka upp andra flaskhalsar och så vidare.

195 00:16:04,520 --> 00:16:09,460 Jag vill verkligen understryka att jag gör inte anspråk på att ha någon kristallkula här.

196 00:16:09,940 --> 00:16:17,120 Men den här brytpunkten då när den här turbofeedbacken i AI-utvecklingen kommer igång.

197 00:16:17,620 --> 00:16:20,540 Vi är ganska nära den, ser det ut som.

198 00:16:20,700 --> 00:16:27,800 Vissa hävdar till och med att vi redan ser en antydan till att det här har börjat.

199 00:16:27,800 --> 00:16:29,300 Det är för att en mycket stor...

200 00:16:29,300 --> 00:16:38,340 Andel av kodningen, själva programmeringsarbetet på Anthropic görs av Claude, deras egen AI.

201 00:16:38,960 --> 00:16:39,860 Pensionssparar du?

202 00:16:40,980 --> 00:16:43,100 Jag har faktiskt börjat...

203 00:16:43,100 --> 00:16:44,200 Jag har gått ner i tjänst.

204 00:16:44,840 --> 00:16:53,920 Så för närvarande så pensionssparar jag negativt genom att ta ut mer än jag sätter in.

205 00:16:54,520 --> 00:16:55,120 Men...

206 00:16:55,120 --> 00:16:58,380 Är det här relaterat till dina tankar om AI-framtiden?

207 00:16:59,300 --> 00:17:03,720 Jag skulle säga inte så mycket i alla fall.

208 00:17:03,840 --> 00:17:11,819 Därför att jag är väldigt bestämd på att även om man är orolig för en AI-apokalyps så kan man inte vara säker.

209 00:17:12,380 --> 00:17:28,060 Och jag tror att det är inte till glädje vare sig för mig eller för någon annan om jag börjar agera flänkt utifrån ståndpunkten att vi kommer alla ändå snart att dö.

210 00:17:28,060 --> 00:17:29,260 Jag tycker att det är mycket.

211 00:17:29,300 --> 00:17:34,280 Det är mycket bättre att vi fortsätter att leva bra liv och så.

212 00:17:35,620 --> 00:17:40,780 Om jag skulle säga, ska vi slå vad om det här? Ska vi ses i den här studion våren 2031 och se hur det har gått?

213 00:17:41,200 --> 00:17:41,380 Ja.

214 00:17:41,540 --> 00:17:42,080 Sätter du emot?

215 00:17:43,860 --> 00:17:44,420 Nej men...

216 00:17:44,420 --> 00:17:46,640 En kartong med bättre rödvin än något sånt där?

217 00:17:46,900 --> 00:17:56,420 Det gör jag såklart inte. Därför att om det går så illa som jag fruktar så kommer jag ju aldrig få den där kartongen med rödvin.

218 00:17:56,620 --> 00:17:57,640 Nej, det är safe bet för min del.

219 00:17:57,640 --> 00:17:58,080 Jaha.

220 00:17:59,300 --> 00:18:02,520 Bra försök men det där går jag inte på.

221 00:18:02,740 --> 00:18:09,140 Men ska vi ses ändå om fem år och diskutera AI utifrån och lyssna på det här och prata om det?

222 00:18:09,360 --> 00:18:10,440 Ja, just det.

223 00:18:10,700 --> 00:18:20,240 Utifrån då mitt perspektiv att jag som naiv vanlig människa tycker att det här låter som science fictions dystopier.

224 00:18:20,780 --> 00:18:22,120 Ja, jättebra.

225 00:18:22,460 --> 00:18:28,120 Men då vill jag föra till protokollet också att jag har inte sagt att vi kommer att vara döda 2031.

226 00:18:28,120 --> 00:18:29,220 Nej, du har bara sagt det.

227 00:18:29,300 --> 00:18:30,300 Påtaglig risk.

228 00:18:30,500 --> 00:18:31,060 Just precis.

229 00:18:31,300 --> 00:18:33,900 Kanske 10, 20, 30 procent har förstått det som.

230 00:18:35,000 --> 00:18:38,040 Någonstans i de krokarna eller möjligtvis högre än så.

231 00:18:39,580 --> 00:18:40,860 Vi återkommer om fem år.

232 00:18:41,340 --> 00:18:46,240 Men nu går vi till, vad ska vi göra eller vad skulle du göra om du fick bestämma hur ska vi bromsa det här?

233 00:18:46,960 --> 00:18:48,360 För vi har ju också en agens.

234 00:18:48,840 --> 00:18:54,340 Ja, så det har ju hänt ganska mycket under den senaste femårsperioden eller så.

235 00:18:54,580 --> 00:18:59,260 Så att det var faktiskt, jag säger att jag har liksom inte uppdaterat min världsbild.

236 00:18:59,300 --> 00:19:02,580 Jag har uppdaterat så jättemycket sen jag hade den här kvartalartikeln 2024.

237 00:19:02,940 --> 00:19:12,760 Men sen 2021 har jag uppdaterat jättemycket på grund av att AI-utvecklingen har gått så hemskt mycket fortare.

238 00:19:14,080 --> 00:19:19,140 Och om vi hade haft det här samtalet då och du frågar vad tycker du vi ska göra?

239 00:19:19,500 --> 00:19:26,800 Då hade mitt huvudförslag varit att föra över mera resurser på forskning i AI-alignment.

240 00:19:26,800 --> 00:19:29,060 Så att vi kan lösa det här problemet.

241 00:19:29,300 --> 00:19:33,980 Med hur vi får den superintelligenta AI att agera i vårt intresse.

242 00:19:35,260 --> 00:19:47,040 Nu börjar jag känna att diskrepansen mellan hur snabbt AI capabilities, alltså hur snabbt man gör AI mer kapabel.

243 00:19:47,340 --> 00:19:49,400 Kontra AI-alignment-arbetet.

244 00:19:49,400 --> 00:19:58,900 Den diskrepansen har blivit så stor så att det är ganska otroligt att vi klarar att lösa AI-alignment i tid.

245 00:19:59,300 --> 00:20:00,000 Superintelligens.

246 00:20:00,420 --> 00:20:12,240 Med mindre än att vi drar i nödbromsen för den här utvecklingen som några få teknikföretag driver i kampen om att komma först till superintelligens.

247 00:20:12,640 --> 00:20:16,190 Så att det behövs att...

248 00:20:16,190 --> 00:20:18,110 Du vill stoppa teknikutvecklingen?

249 00:20:18,590 --> 00:20:20,910 Jag vill inte stoppa teknikutvecklingen generellt.

250 00:20:20,950 --> 00:20:21,610 Nej men kring AI?

251 00:20:22,070 --> 00:20:24,910 Inte heller kring AI generellt.

252 00:20:24,910 --> 00:20:29,910 Det finns massor av så kallad snäv-AI som jag tycker ur det här...

253 00:20:30,550 --> 00:20:32,870 Det speciella perspektivet är helt ofarligt.

254 00:20:32,970 --> 00:20:41,990 Det finns specialiserade AI-system för att utvärdera röntgenbilder för cancerdiagnostisering eller sånt.

255 00:20:42,070 --> 00:20:49,030 Och det skulle vara väldigt långsökt att tro att ett sånt system plötsligt skulle dundra iväg i någon singularitet och utplana oss.

256 00:20:49,290 --> 00:20:49,650 Det tror jag inte.

257 00:20:49,730 --> 00:20:54,770 Så att massor, kanske självkörande bilar också och massor av sådana tillämpningar.

258 00:20:54,770 --> 00:20:59,770 Utan det är bara de här allra ambitiösaste satsningarna som...

259 00:21:00,550 --> 00:21:07,550 AI och Antropic och några företag till driver med sikte på superintelligent AI.

260 00:21:07,790 --> 00:21:09,790 Den biten behöver stoppas.

261 00:21:10,310 --> 00:21:15,630 Och de utvecklas ju i USA som är än så länge en hyfsad demokrati.

262 00:21:15,770 --> 00:21:23,590 Men om då demokratiskt sinnade vänliga människor skulle lyssna, då skulle ju länder som Kina gå i spetsen, eller hur?

263 00:21:24,230 --> 00:21:24,950 Hur tänker du kring det?

264 00:21:24,950 --> 00:21:28,410 Vi ska inte ta det för givet.

265 00:21:28,910 --> 00:21:29,950 Alltså vad jag vill ha är internationellt.

266 00:21:30,550 --> 00:21:31,710 Internationella överenskommelser.

267 00:21:32,110 --> 00:21:37,430 Kanske det allra, allra mest akuta är att USA säger stopp.

268 00:21:37,490 --> 00:21:39,950 Men ganska kort därefter behöver vi internationella överenskommelser.

269 00:21:40,670 --> 00:21:41,950 Men sånt skulle ju inte Kina...

270 00:21:42,670 --> 00:21:43,750 Varför säger du det?

271 00:21:43,970 --> 00:21:45,930 Jag tror inte det bara. För en diktatur.

272 00:21:46,090 --> 00:21:47,890 Jag tror att du har fel.

273 00:21:48,890 --> 00:21:50,050 Jag tror att...

274 00:21:50,050 --> 00:21:59,350 Alltså redan idag så ser vi att Kina har hårdare tyglar om sin tekniksektor än vad USA har.

275 00:21:59,350 --> 00:22:00,350 Och det här har att göra...

276 00:22:00,550 --> 00:22:08,430 Det har att göra med en slags, vad ska man säga, försiktighet eller konservativitet hos de kinesiska kommunisterna.

277 00:22:08,510 --> 00:22:11,750 De vill verkligen, verkligen behålla kontrollen.

278 00:22:11,890 --> 00:22:24,250 Så att det värsta utfallet för dem är om Baidu eller Alibaba eller något annat av deras AI-företag då skapar en AI som kan utmana Xi Jinping om makten.

279 00:22:25,230 --> 00:22:29,070 Jag tror inte heller att de vill utplåna mänskligheten.

280 00:22:29,070 --> 00:22:30,070 Så att...

281 00:22:30,070 --> 00:22:35,450 Jag är faktiskt ganska optimistisk om att det ska gå att prata med dem.

282 00:22:35,570 --> 00:22:36,410 Och i synnerhet...

283 00:22:36,410 --> 00:22:40,410 Alltså som det ser ut just nu, då är det USA som driver utvecklingen framåt.

284 00:22:40,690 --> 00:22:43,650 Och Kina är en efterföljare.

285 00:22:44,050 --> 00:22:46,430 Men tror du någon kommer lyssna på dina varningar?

286 00:22:46,610 --> 00:22:47,170 Kommer det hända?

287 00:22:47,930 --> 00:22:48,930 Det får vi väl se.

288 00:22:50,150 --> 00:22:58,410 Det är inte bara jag som varnar utan jag försöker bara dra ett litet, litet strå till stacken.

289 00:22:58,910 --> 00:22:59,410 Hittills har det gått...

290 00:23:00,070 --> 00:23:01,970 Ganska trögt.

291 00:23:01,970 --> 00:23:12,690 Mest optimistisk om det här var jag faktiskt i slutet av 2023 när Rishi Sunak, dåvarande premiärminister i Storbritannien, samlade till ett toppmöte i Bletchley Park.

292 00:23:13,970 --> 00:23:26,910 Där man samlades kring förvånansvärt skarpa formuleringar om att se till att hålla AI-utvecklingen på en bana som gynnar mänskligheten som helhet och sådär.

293 00:23:26,910 --> 00:23:29,950 Men efter det så har vi haft lite backlash.

294 00:23:30,070 --> 00:23:44,930 Och när motsvarande möte hölls i Paris för ett år sedan, början på 2025, så höll J.D. Vance ett tal där han var direkt nedlåtande mot allt som heter säkerhetstänkande.

295 00:23:45,090 --> 00:23:50,230 Det är inte säkerhetstänkande som för världen framåt, säger han, utan vi ska bygga, bygga, bygga.

296 00:23:51,050 --> 00:23:58,970 Så det gör mig ju lite dyster, men inte så dyster så att jag är beredd att ge upp och tycka att nej, det här går inte.

297 00:24:00,070 --> 00:24:02,970 Olle Häggström, om vi backar bandet igen.

298 00:24:03,210 --> 00:24:10,310 Om man jämför AI-genombrottet de senaste åren med IT-genombrottet för ungefär 30 år sedan, ser du för likheter och skillnader?

299 00:24:10,550 --> 00:24:14,630 Har du några reflektioner kring de här två händelserna, revolutionerna?

300 00:24:15,290 --> 00:24:20,710 Ja, som AI-utvecklingen har sett ut hittills så finns det ju på ytan en del likheter då.

301 00:24:21,190 --> 00:24:30,030 Det kan mycket väl bli så att vi får en AI-bubbla här inom kort, på liknande sätt som vi fick en IT-bubbla.

302 00:24:30,070 --> 00:24:33,530 Alltså en ekonomisk bubbla, en förväntningsbubbla.

303 00:24:33,590 --> 00:24:41,670 Men jag tror inte att en sån skulle stoppa AI-utvecklingen, lika lite som IT-bubblan stoppade utrullningen.

304 00:24:42,010 --> 00:24:49,350 Vi lever ju med internet, så det var ju på ett vis teknikutvecklingsmässigt sett bara en blipp.

305 00:24:49,490 --> 00:25:00,050 Så det här är någon slags likhet då, men skillnaden är att AI är en ofantligt mycket större teknik än vad internet är.

306 00:25:00,070 --> 00:25:09,450 På ett vis så är liksom bara internet det senaste i raden av kommunikationsteknologier då.

307 00:25:09,930 --> 00:25:14,810 Efter tåget och bilen och telefonen och radion och så vidare så kom internet.

308 00:25:15,150 --> 00:25:23,350 Medan AI handlar om vad som möjligen kan beskrivas som själva kärnan i det mänskliga, att tänka.

309 00:25:23,350 --> 00:25:29,350 Och när vi lastar över tänkandet, delegerar det till en annan typ av...

310 00:25:30,070 --> 00:25:30,730 ...entitet.

311 00:25:31,450 --> 00:25:33,670 Då är det liksom...

312 00:25:33,670 --> 00:25:42,690 Det är ett betydligt monumentalare steg än att bara omge sig med webbsidor och avancerad telekommunikation.

313 00:25:44,290 --> 00:25:46,050 Jag tänker att när IT...

314 00:25:46,050 --> 00:25:52,750 IT-genombrott för 30 år sedan, jag började surfa förstås på internet 95, skaffa e-post 96.

315 00:25:53,430 --> 00:25:59,630 Då var en del äldre släktingar skeptiska till nymodigheter och så, men det var ju ändå otroligt positivt det som skedde.

316 00:26:00,070 --> 00:26:03,370 Att skicka e-post, läsa tidningar, fixa bankkärn och så vidare.

317 00:26:04,730 --> 00:26:11,330 Jag upplever inte att AI-genombrott som en nu normal, vanlig datoranvändare är lika intuitivt positivt.

318 00:26:11,390 --> 00:26:15,750 Man ser en massa fejkade bilder, fejkade filmklipp och så vidare.

319 00:26:16,230 --> 00:26:19,950 Och de hallucinerar fortfarande en hel del för att det kan bli te och andra tjänster.

320 00:26:21,010 --> 00:26:23,470 Hur tänker du kring det här? Delar du den upplevelsen?

321 00:26:23,870 --> 00:26:27,670 När du säger att de hallucinerar en hel del, är det egen erfarenhet då?

322 00:26:27,670 --> 00:26:27,790 Ja.

323 00:26:28,410 --> 00:26:30,050 Och vad använder du för AI?

324 00:26:30,070 --> 00:26:31,550 Chat-GPT var det här.

325 00:26:31,970 --> 00:26:33,690 Ja. Använder du gratisversionen?

326 00:26:33,970 --> 00:26:34,090 Ja.

327 00:26:34,450 --> 00:26:38,570 Ja. För det är en stor, stor skillnad mot betalversionen.

328 00:26:38,930 --> 00:26:43,190 De här modellerna, de blir i rask takt bättre och bättre.

329 00:26:44,310 --> 00:26:48,910 Hallucination är fortfarande ett problem, men det är mycket mindre än vad det var för två, tre år sedan.

330 00:26:49,030 --> 00:26:55,830 Jag gjorde faktiskt en anledning på gratisversionen, för det är den som används, tänker jag, av barn, av fattiga människor utanför västvärlden.

331 00:26:55,830 --> 00:26:59,510 Att då har man basversionen som inte är tillförlitlig.

332 00:27:00,070 --> 00:27:01,730 Det kan man bara se som ett stort problem.

333 00:27:01,970 --> 00:27:06,910 Internet hade också sådana här problem. Sociala medier kom 15 år efter genombrottet med alla baksidor vi har sett.

334 00:27:07,110 --> 00:27:12,610 Men jag tycker det är en ganska stor skillnad på IT-genombrottet för 30 år sedan och AI-genombrottet idag.

335 00:27:13,130 --> 00:27:14,070 Som vanliga användare.

336 00:27:14,170 --> 00:27:15,950 Är det lite mer negativa vibbar kring det idag?

337 00:27:15,950 --> 00:27:19,470 Ja, inte alls så här spontant jättepositiva.

338 00:27:19,570 --> 00:27:25,670 Det var ju fantastiskt bra att kunna läsa tidningar utomlands och skicka e-poster för hela världen och så vidare.

339 00:27:25,970 --> 00:27:27,870 Jag vill försvara AI lite grann här.

340 00:27:27,870 --> 00:27:28,670 Okej, kör då.

341 00:27:28,970 --> 00:27:30,050 Hela avsnittet har jag.

342 00:27:30,070 --> 00:27:30,950 Jag har attackerat det.

343 00:27:31,610 --> 00:27:35,610 Men det är ett väldigt bra arbetsredskap.

344 00:27:36,470 --> 00:27:40,310 Jag använder det till, jag överlåter inte mitt skrivande till AI.

345 00:27:40,570 --> 00:27:49,030 Men när jag ska putsa på texter och när jag behöver brainstorma kring något ämne som jag är bara halvt om halvt insatt i och så vidare.

346 00:27:49,370 --> 00:27:56,170 Den typen av grejer är faktiskt de här modellerna mycket användbara till.

347 00:27:56,170 --> 00:27:58,390 Jag använder också en del för research.

348 00:27:58,390 --> 00:28:02,390 Men ändå, om vi också backar bandet ännu mer.

349 00:28:02,830 --> 00:28:12,830 Som du var inne på, många nötekniker brukar historiskt sett omfamnas både av överoptimistiska entusiaster och hatas av dystopiska dysterkvistar.

350 00:28:12,930 --> 00:28:17,350 Det gällde ju järnväg, det gällde ångbåtar, det gällde cykeln, internet, kärnkraft.

351 00:28:17,990 --> 00:28:22,270 Sen brukar folk lugna sig och i överdrift åt båda hållen framstås efter ett tag som just överdrifter.

352 00:28:22,710 --> 00:28:24,250 Är det inte samma sak med AI?

353 00:28:24,410 --> 00:28:28,270 Och att du riskerar att bli den här konservativa teknikpessimisten som folk...

354 00:28:28,390 --> 00:28:30,450 läser och skrattar åt 30 år senare?

355 00:28:30,950 --> 00:28:32,370 Jag förstår vad du säger.

356 00:28:32,710 --> 00:28:36,750 Och jag har en invändning som inte kommer att låta så övertygande.

357 00:28:36,970 --> 00:28:40,110 Men invändningen är att den här gången är annorlunda.

358 00:28:40,110 --> 00:28:42,830 Det brukar ha folk sagt tidigare också.

359 00:28:43,570 --> 00:28:45,110 Det är en tunn försvarslinje.

360 00:28:45,530 --> 00:28:58,370 Ja, men jag kan ju backa upp den då med att det faktiskt är annorlunda när det gäller att automatisera det här allra mest mänskliga, som jag menar då, tänkande och beslutsfattande och sådana här grejer.

361 00:28:58,390 --> 00:29:04,250 Det här att jag riskerar att stå med lång näsa när allting gick bra.

362 00:29:04,430 --> 00:29:12,030 Och kanske till och med att det gick bra trots att vi inte vidtog några särskilt omfattande säkerhetsåtgärder och så.

363 00:29:12,750 --> 00:29:13,630 Så kan det bli.

364 00:29:14,270 --> 00:29:17,890 Och ingen kommer att vara gladare än jag om det blir så.

365 00:29:17,990 --> 00:29:18,650 Jag bjuder på det.

366 00:29:18,750 --> 00:29:19,490 Du tar risken.

367 00:29:19,750 --> 00:29:19,930 Ja.

368 00:29:20,870 --> 00:29:23,230 Givet att de andra riskerna är så ofattbara.

369 00:29:23,730 --> 00:29:24,210 Precis.

370 00:29:24,210 --> 00:29:28,210 Och jag tror att om jag kan bidra lite, lite grann till...

371 00:29:28,390 --> 00:29:35,710 Att ni andra får upp ögonen för problematiken och börjar ta på allvar det här att vi kanske faktiskt kan göra någonting åt det.

372 00:29:36,330 --> 00:29:41,710 Så ja, men det är lite grann den mission jag har haft de senaste åren.

373 00:29:41,910 --> 00:29:44,790 Men om du har fel, varför hade du fel tror du?

374 00:29:45,670 --> 00:29:45,950 Ja.

375 00:29:46,830 --> 00:29:57,830 Jag tror att i så fall är det troligaste att det finns något tidigare okänt och helt oväntat hinder.

376 00:29:58,390 --> 00:30:04,270 Och glastak i att skapa övermänskligt kapabel AI.

377 00:30:04,790 --> 00:30:10,070 Alltså vi har ju redan övermänskligt kapabel AI på väldigt många enskilda områden.

378 00:30:10,350 --> 00:30:20,730 Men att det skulle kunna finnas något fundamentalt hinder mot att skapa en AI som är så bra så att den kan ta över världen.

379 00:30:21,130 --> 00:30:23,510 Jag har lite, lite svårt att se hur det skulle kunna vara så.

380 00:30:23,790 --> 00:30:26,050 Men det kan ju ändå vara så.

381 00:30:26,050 --> 00:30:26,450 Mm.

382 00:30:28,390 --> 00:30:36,510 AI-expert här i Sverige som jag pratade med häromdagen håller med om att det finns risker, problem, liknande om du har framhållit.

383 00:30:36,950 --> 00:30:43,290 Men avslutar med att säga att AI är en supermatematiker som inte ens kan knyta skosnören.

384 00:30:43,870 --> 00:30:44,010 Mm.

385 00:30:44,970 --> 00:30:45,670 Vad tänker du om det?

386 00:30:45,790 --> 00:30:47,410 Det kommer inte ut ur skärmen liksom.

387 00:30:47,410 --> 00:30:57,310 Nej men det är en ganska bra illustration till hur ojämna kompetenser AI har i förhållande till människan.

388 00:30:58,090 --> 00:30:58,150 Mm.

389 00:30:58,150 --> 00:31:03,690 Man kan vända på det och säga att det är människan som har väldigt ojämna kompetenser i förhållande till AI.

390 00:31:03,930 --> 00:31:10,070 Det är ju liksom logiskt, det är ekvivalenta ståndpunkter och beror på sättet att se på det då.

391 00:31:10,710 --> 00:31:18,190 Men jag tycker att jag ändå har försökt argumentera via det här konceptet med social manipulation och så.

392 00:31:18,350 --> 00:31:18,450 Mm.

393 00:31:18,450 --> 00:31:28,130 Att det här att AI fortfarande inte kan knyta skosnören behöver inte bli något avgörande hinder mot en AI.

394 00:31:28,150 --> 00:31:29,470 Det är ju katastrof, tyvärr.

395 00:31:30,810 --> 00:31:35,030 Om några viktiga politiker och beslutsfattare lyssnar på det här, vilket jag både tror och hoppas.

396 00:31:35,530 --> 00:31:40,290 Vad ska de göra konkret om de lyssnar på dig för att hantera AI-utvecklingen i Silicon Valley?

397 00:31:40,470 --> 00:31:41,190 Det är långt ifrån Sverige.

398 00:31:41,770 --> 00:31:46,150 Ja, så att du tänker dig att det är svenska politiker som...

399 00:31:46,790 --> 00:31:47,190 Ja, om...

400 00:31:47,190 --> 00:31:48,230 Vi pratar ju svenska förstås.

401 00:31:48,270 --> 00:31:49,050 Ja, eller företagsledare.

402 00:31:49,490 --> 00:31:51,950 Folk med mycket makt, som inte jag har i alla fall.

403 00:31:52,090 --> 00:31:54,590 Vad ska de göra med den här informationen som du lämnar här?

404 00:31:54,590 --> 00:31:57,590 Det finns ingen...

405 00:31:58,150 --> 00:32:07,190 AI-teknikutveckling i Sverige som är konkurrenskraftig med de här ledande kaliforniska bolagen.

406 00:32:07,530 --> 00:32:16,290 Så att i panik börja bromsa här i Sverige, det tror jag inte skulle ha någon särskild effekt.

407 00:32:16,290 --> 00:32:25,470 Utan det viktigaste är att i alla sammanhang där man kommer åt, lyfta den internationella diskussionen.

408 00:32:26,130 --> 00:32:27,690 Man kan lyfta den till EU.

409 00:32:27,850 --> 00:32:27,870 Mm.

410 00:32:27,870 --> 00:32:28,010 Mm.

411 00:32:28,010 --> 00:32:28,110 Mm.

412 00:32:28,110 --> 00:32:28,130 Mm.

413 00:32:28,470 --> 00:32:39,930 En del säger att det är ett lite irrelevant hörn av världen, men vi har ändå haft global påverkan genom GDPR-lagstiftning och så.

414 00:32:40,090 --> 00:32:44,390 Och det kan hända att AI-lagstiftningen kan få samma sorts påverkan.

415 00:32:45,030 --> 00:32:49,790 Och FN är lite tandlöst, NATO är ju gungning och så där.

416 00:32:50,630 --> 00:32:54,410 Så att världsläget är ju lite krångligt just nu.

417 00:32:54,410 --> 00:32:58,130 Men ta alla chanser, iformella och informella.

418 00:32:58,130 --> 00:33:12,110 I alla sammanhang att bonda med ledare från andra delar av världen och komma överens om att nu reser vi oss och säger stopp för den här fullkomligt vanvettiga utvecklingen.

419 00:33:12,110 --> 00:33:28,110 Det är inte okej att ett litet antal, kanske bara några få tusen personer i Bay Area riskerar alla våra liv och alla möjligheter.

420 00:33:28,110 --> 00:33:28,250 Det är inte okej att ett litet antal, kanske bara några få tusen personer i Bay Area riskerar alla våra liv och alla möjligheter.

421 00:33:28,250 --> 00:33:31,610 Till fortsatt mänsklig blomstring.

422 00:33:31,830 --> 00:33:34,110 Bara genom deras personliga ambitioner.

423 00:33:36,530 --> 00:33:40,290 Det finns ju vissa som ser AI som ett rimligt evolutionärt steg.

424 00:33:41,070 --> 00:33:42,770 Alltså dinosaurierna dog ut, fine.

425 00:33:42,910 --> 00:33:44,110 Det är ingen som sörjer det idag.

426 00:33:44,890 --> 00:33:46,730 Homo sapiens har vi gjort vårt.

427 00:33:49,670 --> 00:33:56,590 Den tanke som du ger uttryck här för, i alla fall om du lägger något normativt i den, att det är en okej utveckling.

428 00:33:56,590 --> 00:33:57,290 Jag hoppas.

429 00:33:57,290 --> 00:33:59,110 Det finns folk som resonerar så.

430 00:33:59,390 --> 00:33:59,970 Absolut.

431 00:34:00,430 --> 00:34:02,890 Och det finns flera man skulle önska.

432 00:34:04,170 --> 00:34:06,810 Det kallar jag för AI-successionism.

433 00:34:07,550 --> 00:34:24,230 Och om man ser tillräckligt långsiktigt på det här så tänker jag att om mänskligheten har tillräckligt gradvis

434 00:34:24,230 --> 00:34:26,090 och frivilligt.

435 00:34:26,250 --> 00:34:27,130 Och utan.

436 00:34:27,290 --> 00:34:34,630 Valda och underordnade omständigheter på jättelång sikt lämnat över till AI.

437 00:34:34,770 --> 00:34:38,310 Eller smält samman med AI.

438 00:34:38,909 --> 00:34:40,030 Så, fine.

439 00:34:40,850 --> 00:34:47,190 Men det AI-övertagande som jag verkligen, verkligen vänder mig starkt emot.

440 00:34:47,190 --> 00:34:56,850 Det är att vi någon gång 2029 eller något sånt där råkar ut för att AI dödar dig och mig.

441 00:34:57,290 --> 00:35:04,010 Och alla våra nära och kära anhöriga och alla övriga åtta miljarder invånare.

442 00:35:04,530 --> 00:35:05,850 Jag vill inte att det ska hända.

443 00:35:06,290 --> 00:35:10,750 Och jag är förvånad över hur ofta jag behöver försvara den ståndpunkten.

444 00:35:10,910 --> 00:35:16,610 För att, jag liksom, jag trodde att den var implicit i hur vi alla tänkte.

445 00:35:16,610 --> 00:35:21,950 Men det finns de som, ibland tänker jag mig att de bara tuffar sig.

446 00:35:22,190 --> 00:35:26,610 De som säger, de liksom vill stultsera mig att de tänker utanför boxen.

447 00:35:26,810 --> 00:35:26,830 Va?

448 00:35:27,290 --> 00:35:29,310 Det här är bara nästa evolutionära steg och sådär.

449 00:35:29,850 --> 00:35:34,190 Ja, jag är emot AI-apokalyps.

450 00:35:34,970 --> 00:35:36,630 Mm, det är också rimligt.

451 00:35:37,170 --> 00:35:41,510 Har du någon råd till oss vanliga människor som använder AI lite grann sådär ibland till vardags?

452 00:35:41,790 --> 00:35:43,910 Och hur ska vi fortsätta?

453 00:35:45,250 --> 00:35:49,690 Fortsätt att använda det som ett bra arbetsredskap.

454 00:35:50,450 --> 00:35:54,810 Var lite försiktig med att använda det privat.

455 00:35:55,730 --> 00:35:56,910 Det finns många, många...

456 00:35:57,290 --> 00:36:05,110 Det finns många äktenskap som har kraschat för att den ena parten har ständigt konsulterat ChatGPT

457 00:36:05,110 --> 00:36:08,950 angående de inomäktenskapliga grälen.

458 00:36:10,110 --> 00:36:18,610 Och ChatGPT och även andra konkurrenter då har ju den här, man kallar det för en psykofantisk tendens.

459 00:36:18,770 --> 00:36:19,590 Jag säger det.

460 00:36:19,590 --> 00:36:26,950 Så att den som kommer med sina äktenskapliga problem och berättar om den på ett tendensiöst sätt,

461 00:36:26,950 --> 00:36:30,090 som man brukar göra då, då kommer ju AI hålla med om den beskrivningen.

462 00:36:30,090 --> 00:36:31,150 Man blir bekräftad.

463 00:36:31,490 --> 00:36:39,870 Ja, och det finns många andra sådana här fällor i hur det kan gå snett med ett alltför intimt umgänge med AI.

464 00:36:39,870 --> 00:36:42,970 Om man frågar om man ska skilja sig, då kommer AI säga...

465 00:36:42,970 --> 00:36:46,530 Den kommer känna efter vilket svar du är ute efter.

466 00:36:46,690 --> 00:36:46,990 Okej.

467 00:36:48,870 --> 00:36:53,710 Och en kanske dum fråga, men det är vi skönlista till för.

468 00:36:54,110 --> 00:36:56,590 Jag vill ju inte ha AI som hjälp för att skriva.

469 00:36:56,710 --> 00:36:56,870 För jag älskar...

470 00:36:56,950 --> 00:36:59,270 Jag älskar att skriva och jag är hyfsat bra på det och försörjer mig på det.

471 00:36:59,690 --> 00:37:02,610 Jag vill gärna tänka mig att jag är liksom i samma läge här.

472 00:37:02,610 --> 00:37:09,890 Ja, men när kommer AI som då tummer diskmaskinen, besiktiga bilen, fixar återvinningen, hänger tvätten?

473 00:37:10,630 --> 00:37:14,290 Jag är inte säker på att vi får det före apokalypsen dessvärre.

474 00:37:15,490 --> 00:37:15,810 Okej.

475 00:37:16,190 --> 00:37:20,070 Men återigen, jag har ingen kristallkula.

476 00:37:20,310 --> 00:37:22,770 Om saker går jättebra så kanske vi har det.

477 00:37:24,390 --> 00:37:26,170 Nej, det är jättesvårt att säga.

478 00:37:26,170 --> 00:37:35,350 Alltså, får vi en alignad superintelligens, då har vi en diskmaskinsplockare veckan efter, eller så.

479 00:37:35,910 --> 00:37:47,510 Och om vi drar i nödbromsen och får en mer kontrollerad AI-utveckling, då kanske även sådana här hemrobotar dröjer lite längre också.

480 00:37:47,670 --> 00:37:54,270 Men det tycker jag skulle vara ett ringa pris att betala för vår överlevnad som art.

481 00:37:54,990 --> 00:37:55,870 Låter rimligt.

482 00:37:56,170 --> 00:38:01,110 Olle Häggström, du är statistiker, professor och framgångsrik forskare.

483 00:38:01,190 --> 00:38:05,070 Du sitter i Vetenskapsakademin och Ingenjörsvetenskapsakademin.

484 00:38:05,470 --> 00:38:10,010 Vilken skulle du säga är den stora lärdomen av det teknikgenombrott vi nu satt med AI?

485 00:38:11,670 --> 00:38:23,490 Ja, alltså, en viktig lärdom här är att inte ta mänsklighetens unika ställning som herrar över den här planeten för given.

486 00:38:23,930 --> 00:38:25,490 Därför att vi har...

487 00:38:26,170 --> 00:38:38,910 Allting tyder på att det inte finns någon övernaturlig själ eller någonting som gör att den mänskliga kompetensen är oefterliknande i maskiner.

488 00:38:39,130 --> 00:38:46,150 Utan vi kan få maskiner som gör allt det som vi gör snabbare än vi tror.

489 00:38:46,870 --> 00:38:49,970 En sista fråga också. Du är ju rätt framgångsrik inom ditt fält.

490 00:38:50,610 --> 00:38:53,530 Vad tror du själv om varför livet har blivit som det har blivit för dig?

491 00:38:53,530 --> 00:38:56,150 Vad handlar det om begåvning? Hårt arbete?

492 00:38:56,170 --> 00:38:57,610 Slump? Något helt annat?

493 00:38:59,190 --> 00:39:12,630 Alltså, slumpen styr ju vad man får med sig för genuppsättning och den jag fick var väl bra på en del sätt och mindre bra på andra sätt.

494 00:39:12,750 --> 00:39:20,410 Jag fick en väldigt bra uppväxt i ett studievänligt akademikerhem och så vidare.

495 00:39:20,410 --> 00:39:25,550 Det kan jag inte heller ta åt mig någon ära av utan det var tur.

496 00:39:26,170 --> 00:39:38,610 Alltså finns det en massa olika saker som kunde ha hänt längs vägen så att saker hade kunnat bli väldigt annorlunda.

497 00:39:38,610 --> 00:39:52,210 Men jag har haft en dragning till, alltså jag tror att jag är mer eller mindre född med någon slags forskarskäl så att jag har hamnat i den branschen.

498 00:39:54,290 --> 00:39:55,930 Om vi skulle köra om.

499 00:39:56,170 --> 00:40:04,490 Om vi skulle köra om bandet från början och se vad som händer så tror jag att jag ganska ofta skulle ha hamnat där igen.

500 00:40:04,710 --> 00:40:10,310 Kanske inte nödvändigtvis i matematiken men i några angränsade ämnen.

501 00:40:10,970 --> 00:40:12,990 Men det här är bara spekulationer.

502 00:40:13,690 --> 00:40:14,310 Så är det.

503 00:40:15,010 --> 00:40:22,010 Stort tack Olle Häggström för din medverkan i podden Den stora lärdomen och Den som lever får se och vi kanske ses om fem år.

504 00:40:22,290 --> 00:40:24,210 Tack så mycket, det ska bli kul. Jag hoppas det.

505 00:40:31,480 --> 00:41:01,460 Undertexter från Amara.org-gemenskapen

Källinformation

Utgivare:
Kvartal

Skapad: 5 maj 2026