Tillbaka till senaste
Olle Häggström – AI-skapad undergång innan 2030? – transkript
Samtal Med Cwejman Transkript 13 jan. 2026 06:00

Olle Häggström – AI-skapad undergång innan 2030? – transkript

<p>Olle Häggström är matematisk statistiker och professor vid Chalmers tekniska högskola i Göteborg. På senare år har han ägnat sig åt futurologi, existentiell risk och särskilt AI-säkerhet, både som forskningsnära ämne och skribent. Han driver substacken Crunch Time for Humanity där han beskriver sig som en orolig världsmedborgare och professor som försöker tänka igenom hur mänskligheten kan hantera en möjlig väg mot superintelligens på ett säkert sätt. Adam Cwejman pratar med honom om riskerna med AI. Hur ser de ut? Vad är det som kan hända? Och vad kan vi göra för att inte gå en AI-skapad undergång till mötes.</p><br /><p>Samtal med Cwejman är en podd från Göteborgs-Postens ledarredaktion, som är oberoende liberal.</p><p>Ansvarig utgivare: Christofer Ahlqvist&nbsp;</p><hr /><p style="color: grey; font-size: 0.75em;"> Hosted on Acast. See <a href="https://acast.com/privacy" rel="noopener noreferrer" style="color: grey;" target="_blank">acast.com/privacy</a> for more information.</p>

1 00:00:00,000 --> 00:00:01,440 Vad grillar du i sommar?

2 00:00:01,720 --> 00:00:06,860 På Citygross hittar du allt från grillkorv och högrevsburgare till det finaste köttet från svenska gårdar.

3 00:00:07,200 --> 00:00:09,740 Som picanha, sirloin steak eller secreto.

4 00:00:10,060 --> 00:00:14,760 Välj att vraka från hyllorna eller prata med oss i köttdisken och få det precis som du vill ha det.

5 00:00:15,560 --> 00:00:19,780 Unna dig svenskt kötthantverk på Citygross, matmarknaden där du kan unna dig allt.

6 00:00:20,920 --> 00:00:25,320 En del berättelser som Monsters Inc. stannar hos dig för alltid.

7 00:00:25,860 --> 00:00:28,020 Och Disney Plus är där du hittar dem.

8 00:00:28,020 --> 00:00:31,300 Från den episka ny säsongen av Paradise

9 00:00:31,300 --> 00:00:35,960 Till den fartfyllda Citropolis 2

10 00:00:35,960 --> 00:00:40,860 Eller spänningen i dramaserien The Testaments

11 00:00:40,860 --> 00:00:49,680 Abonnemang krävs 18 plus.

12 00:00:55,580 --> 00:00:57,940 Årets första gäst är Olle Häggström.

13 00:00:58,220 --> 00:01:02,340 Han är matematisk statistiker och professor vid Chalmers tekniska högskola i Göteborg.

14 00:01:02,340 --> 00:01:09,080 Han disputerade vid Chalmers 1994 och har forskat inom sannolikhetsteori med kopplingar till statistisk fysik.

15 00:01:09,560 --> 00:01:16,280 På senare år har han i ökade grad ägnat sig åt futurologi, existentiell risk och särskilt AI-säkerhet.

16 00:01:16,880 --> 00:01:19,200 Både som forskningsnära ämne och skribent.

17 00:01:19,740 --> 00:01:25,080 Han driver substacken Crunch Time for Humanity där han beskriver sig som en orolig världsmedborgare.

18 00:01:25,080 --> 00:01:32,080 Och professor som försöker tänka igenom hur mänskligheten kan hantera en möjlig väg mot superintelligens på ett säkert sätt.

19 00:01:32,340 --> 00:01:35,380 Jag ville prata med Olle om just de här riskerna.

20 00:01:35,820 --> 00:01:38,260 Hur ser de ut? Vad är det som kan hända?

21 00:01:38,800 --> 00:01:42,660 Och vad kan vi göra för att inte gå en AI-skapad undergång till mötes?

22 00:01:55,180 --> 00:01:58,800 Olle, kan inte du beskriva hur kommer det sig att du började?

23 00:01:58,980 --> 00:02:00,520 Din bakgrund är ju matematiker.

24 00:02:01,200 --> 00:02:06,140 Hur kommer det sig att du började intressera dig för artificiell intelligens och när?

25 00:02:07,020 --> 00:02:13,740 Ja, alltså man kan gå tillbaka redan till när jag läste grundutbildning i elektroteknik på Chalmers.

26 00:02:14,060 --> 00:02:15,820 På 80-talet.

27 00:02:17,120 --> 00:02:20,500 Då var det nästan ingen som höll på med AI.

28 00:02:20,660 --> 00:02:28,240 Men jag kom i kontakt. Jag hittade en bok av Douglas Hofstadter, Göda Lercher Bach som är en klassiker på området.

29 00:02:28,420 --> 00:02:36,980 Och jag insåg att det här med att förstå vad mänsklig intelligens är och få en maskin att göra samma sak.

30 00:02:37,320 --> 00:02:41,340 Det finns ju egentligen inget häftigare projekt alls att syssla med.

31 00:02:41,340 --> 00:02:42,340 Men det här var...

32 00:02:42,340 --> 00:02:50,040 Ja, när jag vände mig då till den ansvarige för forskarutbildningen på dåvarande informationen för informationsbehandling på Chalmers

33 00:02:50,040 --> 00:02:58,900 så sa han ungefär så här att ja, det där är ingenting som vi håller på med längre.

34 00:02:58,980 --> 00:03:05,860 Vi är seriösa, men jag har hört att det kanske finns en eller två forskare i Linköping som fortfarande intresserar sig för det här.

35 00:03:05,860 --> 00:03:12,100 Då blev jag lite nedslagen då och sen gick jag i mer matematisk riktning.

36 00:03:12,340 --> 00:03:16,540 Mitt arbete som jag absolut inte har någon anledning att ångra då.

37 00:03:16,580 --> 00:03:21,400 Men det förtjänade mitt engagemang i AI-frågor med ungefär 20 år.

38 00:03:22,540 --> 00:03:30,040 Så däremellan då så hann jag jobba matematiskt med sannolikhetsteori och det var väldigt teoretiskt inom vetenskapligt.

39 00:03:30,040 --> 00:03:36,780 Och jag var helt inriktad på det här att positionera mig som forskare och visa att jag kan.

40 00:03:37,240 --> 00:03:38,280 Det gick väldigt bra.

41 00:03:38,740 --> 00:03:42,040 Men det som händer med många matematiker när man börjar närma sig...

42 00:03:42,340 --> 00:03:45,000 Typ framåt mitten på karriären och så.

43 00:03:45,400 --> 00:03:53,960 Är att man börjar tycka att ska jag inte liksom leverera någonting till samhället utanför matematiken också.

44 00:03:54,100 --> 00:03:56,920 Och göra något mer tillämpat då.

45 00:03:59,720 --> 00:04:03,360 Och jag tog en lite annan approach än de flesta matematiker där.

46 00:04:03,460 --> 00:04:10,820 För det typiska då är att man tar de matematiska verktyg som man har och som man har utvecklat själv och sådär då.

47 00:04:11,160 --> 00:04:12,320 Och ser vad passar dem till.

48 00:04:12,340 --> 00:04:13,800 Jag frågade mig själv istället.

49 00:04:14,820 --> 00:04:16,500 Vilka är de viktigaste frågorna?

50 00:04:17,100 --> 00:04:21,040 Och hur kan man göra mänskligheten den största nyttan?

51 00:04:21,680 --> 00:04:23,420 Väldigt arrogant approach då.

52 00:04:23,540 --> 00:04:26,620 Men det var så jag tänkte.

53 00:04:26,920 --> 00:04:30,740 Och så initialt så drogs jag mot klimatfrågan.

54 00:04:30,820 --> 00:04:37,000 Men när jag väl började komma igång lite grann på det området så hade jag samtidigt fått upp ögonen då för att

55 00:04:37,780 --> 00:04:41,000 det finns ett knippe frågor kring...

56 00:04:42,340 --> 00:04:49,220 ...samväxlande nya teknologier som kan ha minst lika stor impact som klimatfrågan.

57 00:04:49,480 --> 00:04:56,300 Men som samtidigt är väldigt mycket mindre uppmärksammade och det skulle kunna göra större skillnad då.

58 00:04:56,380 --> 00:04:58,620 Nu talar vi sent 00-tal.

59 00:04:59,300 --> 00:05:04,100 Och AI är ju en av de frågorna då.

60 00:05:04,100 --> 00:05:10,540 Och sen har det växt fram mer och mer då som mitt huvudintresse de senaste åren.

61 00:05:11,100 --> 00:05:12,100 I takt med att...

62 00:05:12,340 --> 00:05:19,300 ...det har blivit tydligare för mig att AI-utvecklingen är helt...

63 00:05:19,300 --> 00:05:25,560 ...ja, kanske den allra mest styrande faktorn för hur vår framtid blir.

64 00:05:26,080 --> 00:05:33,820 Och det här är ju någonting som för de flesta människor så är idag, 2026, artificiell intelligens

65 00:05:33,820 --> 00:05:41,920 ett verktyg, en förhoppning, någonting man talar om hela tiden, någonting som ska införlivas i alla arbetsplatser och så vidare.

66 00:05:42,340 --> 00:05:49,720 Men du nämner ju återkommande, när du skriver om det här ämnet, två stycken framtidsscenarion.

67 00:05:50,000 --> 00:05:54,700 Det ena tycks vara katastrof och det andra kan vara ett bättre utfall, om det är min tolkning.

68 00:05:55,460 --> 00:06:01,580 Vad är den avgörande skillnaden som gör att det tippar åt det ena eller andra hållet, menar du?

69 00:06:01,580 --> 00:06:11,900 För att förstå hur AI sticker ut mot andra teknologier här så måste vi först och främst inse att AI har förmodligen potentialen då.

70 00:06:12,340 --> 00:06:19,800 Att gå från att vara ett verktyg till att bli en agent eller en aktör i sig själv.

71 00:06:21,240 --> 00:06:31,620 Och utvecklingskurvorna pekar så brant uppåt nu, så det är ju fler och fler insiders i branschen som säger att det här

72 00:06:33,460 --> 00:06:40,620 är en teknologi då som inom bara några få år kan komma att matcha.

73 00:06:41,420 --> 00:06:41,620 Den mänskliga...

74 00:06:42,340 --> 00:06:52,300 Den mänskliga kapaciteten att ta kontroll, alla de olika aspekterna av intelligens som man brukar prata om och så.

75 00:06:52,300 --> 00:07:01,380 Och då är ett sådant läge där vi får en AI som matchar eller rent av överträffar mänsklig intelligens.

76 00:07:01,480 --> 00:07:12,180 Den exakta matchningen är svår att få då eftersom intelligensprofilen ser väldigt olika ut hos människor jämfört med dagens AI.

77 00:07:12,340 --> 00:07:20,320 Så att när vi har ett läge som vi kan säga approximativt matchar så kommer vi troligen ganska kort därefter

78 00:07:20,320 --> 00:07:22,680 och ha någonting som är ganska överlägset.

79 00:07:22,800 --> 00:07:33,920 Och då hänger ju allting på vad de här maskinerna har för mål och drivkrafter och vad de är motiverade att göra.

80 00:07:34,600 --> 00:07:41,320 Och det gäller ju att se till att de första riktigt, riktigt kraftfulla...

81 00:07:42,180 --> 00:07:42,260 Oj!

82 00:07:42,340 --> 00:07:47,280 ...i systemen har mål och drivkrafter som är i linje med vad vi vill.

83 00:07:47,520 --> 00:07:51,000 Och det är klart att det kan vi ju ha en separat diskussion om om vi vill.

84 00:07:52,520 --> 00:08:07,240 Men typiskt handlar det om sådana här saker som mänsklig välfärd och mänsklig blomstring och sekundära saker som biologisk mångfald och allt sånt där då.

85 00:08:08,460 --> 00:08:12,280 Men om vi inte lyckas installera...

86 00:08:12,340 --> 00:08:16,620 Om vi inte lyckas installera de här målen i de första riktigt, riktigt kraftfulla maskinerna

87 00:08:16,620 --> 00:08:19,500 då kan vi vara riktigt illa ut.

88 00:08:19,860 --> 00:08:23,720 För då har de ju mål då som inte stämmer med våra och då uppstår en konflikt.

89 00:08:24,220 --> 00:08:33,659 Och det är en konflikt som om vi är den kognitivt svagare parten så har vi väldigt små chanser att klara den striden.

90 00:08:33,659 --> 00:08:41,039 Hela den dominans på planeten som människan har idag bygger ju på vår intelligens kan man säga.

91 00:08:41,179 --> 00:08:41,659 Våra kognitiva...

92 00:08:42,340 --> 00:08:42,799 Våra kognitiva förmågor.

93 00:08:43,080 --> 00:08:48,000 Vår muskelstyrka eller vår fysiska uthållighet och sådär har ju väldigt lite med saken att göra.

94 00:08:48,560 --> 00:09:00,560 Utan intelligensen är en enorm kraft och när vi delegerar den till maskiner, ja då får vi ju se efter, liksom vara väldigt försiktiga med hur vi gör det.

95 00:09:01,280 --> 00:09:12,260 När jag lyfter den här frågan och nämner att det finns den här sortens framtidsscenarion, att om vi inte når så kallad alignment, det är ju det du talar om.

96 00:09:12,340 --> 00:09:21,340 Det vill säga att våra mål linjerar med Ayns mål, då får jag höra att det här handlar ju bara om en sannolikhetsmaskin.

97 00:09:22,080 --> 00:09:36,800 Det här är ju bara en stor språkmodell, exempelvis ChatGPT, en fantastisk sannolikhetsmaskin som bara staplar de mest sannolika orden på varandra och gör det på en nivå som vi knappt kan föreställa oss.

98 00:09:36,800 --> 00:09:41,520 Men att det handlar inte om något mer än det.

99 00:09:41,680 --> 00:09:42,200 Ja.

100 00:09:42,200 --> 00:09:51,020 Tycker du det här är ett missförstånd? Eller är det någonting de inte förstår som menar att det här bara handlar om en sannolikhetsmaskin och att de därför inte förstår riskerna därmed?

101 00:09:51,160 --> 00:09:56,440 Jag hör ju detta resonemang också ofta. Och det är ett missförstånd på flera plan.

102 00:09:56,940 --> 00:10:07,320 En är ju, när du beskriver det här som en sannolikhetsmaskin, så är det en hygglig beskrivning bara av de oj-modeller som man får efter den så kallade pre-trainingen.

103 00:10:07,800 --> 00:10:11,440 Där den har tränats på att förutsäga nästa ord i internet.

104 00:10:12,200 --> 00:10:17,580 Men det sker ju väldigt mycket post-training också.

105 00:10:17,580 --> 00:10:23,700 Där man får AI och man försöker få den att bli, vad är slagorden där?

106 00:10:24,480 --> 00:10:27,440 Helpful, honest and harmless.

107 00:10:28,180 --> 00:10:34,660 Och styr mot de kriterierna med hjälp av så kallad reinforcement learning med human feedback.

108 00:10:35,600 --> 00:10:36,860 Så den beskrivningen stämmer inte.

109 00:10:36,860 --> 00:10:50,120 Men även om den skulle stämma så bygger hela resonemanget om att det inte kan uppstå något särskilt intressant från någonting som bara förutsäger nästa ord.

110 00:10:50,500 --> 00:11:03,300 Det bygger på att det inte skulle gå att skapa intressanta, komplexa, intelligenta system från ointelligenta beståndsdelar.

111 00:11:04,000 --> 00:11:06,340 Men du och jag är ju motexempel till detta.

112 00:11:06,860 --> 00:11:16,280 Hjärnor består ju egentligen bara utav atomer och elementarpartiklar som skällöst krockar med varandra.

113 00:11:16,280 --> 00:11:25,240 Men ändå så hela det aggregerade systemet i de geléklumpar som är våra hjärnor då.

114 00:11:25,820 --> 00:11:32,620 Visar ju sig kunna ge upphov till väldigt intressanta beteenden.

115 00:11:33,580 --> 00:11:36,480 Och det finns liksom inget.

116 00:11:36,860 --> 00:11:50,280 Jag har aldrig sett något övertygande resonemang som skulle säga att de här prediktionsmaskinerna skulle vara annorlunda i det här avseendet.

117 00:11:50,420 --> 00:11:56,360 Och inte ha den här potentialen för emergenta fenomen.

118 00:11:56,360 --> 00:12:04,440 I själva verket så har vi ju sett väldigt mycket emergenta fenomen redan från den här typen av teknik.

119 00:12:04,640 --> 00:12:05,360 Så att det där...

120 00:12:06,860 --> 00:12:11,780 Jag menar det är ett frästande resonemang men jag tycker att det är ett villospår i debatten.

121 00:12:11,780 --> 00:12:24,000 Vi människor är ju kulmen av miljarder år evolutionära utveckling från ensälliga varelser till mer avancerade varelser.

122 00:12:25,000 --> 00:12:35,520 Vi är fysiska varelser så att vår kognitiva förmåga, vår förmåga att tänka är ju skapt inte bara i ett vakuum med information.

123 00:12:35,520 --> 00:12:40,040 Utan det är ju ständigt i rörelser i en värld, i en fysisk värld.

124 00:12:41,160 --> 00:12:50,960 Kan man tala om intelligens i ett sorts språkligt matematiskt vakuum som uppstår utan den här fysiska komponenten.

125 00:12:51,020 --> 00:12:56,660 Som ju är på något sätt oskiljbar från vår upplevelse av att vara i världen.

126 00:12:57,320 --> 00:13:00,660 Det vill säga talar vi inte här om två specifikt olika fenomen.

127 00:13:00,660 --> 00:13:04,840 Att det här är en sorts intelligens men det är någonting helt annat.

128 00:13:05,520 --> 00:13:09,500 Liknas på något sätt egentligen vid den intelligens vi besitter.

129 00:13:09,500 --> 00:13:17,520 Det finns en forskningstradition som talar om embodied cognition.

130 00:13:18,280 --> 00:13:31,240 Som betonar just den här skillnaden och som inte tror på potentialen i maskiner som är utvecklade utan den här robotikaspekten då.

131 00:13:32,200 --> 00:13:35,280 Men jag tycker att vi redan har sett så mycket.

132 00:13:35,520 --> 00:13:39,520 Kommer ut ur de här icke-robot-systemen.

133 00:13:41,340 --> 00:13:53,520 Så att ganska mycket tyder på att de har fel i att det här skulle vara helt essentiellt för uppkomsten av intressanta intelligenssystem.

134 00:13:54,720 --> 00:13:57,120 Det kan fortfarande hända att det ligger någonting i det.

135 00:13:59,200 --> 00:14:05,120 Oavsett det så ska vi ju inte ta för givet att maskinerna.

136 00:14:05,520 --> 00:14:10,460 Maskintelligensen på alla sätt kommer att bli likadan som den mänskliga.

137 00:14:11,520 --> 00:14:22,640 Utan vi ser redan stora skillnader i till exempel kompetensprofilen hos en stor språkmodell jämfört med hos en människa.

138 00:14:22,640 --> 00:14:33,420 Den är överlägsen oss i vissa avseenden och sen kan den göra resonemangsfel och sånt som vi tycker är direkt löjliga.

139 00:14:35,520 --> 00:14:55,380 Men ska vi uppleva oss hotade av en intelligens som exempelvis kan generera ett CV på några mikrosekunder men har svårt att förstå hur löv inte utgör ett hinder för en bil som kör.

140 00:14:55,380 --> 00:15:05,500 Det vill säga att de har en väldigt låg intelligens när det kommer till sån här rumslig erfarenhet som ett litet barn har lyckats.

141 00:15:05,520 --> 00:15:11,520 Det vill säga att de har en väldigt låg intelligens när det kommer till sån här rumslig erfarenhet som ett litet barn har lyckats.

142 00:15:11,520 --> 00:15:16,520 Maskinerna skaffar ju sig mer och mer kompetens även om rumsliga fenomen.

143 00:15:16,520 --> 00:15:27,520 Jag är säker på att om du pratar med GPT-5 om vad löv kan ha för effekt på friktionen mot marken och sådana saker.

144 00:15:27,520 --> 00:15:32,520 Så kommer den nog kunna svara väldigt vettigt om de här sakerna.

145 00:15:32,520 --> 00:15:34,520 Sen är det ju en annan sak då.

146 00:15:34,520 --> 00:15:43,520 Exakt hur den, man kan inte idag placera in GPT-5 i en robotkropp och få den att gå bra.

147 00:15:43,520 --> 00:15:50,520 Men där sker ju en separat forskning också inom robotiken.

148 00:15:50,520 --> 00:16:03,520 Men det du är inne på här, det snuddar ju vi ett annat argument hos folk som tycker att vi inte behöver oroa oss då för de här katastrofscenarierna.

149 00:16:03,520 --> 00:16:04,520 Det är att peka på.

150 00:16:04,520 --> 00:16:11,520 Vi har ju enskilda inkompetenser hos de här maskinerna.

151 00:16:11,520 --> 00:16:20,520 Men även människor gör dumma saker och även vi har vita fläckar i vårt tänkande.

152 00:16:20,520 --> 00:16:28,520 Och det finns mängder av till exempel visuella illusioner som gör att våra hjärnor lurar oss.

153 00:16:28,520 --> 00:16:33,520 Och tankenötter som formellt sett är väldigt, väldigt enkla men som vi tenderar.

154 00:16:33,520 --> 00:16:37,520 Och tänker fel på med vårt mänskliga tänkande.

155 00:16:37,520 --> 00:16:43,520 Så det här att peka ut enskilda till korta kommanden.

156 00:16:43,520 --> 00:16:55,520 Dels är ju tendensen då att nästa generation AI löser många utav de problem som vi pratar om för nuvarande AI.

157 00:16:55,520 --> 00:17:01,520 Och det har vi sett gång på gång då under de här senaste tioårsperioden när utvecklingen har gått.

158 00:17:01,520 --> 00:17:04,520 Väldigt fort.

159 00:17:04,520 --> 00:17:16,520 Men det kan också vara så att AI klarar att bli bättre än oss på att ta makten över världen utan att lösa de här problemen.

160 00:17:16,520 --> 00:17:25,520 Det är inte säkert att det är nödvändigt att kunna knyta ett skosnöre till exempel för att ta makten över världen.

161 00:17:25,520 --> 00:17:28,520 Jag vet inte.

162 00:17:28,520 --> 00:17:30,520 Man ska väl helst inte föra in samtal.

163 00:17:30,520 --> 00:17:35,520 En samtal på ämnet Adolf Hitler.

164 00:17:35,520 --> 00:17:40,520 För det anses då vara att då har man liksom girat bort sig i diskussionen.

165 00:17:40,520 --> 00:17:49,520 Men jag skulle ändå vilja peka på honom som ett exempel på en entitet som nästan tog över Europa.

166 00:17:49,520 --> 00:17:57,520 Utan att överhuvudtaget använda sin egen fysiska förmåga.

167 00:17:57,520 --> 00:18:11,520 Hans kompetens bestod ju i att övertyga andra människor om att gå hans ärenden ute på slagfält och så vidare.

168 00:18:11,520 --> 00:18:22,520 På samma sätt så vi ser idag hur AI blir listigare och listigare.

169 00:18:22,520 --> 00:18:25,520 De här bästa språkmodellerna som vi har.

170 00:18:25,520 --> 00:18:32,520 Det är sådana här saker som social manipulation och bedrägligt beteende.

171 00:18:32,520 --> 00:18:40,520 Och om man sträcker ut den utvecklingen bara en liten bit in i framtiden.

172 00:18:40,520 --> 00:18:48,520 Så är det lätt att se framför sig scenarion då där AI använder sig av enskilda människor.

173 00:18:48,520 --> 00:18:53,520 Som sina händer och fingrar och verktyg ute i världen då.

174 00:18:53,520 --> 00:19:01,520 Så det är ett sätt som AI helt utan robotik egentligen skulle kunna ta kontrollen över utvecklingen.

175 00:19:01,520 --> 00:19:12,520 Om man accepterar din förutsägelse att AI utvecklar sig.

176 00:19:12,520 --> 00:19:16,520 Den kommer inte vara bra på allting men den kommer vara mycket kompetent.

177 00:19:16,520 --> 00:19:22,520 Och om den här exponentiella utvecklingen fortsätter i den här takten så kommer det gå ganska snabbt.

178 00:19:22,520 --> 00:19:26,520 Men man kan vara enig med dig om den saken.

179 00:19:26,520 --> 00:19:31,520 Vilket exempelvis techentreprenören och miljardären Mark Andreessen.

180 00:19:31,520 --> 00:19:34,520 Välkänd amerikansk profil.

181 00:19:34,520 --> 00:19:40,520 Han är nog helt enig med dig om utvecklingens hastighet, kompetens och blinda fläckor och så.

182 00:19:40,520 --> 00:19:44,520 Men han menar att, han har skrivit en lång text.

183 00:19:44,520 --> 00:19:46,520 Han menar att AI kommer rädda världen.

184 00:19:46,520 --> 00:19:48,520 Och han skriver så här.

185 00:19:48,520 --> 00:19:49,520 Just apropå det här.

186 00:19:49,520 --> 00:19:50,520 Ja den kommer vara mäktig.

187 00:19:50,520 --> 00:19:51,520 Men.

188 00:19:51,520 --> 00:19:53,520 Den kommer inte vilja göra oss illa.

189 00:19:53,520 --> 00:19:55,520 Eftersom AI vill inte.

190 00:19:55,520 --> 00:19:56,520 Den har inga mål.

191 00:19:56,520 --> 00:19:57,520 Den vill inte döda dig.

192 00:19:57,520 --> 00:19:59,520 Eftersom den inte är levande.

193 00:19:59,520 --> 00:20:01,520 Och AI är en maskin.

194 00:20:01,520 --> 00:20:05,520 Den kommer inte att bli levande mer än vad din brödrost kommer att bli.

195 00:20:05,520 --> 00:20:07,520 Har han fel? Varför?

196 00:20:07,520 --> 00:20:15,520 Vad har du för belägg för att den faktiskt kommer vara autonom och vilja ha en egen vilja?

197 00:20:15,520 --> 00:20:19,520 Låt mig då först signalera lite ödmjukhet här.

198 00:20:19,520 --> 00:20:22,520 Jag vill säga att jag har ingen kristallkula.

199 00:20:22,520 --> 00:20:23,520 Nej.

200 00:20:23,520 --> 00:20:25,520 Så jag kan inte med säkerhet säga hur det här.

201 00:20:25,520 --> 00:20:27,520 Och det har inte han heller?

202 00:20:27,520 --> 00:20:29,520 Han har inte heller det.

203 00:20:29,520 --> 00:20:33,520 Men jag har ju läst det här pappret vi pratar om.

204 00:20:33,520 --> 00:20:41,520 Och där uttrycker han sig med en tvärsäkerhet som inte är motiverad.

205 00:20:41,520 --> 00:20:47,520 Och det är ju vanligt då att lyfta fram just brödrosten som ett liksom.

206 00:20:47,520 --> 00:20:54,520 Den arketypiska maskinen för att vi ska se hur skällösa och dumma och viljelösa maskiner är.

207 00:20:54,520 --> 00:21:01,520 Men låt oss flytta oss från brödrosten till den nästan lika enkla termostaten.

208 00:21:01,520 --> 00:21:10,520 Den har, du kanske värjer dig mot att sätta ordet vilja på det den gör.

209 00:21:10,520 --> 00:21:14,520 Men den har i alla fall ett optimeringsmål.

210 00:21:14,520 --> 00:21:16,520 Om vi tar en utav termostater.

211 00:21:16,520 --> 00:21:21,520 En utav termostaterna jag har på mina radiatorer hemma i mitt hus.

212 00:21:21,520 --> 00:21:29,520 Så är de inställda då på att hålla rumstemperaturen vid 20 grader.

213 00:21:29,520 --> 00:21:32,520 Om temperaturen går under det då slår den på radiatorn.

214 00:21:32,520 --> 00:21:38,520 Och om temperaturen överstiger det så slår den av.

215 00:21:38,520 --> 00:21:45,520 Så i någon mening verkar den för att uppnå det här målet då med rumstemperaturen.

216 00:21:45,520 --> 00:21:55,520 Då menar jag att när vi talar om vilja och sådana saker hos maskiner.

217 00:21:55,520 --> 00:21:59,520 Så behöver vi inte mystifiera det.

218 00:21:59,520 --> 00:22:07,520 Och ta för givet att det kommer att innefatta medvetande till exempel.

219 00:22:07,520 --> 00:22:14,520 Och andra specifika egenskaper hos det mänskliga.

220 00:22:14,520 --> 00:22:16,520 Det mänskliga psyket.

221 00:22:16,520 --> 00:22:18,520 Utan att vilja någonting.

222 00:22:18,520 --> 00:22:24,520 Det handlar bara om att sträva mot ett specifikt mål.

223 00:22:24,520 --> 00:22:26,520 Som en termostat gör.

224 00:22:26,520 --> 00:22:33,520 Och som en värmesökande robotmissil gör.

225 00:22:33,520 --> 00:22:35,520 Och så vidare.

226 00:22:35,520 --> 00:22:38,520 Så det är inget mystiskt i det.

227 00:22:38,520 --> 00:22:40,520 Och det vi ser i dagens AI-utveckling då.

228 00:22:40,520 --> 00:22:42,520 Det är att det här.

229 00:22:42,520 --> 00:22:44,520 Vad ska man säga.

230 00:22:44,520 --> 00:22:47,520 Målsökande beteendet.

231 00:22:47,520 --> 00:22:50,520 Sker på fler och fler plan.

232 00:22:50,520 --> 00:22:54,520 Och mer och mer sofistikerat.

233 00:22:54,520 --> 00:22:56,520 Och vi vet inte.

234 00:22:56,520 --> 00:23:04,520 Hur vi ska få AI att styra mot det vi vill.

235 00:23:04,520 --> 00:23:06,520 Och den.

236 00:23:06,520 --> 00:23:10,520 Så det är ju det som du kallar för AI-landmängd problemet här.

237 00:23:10,520 --> 00:23:15,520 Det är ju den term som vi använder för det.

238 00:23:15,520 --> 00:23:22,520 Och den här problematiken är hanterbar.

239 00:23:22,520 --> 00:23:26,520 Så länge AI-systemen är så svaga som de är nu.

240 00:23:26,520 --> 00:23:30,520 Det kan gå fel i enskilda fall.

241 00:23:30,520 --> 00:23:32,520 Vi har sett fall då.

242 00:23:32,520 --> 00:23:39,520 Där stora språkmodeller har triggat personer till och med till självmord.

243 00:23:39,520 --> 00:23:44,520 Och andra olyckliga fall då.

244 00:23:44,520 --> 00:23:48,520 Men jag tror att de fall vi har sett hittills.

245 00:23:48,520 --> 00:23:52,520 De har kunnat skada enskilda människor.

246 00:23:52,520 --> 00:23:58,520 Men inte haft så stor skadeverkan på samhället som helhet.

247 00:23:58,520 --> 00:24:01,520 Men i takt med att AI blir mer och mer kapabel.

248 00:24:01,520 --> 00:24:04,520 Desto mer behöver vi bekymra oss för.

249 00:24:04,520 --> 00:24:08,520 Om den här förhöjda förmågan då.

250 00:24:08,520 --> 00:24:13,520 Riskerar att skada samhället som helhet.

251 00:24:13,520 --> 00:24:15,520 Och i extremfallet då.

252 00:24:15,520 --> 00:24:17,520 Som är någonting som jag faktiskt.

253 00:24:17,520 --> 00:24:19,520 Bekymrar mig över på riktigt då.

254 00:24:19,520 --> 00:24:22,520 Skulle kunna utplåna homo sapiens.

255 00:24:22,520 --> 00:24:27,520 Om vi drar ut den linjen från termostat.

256 00:24:27,520 --> 00:24:29,520 Som fyller en förprogrammerad.

257 00:24:29,520 --> 00:24:31,520 Eller en del av dess mekanik så att säga.

258 00:24:31,520 --> 00:24:35,520 En förprogrammerad funktion.

259 00:24:35,520 --> 00:24:37,520 Vad skulle få en mer.

260 00:24:37,520 --> 00:24:39,520 Utvecklad AI.

261 00:24:39,520 --> 00:24:41,520 Att vilja utplåna mänskligheten.

262 00:24:41,520 --> 00:24:43,520 Här kommer vi då.

263 00:24:43,520 --> 00:24:45,520 Till det som kallas för.

264 00:24:45,520 --> 00:24:47,520 Black box egenskapen.

265 00:24:47,520 --> 00:24:49,520 Hos moderna så kallade.

266 00:24:49,520 --> 00:24:51,520 Deep learning system.

267 00:24:51,520 --> 00:24:53,520 Som handlar om att.

268 00:24:53,520 --> 00:24:55,520 Det är ingen.

269 00:24:55,520 --> 00:24:57,520 Inte ens AI utvecklarna själva.

270 00:24:57,520 --> 00:24:59,520 Som riktigt förstår.

271 00:24:59,520 --> 00:25:01,520 Vad som händer där.

272 00:25:01,520 --> 00:25:03,520 Djupt inne i de.

273 00:25:03,520 --> 00:25:05,520 Neurala nätverken.

274 00:25:05,520 --> 00:25:07,520 Som får AI agera.

275 00:25:07,520 --> 00:25:09,520 Så som de gör.

276 00:25:09,520 --> 00:25:11,520 Det här gör att.

277 00:25:11,520 --> 00:25:13,520 Vi har inte koll på.

278 00:25:13,520 --> 00:25:15,520 Vilka emergenta mål.

279 00:25:15,520 --> 00:25:17,520 Som kan uppstå.

280 00:25:17,520 --> 00:25:19,520 Och det här.

281 00:25:19,520 --> 00:25:21,520 Man kan dra en parallell här.

282 00:25:21,520 --> 00:25:23,520 Till.

283 00:25:23,520 --> 00:25:25,520 Biologisk evolution.

284 00:25:25,520 --> 00:25:27,520 Om du tänker dig.

285 00:25:27,520 --> 00:25:29,520 Lite.

286 00:25:29,520 --> 00:25:31,520 Metaforiskt då.

287 00:25:31,520 --> 00:25:33,520 Den biologiska evolutionen.

288 00:25:33,520 --> 00:25:35,520 Som.

289 00:25:35,520 --> 00:25:37,520 Att den vill.

290 00:25:37,520 --> 00:25:39,520 Styra människan då.

291 00:25:39,520 --> 00:25:41,520 Till att maximera.

292 00:25:41,520 --> 00:25:43,520 Reproduktion.

293 00:25:43,520 --> 00:25:45,520 Så.

294 00:25:45,520 --> 00:25:47,520 För det mesta.

295 00:25:47,520 --> 00:25:49,520 Går det bra.

296 00:25:49,520 --> 00:25:51,520 Och människan på.

297 00:25:51,520 --> 00:25:53,520 Savannen för.

298 00:25:53,520 --> 00:25:55,520 Tiotusentals eller hundratusentals.

299 00:25:55,520 --> 00:25:57,520 År sedan hade mestadels.

300 00:25:57,520 --> 00:25:59,520 Beteenden.

301 00:25:59,520 --> 00:26:01,520 Som gynnade reproduktionen.

302 00:26:01,520 --> 00:26:03,520 Men vad har vi sett.

303 00:26:03,520 --> 00:26:05,520 I historisk tid.

304 00:26:05,520 --> 00:26:07,520 Mer och mer konstiga beteenden.

305 00:26:07,520 --> 00:26:09,520 Som.

306 00:26:09,520 --> 00:26:11,520 Ja.

307 00:26:11,520 --> 00:26:13,520 Preventivmedel till exempel.

308 00:26:13,520 --> 00:26:15,520 Helt vansinnig grej.

309 00:26:15,520 --> 00:26:17,520 För en entitet.

310 00:26:17,520 --> 00:26:19,520 Som vill.

311 00:26:19,520 --> 00:26:21,520 Maximera reproduktion.

312 00:26:21,520 --> 00:26:23,520 Men är ju ett väldigt.

313 00:26:23,520 --> 00:26:25,520 Viktigt inslag.

314 00:26:25,520 --> 00:26:27,520 I mänskligt beteende.

315 00:26:27,520 --> 00:26:29,520 Idag.

316 00:26:29,520 --> 00:26:31,520 Det hade varit väldigt långsökt.

317 00:26:31,520 --> 00:26:33,520 För någon att förutse.

318 00:26:33,520 --> 00:26:35,520 En entitet som optimeras.

319 00:26:35,520 --> 00:26:37,520 För att maximera reproduktion.

320 00:26:37,520 --> 00:26:39,520 Ska starta Apollo programmet.

321 00:26:39,520 --> 00:26:41,520 För att.

322 00:26:41,520 --> 00:26:43,520 Landsätta.

323 00:26:43,520 --> 00:26:45,520 Individer av den egna arten.

324 00:26:45,520 --> 00:26:47,520 På molnen.

325 00:26:47,520 --> 00:26:49,520 Det är liksom den sterilaste.

326 00:26:49,520 --> 00:26:51,520 Utav platser vi känner till.

327 00:26:51,520 --> 00:26:53,520 Så att emergenta.

328 00:26:53,520 --> 00:26:55,520 Fenomen tenderar.

329 00:26:55,520 --> 00:26:57,520 Att oförutsedda.

330 00:26:57,520 --> 00:26:59,520 Fenomen tenderar att.

331 00:26:59,520 --> 00:27:01,520 Uppstå ur sådana här.

332 00:27:01,520 --> 00:27:03,520 Black box.

333 00:27:03,520 --> 00:27:05,520 System för att.

334 00:27:05,520 --> 00:27:07,520 Evolutionen agerar ju inte med någon insikt.

335 00:27:07,520 --> 00:27:09,520 I hur den mänskliga hjärnan.

336 00:27:09,520 --> 00:27:11,520 Fungerar.

337 00:27:11,520 --> 00:27:13,520 Med något finlir utan.

338 00:27:13,520 --> 00:27:15,520 Det handlar om.

339 00:27:15,520 --> 00:27:17,520 Selektion.

340 00:27:17,520 --> 00:27:19,520 Utav de som lyckas reproducera sig.

341 00:27:19,520 --> 00:27:21,520 Det finns.

342 00:27:21,520 --> 00:27:23,520 Starka analogier mellan det här och det sätt.

343 00:27:23,520 --> 00:27:25,520 På vilket.

344 00:27:25,520 --> 00:27:27,520 AI tas fram nu.

345 00:27:27,520 --> 00:27:29,520 Som mer egentligen liknar.

346 00:27:29,520 --> 00:27:31,520 Odling och växtförädling.

347 00:27:31,520 --> 00:27:33,520 Än klassisk.

348 00:27:33,520 --> 00:27:35,520 Ingenjörskonst.

349 00:27:35,520 --> 00:27:37,520 Där man tänker ut hur systemet ska fungera.

350 00:27:37,520 --> 00:27:39,520 Och sen sätter det upp komponenter.

351 00:27:39,520 --> 00:27:41,520 På olika sätt då.

352 00:27:41,520 --> 00:27:43,520 Kugghjul och.

353 00:27:43,520 --> 00:27:45,520 Axlar och sådana här saker.

354 00:27:45,520 --> 00:27:47,520 Utan det är mer som odling.

355 00:27:47,520 --> 00:27:49,520 Och då uppstår saker som vi.

356 00:27:49,520 --> 00:28:00,480 Som är oväntade.

357 00:28:00,480 --> 00:28:02,480 Det händer något i oss.

358 00:28:02,480 --> 00:28:04,480 När vi odlar vattnar.

359 00:28:04,480 --> 00:28:06,480 Och ser det växa.

360 00:28:06,480 --> 00:28:08,480 Då känner vi oss som bäst på jorden.

361 00:28:08,480 --> 00:28:10,480 Hos granngården hittar du allt för att komma igång.

362 00:28:10,480 --> 00:28:12,480 Just nu.

363 00:28:12,480 --> 00:28:14,480 15 kilo gräsmatt i gödsel.

364 00:28:14,480 --> 00:28:16,480 Grön effekt för 329.

365 00:28:16,480 --> 00:28:18,480 Granngården.

366 00:28:18,480 --> 00:28:20,480 Här börjar livet med djur och trädgård.

367 00:28:20,480 --> 00:28:22,480 Mia Schäringer är här som vill berätta för dig.

368 00:28:22,480 --> 00:28:24,480 Att den 17 september.

369 00:28:24,480 --> 00:28:26,480 Så har jag premiär på min nya föreställning.

370 00:28:26,480 --> 00:28:28,480 Mia myself a night.

371 00:28:28,480 --> 00:28:30,480 Sista måltiden på Kina teatern.

372 00:28:30,480 --> 00:28:32,480 Och den handlar om att försöka hitta sig själv.

373 00:28:32,480 --> 00:28:34,480 I det här grappet mellan vad man visar upp utåt.

374 00:28:34,480 --> 00:28:36,480 Och vem man egentligen är.

375 00:28:36,480 --> 00:28:38,480 Det kommer att bli kaos.

376 00:28:38,480 --> 00:28:40,480 Men framförallt.

377 00:28:40,480 --> 00:28:42,480 Kommer det bli jävligt roligt.

378 00:28:42,480 --> 00:28:58,520 På min bekostnad.

379 00:28:58,520 --> 00:29:00,520 Mitt intryck är att 2022.

380 00:29:00,520 --> 00:29:02,520 När ChatGPT fick.

381 00:29:02,520 --> 00:29:04,520 Bredare spridning.

382 00:29:04,520 --> 00:29:06,520 Ja den kom ju i november 2022.

383 00:29:06,520 --> 00:29:08,520 Ja precis.

384 00:29:08,520 --> 00:29:10,520 Då var det.

385 00:29:10,520 --> 00:29:12,520 Mer prat om.

386 00:29:12,520 --> 00:29:14,520 Det du uppmärksammar nu.

387 00:29:14,520 --> 00:29:16,520 Det var ju samma veva som.

388 00:29:16,520 --> 00:29:18,520 Elon Musk föreslog.

389 00:29:18,520 --> 00:29:20,520 Någon sorts moratorium på vissa modeller.

390 00:29:20,520 --> 00:29:22,520 Ja.

391 00:29:22,520 --> 00:29:24,520 Den är mitt intryck.

392 00:29:24,520 --> 00:29:26,520 Att de som varnade mest.

393 00:29:26,520 --> 00:29:28,520 Är idag perifera.

394 00:29:28,520 --> 00:29:30,520 I den stora.

395 00:29:30,520 --> 00:29:32,520 Diskussionen om AI.

396 00:29:32,520 --> 00:29:34,520 Och att det istället har ersatts av.

397 00:29:34,520 --> 00:29:36,520 Kapplöpning.

398 00:29:36,520 --> 00:29:38,520 Mellan USA och Kina.

399 00:29:38,520 --> 00:29:40,520 När det kommer till hur kan man göra.

400 00:29:40,520 --> 00:29:42,520 De mest avancerade modellerna så fort som möjligt.

401 00:29:42,520 --> 00:29:44,520 Och inom resten av samhället.

402 00:29:44,520 --> 00:29:46,520 Så är man mest brydd om.

403 00:29:46,520 --> 00:29:48,520 Hur kan vi införliva så mycket.

404 00:29:48,520 --> 00:29:50,520 Artificiell intelligens som det bara är möjligt.

405 00:29:50,520 --> 00:29:52,520 På så många arbetsplatser.

406 00:29:52,520 --> 00:29:54,520 Och institutioner som möjligt.

407 00:29:54,520 --> 00:29:56,520 Det vill säga.

408 00:29:56,520 --> 00:29:58,520 Det tycks som att all försiktighet.

409 00:29:58,520 --> 00:30:00,520 Är satt åt sidan.

410 00:30:00,520 --> 00:30:02,520 Ganska mycket.

411 00:30:02,520 --> 00:30:04,520 Det tycks inte vara en politisk fråga.

412 00:30:04,520 --> 00:30:06,520 Huvudtaget.

413 00:30:06,520 --> 00:30:08,520 Jag har inte fått det intrycket i Sverige.

414 00:30:08,520 --> 00:30:10,520 Eller möjligtvis på EU nivå.

415 00:30:10,520 --> 00:30:12,520 Definitivt inte i USA.

416 00:30:12,520 --> 00:30:14,520 Och definitivt inte under den sittande.

417 00:30:14,520 --> 00:30:16,520 Administrationen.

418 00:30:16,520 --> 00:30:18,520 Där den AI ansvariga.

419 00:30:18,520 --> 00:30:20,520 David Sachs.

420 00:30:20,520 --> 00:30:22,520 Kör det i full fart.

421 00:30:22,520 --> 00:30:24,520 Så fort det kommer en invändning.

422 00:30:24,520 --> 00:30:26,520 Så säger han.

423 00:30:26,520 --> 00:30:28,520 Det är AI doomers och vi vill inte förlora.

424 00:30:28,520 --> 00:30:30,520 I kapplöpningen med Kina.

425 00:30:30,520 --> 00:30:32,520 Det vill säga det är en sorts motsvarande.

426 00:30:32,520 --> 00:30:34,520 Kärnvapen kapplöpning.

427 00:30:34,520 --> 00:30:36,520 Eller rymdkapplöpning.

428 00:30:36,520 --> 00:30:38,520 Det är den inramningen.

429 00:30:38,520 --> 00:30:40,520 Så att även ifall.

430 00:30:40,520 --> 00:30:42,520 Rätt många varnar.

431 00:30:42,520 --> 00:30:44,520 Så är ni vi.

432 00:30:44,520 --> 00:30:46,520 Jag har också skrivit varnande.

433 00:30:46,520 --> 00:30:48,520 Om artificiell intelligens.

434 00:30:48,520 --> 00:30:50,520 Så tycks det som att vi nästan bara får titta på.

435 00:30:50,520 --> 00:30:52,520 Medan vi kör.

436 00:30:52,520 --> 00:30:54,520 Full fart framåt.

437 00:30:54,520 --> 00:30:56,520 Tycker du det är en korrekt beskrivning.

438 00:30:56,520 --> 00:30:58,520 Av vår tid.

439 00:30:58,520 --> 00:31:00,520 Ja det ligger mycket i den beskrivningen.

440 00:31:00,520 --> 00:31:02,520 Jag tyckte att under 2023.

441 00:31:02,520 --> 00:31:04,520 Så att året som följde på.

442 00:31:04,520 --> 00:31:06,520 Att chat GPT släpptes.

443 00:31:06,520 --> 00:31:08,520 Så hade.

444 00:31:08,520 --> 00:31:10,520 AI säkerhets.

445 00:31:10,520 --> 00:31:12,520 Debatten.

446 00:31:12,520 --> 00:31:14,520 Ett bra momentum.

447 00:31:14,520 --> 00:31:16,520 Och att det har matsats.

448 00:31:16,520 --> 00:31:18,520 Av lite grann.

449 00:31:18,520 --> 00:31:20,520 Samtidigt så kan man ju inte säga.

450 00:31:20,520 --> 00:31:22,520 Som varnar för riskerna.

451 00:31:22,520 --> 00:31:24,520 Uteslutande.

452 00:31:24,520 --> 00:31:26,520 Perifera personer.

453 00:31:26,520 --> 00:31:28,520 Jag kan ju möjligen beskriva.

454 00:31:28,520 --> 00:31:30,520 Som en sån som sitter här i Göteborg.

455 00:31:30,520 --> 00:31:32,520 När det är i San Francisco området.

456 00:31:32,520 --> 00:31:34,520 Som liksom.

457 00:31:34,520 --> 00:31:36,520 Allting händer då.

458 00:31:36,520 --> 00:31:38,520 Men du minns säkert.

459 00:31:38,520 --> 00:31:40,520 Jeffrey Hintons.

460 00:31:40,520 --> 00:31:42,520 Nobelpris.

461 00:31:42,520 --> 00:31:44,520 Hösten.

462 00:31:44,520 --> 00:31:46,520 2024.

463 00:31:46,520 --> 00:31:48,520 Han beskrivs ju som en av.

464 00:31:48,520 --> 00:31:50,520 Utvecklingens gudfäder då.

465 00:31:50,520 --> 00:31:52,520 Och möjligtvis kan sägas.

466 00:31:52,520 --> 00:31:54,520 Var den som har betytt mest.

467 00:31:54,520 --> 00:31:56,520 För den moderna.

468 00:31:56,520 --> 00:31:58,520 AI utvecklingen.

469 00:31:58,520 --> 00:32:00,520 Och han pratar ju väldigt explicit.

470 00:32:00,520 --> 00:32:02,520 Om de här sakerna.

471 00:32:02,520 --> 00:32:04,520 Och jag minns hur han.

472 00:32:04,520 --> 00:32:06,520 Lite grann chockade.

473 00:32:06,520 --> 00:32:08,520 De församlade journalisterna då.

474 00:32:08,520 --> 00:32:10,520 Vid den initiala presskonferensen då.

475 00:32:10,520 --> 00:32:12,520 Som bara var timmar.

476 00:32:12,520 --> 00:32:14,520 Efter att han hade fått reda på.

477 00:32:14,520 --> 00:32:16,520 Priset själv då.

478 00:32:16,520 --> 00:32:18,520 Det var ju även ett tal på Nobelbanketten.

479 00:32:18,520 --> 00:32:20,520 Som pratade explicit.

480 00:32:20,520 --> 00:32:22,520 Om de här riskerna.

481 00:32:22,520 --> 00:32:24,520 Och han och Joshua Bengio.

482 00:32:24,520 --> 00:32:26,520 Och Ilya Setskuver.

483 00:32:26,520 --> 00:32:28,520 Är de tre mest citerade.

484 00:32:28,520 --> 00:32:30,520 AI forskarna.

485 00:32:30,520 --> 00:32:32,520 Och alla tre är väldigt explicita.

486 00:32:32,520 --> 00:32:34,520 Med vikten utav att hantera.

487 00:32:34,520 --> 00:32:36,520 De här riskerna.

488 00:32:36,520 --> 00:32:38,520 Sen kan vi gå vidare då.

489 00:32:38,520 --> 00:32:40,520 Till ledarna.

490 00:32:40,520 --> 00:32:42,520 För de här.

491 00:32:42,520 --> 00:32:44,520 AI labben då.

492 00:32:44,520 --> 00:32:46,520 Om vi tar.

493 00:32:46,520 --> 00:32:48,520 De tre ledande.

494 00:32:48,520 --> 00:32:50,520 AI företagarna.

495 00:32:50,520 --> 00:32:52,520 OpenAI, Anthropic och Google Deepmind.

496 00:32:52,520 --> 00:32:54,520 Så var.

497 00:32:54,520 --> 00:32:56,520 Ledarna för AI verksamheten där.

498 00:32:56,520 --> 00:32:58,520 Sam Altman.

499 00:32:58,520 --> 00:33:00,520 På OpenAI.

500 00:33:00,520 --> 00:33:02,520 Daria Amodei på Anthropic.

501 00:33:02,520 --> 00:33:04,520 Och Demis Hassabis.

502 00:33:04,520 --> 00:33:06,520 På Google Deepmind.

503 00:33:06,520 --> 00:33:08,520 De var ju alla tre med.

504 00:33:08,520 --> 00:33:10,520 Och skrev under det brevet.

505 00:33:10,520 --> 00:33:12,520 I maj 2023.

506 00:33:12,520 --> 00:33:14,520 Som.

507 00:33:14,520 --> 00:33:16,520 Uppmanade till.

508 00:33:16,520 --> 00:33:18,520 Alla risken för.

509 00:33:18,520 --> 00:33:20,520 Mänsklig utplåning från AI.

510 00:33:20,520 --> 00:33:22,520 Som en utav de.

511 00:33:22,520 --> 00:33:24,520 Stora riskerna då.

512 00:33:24,520 --> 00:33:26,520 På nivå med kärnvapen.

513 00:33:26,520 --> 00:33:28,520 Faran och.

514 00:33:28,520 --> 00:33:30,520 Pandemier.

515 00:33:30,520 --> 00:33:32,520 Vad gör de konkret då?

516 00:33:32,520 --> 00:33:34,520 De tre finns kvar idag.

517 00:33:34,520 --> 00:33:36,520 På de här företagen.

518 00:33:36,520 --> 00:33:38,520 Men pratar.

519 00:33:38,520 --> 00:33:40,520 Som du mycket riktigt påpekar då.

520 00:33:40,520 --> 00:33:42,520 Mycket mindre om de här sakerna.

521 00:33:42,520 --> 00:33:44,520 Än vad de gjorde.

522 00:33:44,520 --> 00:33:46,520 För två och ett halvt år sedan.

523 00:33:46,520 --> 00:33:48,520 Vad kommer det sig?

524 00:33:48,520 --> 00:33:50,520 Ja men det verkar.

525 00:33:50,520 --> 00:33:52,520 Som att.

526 00:33:52,520 --> 00:33:54,520 Det är väldigt väldigt svårt.

527 00:33:54,520 --> 00:33:56,520 Att driva.

528 00:33:56,520 --> 00:33:58,520 Ett ledande techföretag.

529 00:33:58,520 --> 00:34:00,520 Utan att.

530 00:34:00,520 --> 00:34:02,520 Påverkas.

531 00:34:02,520 --> 00:34:04,520 Så hårt utav.

532 00:34:04,520 --> 00:34:06,520 Den hårda marknads och företags.

533 00:34:06,520 --> 00:34:08,520 Logiken då.

534 00:34:08,520 --> 00:34:10,520 De säger ju.

535 00:34:10,520 --> 00:34:12,520 Saker till sig själva.

536 00:34:12,520 --> 00:34:14,520 Som.

537 00:34:14,520 --> 00:34:16,520 Handlar om att.

538 00:34:16,520 --> 00:34:18,520 Om inte vi gör det.

539 00:34:18,520 --> 00:34:20,520 Så gör någon annan det.

540 00:34:20,520 --> 00:34:22,520 Åtminstone på Anthropic.

541 00:34:22,520 --> 00:34:24,520 Och i viss mån även på OpenAI.

542 00:34:24,520 --> 00:34:26,520 Så menar man ju också.

543 00:34:26,520 --> 00:34:28,520 Att det är väldigt viktigt.

544 00:34:28,520 --> 00:34:30,520 Att vi hinner först i det här racet.

545 00:34:30,520 --> 00:34:32,520 Inte för vår egen skull.

546 00:34:32,520 --> 00:34:34,520 Utan för mänsklighetens skull.

547 00:34:34,520 --> 00:34:36,520 För att vi är bäst på.

548 00:34:36,520 --> 00:34:38,520 Att hantera den här säkerhetsaspekten.

549 00:34:38,520 --> 00:34:40,520 Och se till att utfallet.

550 00:34:40,520 --> 00:34:42,520 Blir bra för mänsklighet.

551 00:34:42,520 --> 00:34:44,520 Minst en utav de parterna.

552 00:34:44,520 --> 00:34:46,520 Som jag förstår.

553 00:34:46,520 --> 00:34:48,520 Har fel om detta.

554 00:34:48,520 --> 00:34:50,520 Så att det finns mycket.

555 00:34:50,520 --> 00:34:52,520 I mänsklig psykologi.

556 00:34:52,520 --> 00:34:54,520 Som.

557 00:34:54,520 --> 00:34:56,520 Kan förklara.

558 00:34:56,520 --> 00:34:58,520 Det här beteendet.

559 00:34:58,520 --> 00:35:00,520 Men de har fortfarande kvar.

560 00:35:00,520 --> 00:35:02,520 En.

561 00:35:02,520 --> 00:35:04,520 Viss i alla fall.

562 00:35:04,520 --> 00:35:06,520 Medvetenhet.

563 00:35:06,520 --> 00:35:08,520 Om att.

564 00:35:08,520 --> 00:35:10,520 De leder in.

565 00:35:10,520 --> 00:35:12,520 Mänskligheten på en väg.

566 00:35:12,520 --> 00:35:14,520 Som kan sluta.

567 00:35:14,520 --> 00:35:16,520 Med katastrof.

568 00:35:16,520 --> 00:35:18,520 Även om de gör mycket då.

569 00:35:18,520 --> 00:35:20,520 För att i sin dagliga gärning då.

570 00:35:20,520 --> 00:35:22,520 Förtränga den här insikten.

571 00:35:22,520 --> 00:35:24,520 Och.

572 00:35:24,520 --> 00:35:26,520 Som du också påpekar.

573 00:35:26,520 --> 00:35:28,520 Så har vi ju då.

574 00:35:28,520 --> 00:35:30,520 En Trump administration i USA.

575 00:35:30,520 --> 00:35:32,520 Som inte gör den här situationen lättare.

576 00:35:32,520 --> 00:35:34,520 Jag blev ganska förfärad.

577 00:35:34,520 --> 00:35:36,520 När JD Vance.

578 00:35:36,520 --> 00:35:38,520 På det stora AI mötet.

579 00:35:38,520 --> 00:35:40,520 I Paris.

580 00:35:40,520 --> 00:35:42,520 I februari.

581 00:35:42,520 --> 00:35:44,520 Förra året.

582 00:35:44,520 --> 00:35:46,520 Han talar ju direkt nedsättande.

583 00:35:46,520 --> 00:35:48,520 Om säkerhetstänkande.

584 00:35:48,520 --> 00:35:50,520 Så att liksom.

585 00:35:50,520 --> 00:35:52,520 Framsteg här görs inte.

586 00:35:52,520 --> 00:35:54,520 Via att man ojar sig över AI safety.

587 00:35:54,520 --> 00:35:56,520 Utan framsteg sker genom.

588 00:35:56,520 --> 00:35:58,520 Att man bygger, bygger, bygger.

589 00:35:58,520 --> 00:36:00,520 Och så vidare.

590 00:36:00,520 --> 00:36:02,520 Så.

591 00:36:02,520 --> 00:36:04,520 Vi har liksom.

592 00:36:04,520 --> 00:36:06,520 Ett problem på flera plan här.

593 00:36:06,520 --> 00:36:08,520 Men jag menar att.

594 00:36:08,520 --> 00:36:10,520 Vi får.

595 00:36:10,520 --> 00:36:12,520 Jag menar hela vår framtid.

596 00:36:12,520 --> 00:36:14,520 Står ju på spel.

597 00:36:14,520 --> 00:36:16,520 Så att det duger inte att sådana.

598 00:36:16,520 --> 00:36:18,520 Som du och jag som ändå.

599 00:36:18,520 --> 00:36:20,520 Kanske önskar.

600 00:36:20,520 --> 00:36:22,520 En annan väg.

601 00:36:22,520 --> 00:36:24,520 Du har egentligen inte satt ner foten här.

602 00:36:24,520 --> 00:36:26,520 Vad du tycker om de här frågorna.

603 00:36:26,520 --> 00:36:28,520 Det skulle kanske vara intressant.

604 00:36:28,520 --> 00:36:30,520 Att höra också.

605 00:36:30,520 --> 00:36:32,520 Hur du skulle vilja se.

606 00:36:32,520 --> 00:36:34,520 Framtiden utveckla sig.

607 00:36:34,520 --> 00:36:36,520 Men för min del.

608 00:36:36,520 --> 00:36:38,520 Så skulle jag vilja dra.

609 00:36:38,520 --> 00:36:40,520 Blödbromsen för utvecklandet.

610 00:36:40,520 --> 00:36:42,520 Av de här allra allra.

611 00:36:42,520 --> 00:36:44,520 Kraftfullaste systemen.

612 00:36:44,520 --> 00:36:46,520 Och vi har starka krafter.

613 00:36:46,520 --> 00:36:48,520 Emot oss.

614 00:36:48,520 --> 00:36:50,520 Men jag tror att.

615 00:36:50,520 --> 00:36:52,520 Det finns en latent.

616 00:36:52,520 --> 00:36:54,520 Opinion.

617 00:36:54,520 --> 00:36:56,520 Hos befolkningen.

618 00:36:56,520 --> 00:36:58,520 Åtminstone i USA.

619 00:36:58,520 --> 00:37:00,520 Och i.

620 00:37:00,520 --> 00:37:02,520 Västeuropa.

621 00:37:02,520 --> 00:37:04,520 Men jag skulle gissa att.

622 00:37:04,520 --> 00:37:06,520 Det finns på andra håll också.

623 00:37:06,520 --> 00:37:08,520 Som om vi mobiliserar.

624 00:37:08,520 --> 00:37:10,520 Så.

625 00:37:10,520 --> 00:37:12,520 Det handlar om.

626 00:37:12,520 --> 00:37:14,520 En AI skepsis.

627 00:37:14,520 --> 00:37:16,520 Och att folk väntar sig att.

628 00:37:16,520 --> 00:37:18,520 AI kommer att ha övervägande.

629 00:37:18,520 --> 00:37:20,520 Negativ inverkan.

630 00:37:20,520 --> 00:37:22,520 På framtiden.

631 00:37:22,520 --> 00:37:24,520 Om vi kan.

632 00:37:24,520 --> 00:37:26,520 Sätta den här opinionen lite grann.

633 00:37:26,520 --> 00:37:28,520 I rörelse.

634 00:37:28,520 --> 00:37:30,520 Så kan det.

635 00:37:30,520 --> 00:37:32,520 Hjälpa till och sätta press.

636 00:37:32,520 --> 00:37:34,520 På makthavare.

637 00:37:34,520 --> 00:37:36,520 Dels i San Francisco.

638 00:37:36,520 --> 00:37:38,520 Men även i Washington.

639 00:37:38,520 --> 00:37:40,520 Och i Beijing.

640 00:37:40,520 --> 00:37:42,520 Och så vidare.

641 00:37:42,520 --> 00:37:44,520 Som gör det lättare att lösa.

642 00:37:44,520 --> 00:37:46,520 Den här situationen.

643 00:37:46,520 --> 00:37:48,520 Men med den rasande.

644 00:37:48,520 --> 00:37:50,520 Kapplöpning som pågår nu.

645 00:37:50,520 --> 00:37:52,520 Där alla kurvor.

646 00:37:52,520 --> 00:37:54,520 Pekar spikrakt.

647 00:37:54,520 --> 00:37:56,520 Uppåt.

648 00:37:56,520 --> 00:37:58,520 Där fruktar jag.

649 00:37:58,520 --> 00:38:00,520 Att vi inte hinner lösa AI alignment.

650 00:38:00,520 --> 00:38:02,520 I tid.

651 00:38:02,520 --> 00:38:04,520 För skapandet av det som vi kallar.

652 00:38:04,520 --> 00:38:06,520 Superintelligens.

653 00:38:06,520 --> 00:38:08,520 Och kapabla AI systemen.

654 00:38:08,520 --> 00:38:10,520 Och då är ju risken.

655 00:38:10,520 --> 00:38:12,520 Att vi är rökta.

656 00:38:12,520 --> 00:38:14,520 Om vi.

657 00:38:14,520 --> 00:38:16,520 Timar de här två utvecklingslinjerna.

658 00:38:16,520 --> 00:38:18,520 Dels AI alignment.

659 00:38:18,520 --> 00:38:20,520 Och dels superintelligens då.

660 00:38:20,520 --> 00:38:22,520 Om vi timar det på fel sätt.

661 00:38:22,520 --> 00:38:24,520 Så blir det fel.

662 00:38:24,520 --> 00:38:26,520 Hade vi haft det här samtalet.

663 00:38:26,520 --> 00:38:28,520 Bara för 3-4 år sedan.

664 00:38:28,520 --> 00:38:30,520 Då hade jag framför allt betonat.

665 00:38:30,520 --> 00:38:32,520 Att vi behöver satsa mera resurser.

666 00:38:32,520 --> 00:38:34,520 På AI safety och AI alignment.

667 00:38:34,520 --> 00:38:36,520 Forskning.

668 00:38:36,520 --> 00:38:38,520 Nu säger jag känslan.

669 00:38:38,520 --> 00:38:40,520 Det i sig.

670 00:38:40,520 --> 00:38:42,520 Kommer inte att räcka.

671 00:38:42,520 --> 00:38:44,520 Vi behöver också dra.

672 00:38:44,520 --> 00:38:46,520 I nödbromsen.

673 00:38:46,520 --> 00:38:48,520 För den allra kraftfullaste.

674 00:38:48,520 --> 00:38:50,520 Utvecklingen.

675 00:38:50,520 --> 00:38:52,520 Utav intelligenta AI system.

676 00:38:54,520 --> 00:38:56,520 Mitt intryck är tyvärr.

677 00:38:56,520 --> 00:38:58,520 Att man har kastat tärningen.

678 00:38:58,520 --> 00:39:00,520 Inte för att man.

679 00:39:00,520 --> 00:39:02,520 Med det menar jag.

680 00:39:02,520 --> 00:39:04,520 Man har helt enkelt gamblat här.

681 00:39:04,520 --> 00:39:06,520 Och.

682 00:39:06,520 --> 00:39:08,520 Titta på den mängd pengar.

683 00:39:08,520 --> 00:39:10,520 Som har gått in i OpenAI.

684 00:39:10,520 --> 00:39:12,520 Som de stora.

685 00:39:12,520 --> 00:39:14,520 Amerikanska bolagen.

686 00:39:14,520 --> 00:39:16,520 Techbolagen.

687 00:39:16,520 --> 00:39:18,520 Som varit dominerande under 2010-talet.

688 00:39:18,520 --> 00:39:20,520 När man ser hur mycket pengar.

689 00:39:20,520 --> 00:39:22,520 De har lagt på det här.

690 00:39:22,520 --> 00:39:24,520 Jag tänker på bolag som Amazon.

691 00:39:24,520 --> 00:39:26,520 Meta.

692 00:39:26,520 --> 00:39:28,520 De är väl inte längst fram.

693 00:39:28,520 --> 00:39:30,520 Utan det som du säger.

694 00:39:30,520 --> 00:39:32,520 Det är Anthropic.

695 00:39:32,520 --> 00:39:34,520 Det är Alphabet.

696 00:39:34,520 --> 00:39:36,520 De har lagt så mycket pengar på det här nu.

697 00:39:36,520 --> 00:39:38,520 Att de kommer försöka hitta sätt.

698 00:39:38,520 --> 00:39:40,520 Att få igen de här pengarna.

699 00:39:40,520 --> 00:39:42,520 På någonting.

700 00:39:42,520 --> 00:39:44,520 Och det enda sättet.

701 00:39:44,520 --> 00:39:46,520 Det här är mitt intryck.

702 00:39:46,520 --> 00:39:48,520 Det enda sättet man kan.

703 00:39:48,520 --> 00:39:50,520 Få tillbaka de pengarna.

704 00:39:50,520 --> 00:39:52,520 Är inte enbart.

705 00:39:52,520 --> 00:39:54,520 Det räcker inte att ta betalt för.

706 00:39:54,520 --> 00:39:56,520 ChatGPT abonnemang.

707 00:39:56,520 --> 00:39:58,520 Det är växelpengar i sammanhanget.

708 00:39:58,520 --> 00:40:00,520 Utan vad man siktar på.

709 00:40:00,520 --> 00:40:02,520 Är det.

710 00:40:02,520 --> 00:40:04,520 Att AI ska förändra allt.

711 00:40:04,520 --> 00:40:06,520 Det vill säga.

712 00:40:06,520 --> 00:40:08,520 Den här satsningen.

713 00:40:08,520 --> 00:40:10,520 I reda dollar.

714 00:40:10,520 --> 00:40:12,520 Förväntar sig.

715 00:40:12,520 --> 00:40:14,520 En utveckling.

716 00:40:14,520 --> 00:40:16,520 Motsvarande den industriella revolutionen.

717 00:40:16,520 --> 00:40:18,520 På 1800-talet.

718 00:40:18,520 --> 00:40:20,520 Det vill säga en mekanisering.

719 00:40:20,520 --> 00:40:22,520 Av tillverkningsprocesser.

720 00:40:22,520 --> 00:40:24,520 Av jordbruket.

721 00:40:24,520 --> 00:40:26,520 Motsvarande det.

722 00:40:26,520 --> 00:40:28,520 Fast för informationstidsåldern.

723 00:40:28,520 --> 00:40:30,520 Och därför.

724 00:40:30,520 --> 00:40:32,520 Så är jag en pessimist.

725 00:40:32,520 --> 00:40:34,520 Även ifall jag tror att det finns en.

726 00:40:34,520 --> 00:40:36,520 Mer än noll.

727 00:40:36,520 --> 00:40:38,520 Procents risk.

728 00:40:38,520 --> 00:40:40,520 Att.

729 00:40:40,520 --> 00:40:42,520 Allting går åt helvete.

730 00:40:42,520 --> 00:40:44,520 Så är jag pessimist till att det går.

731 00:40:44,520 --> 00:40:46,520 Att hindra det.

732 00:40:46,520 --> 00:40:48,520 För att man har investerat så oerhört mycket.

733 00:40:48,520 --> 00:40:50,520 Och då blir det som du uttrycker det.

734 00:40:50,520 --> 00:40:52,520 Ett sorts fångarnas dilemma.

735 00:40:52,520 --> 00:40:54,520 Om inte jag gör det.

736 00:40:54,520 --> 00:40:56,520 Så gör någon annan det.

737 00:40:56,520 --> 00:40:58,520 Och det är inte bara mellan företag.

738 00:40:58,520 --> 00:41:00,520 Utan även Kina inblandat här.

739 00:41:00,520 --> 00:41:02,520 Jag talar emot det här.

740 00:41:02,520 --> 00:41:04,520 Att det handlar inte bara om att det blir ett sorts fångarnas dilemma.

741 00:41:04,520 --> 00:41:06,520 Inom marknadsekonomin.

742 00:41:06,520 --> 00:41:08,520 Och inom kapitalismen.

743 00:41:08,520 --> 00:41:10,520 Det är även ett fångarnas dilemma på statsnivå.

744 00:41:10,520 --> 00:41:12,520 Det vill säga du har en tillräckligt stor stat.

745 00:41:12,520 --> 00:41:14,520 Som är statskapitalistisk.

746 00:41:14,520 --> 00:41:16,520 Och nominellt kommunistisk.

747 00:41:16,520 --> 00:41:18,520 Den är också inne i det här rejset.

748 00:41:18,520 --> 00:41:20,520 För den vill inte heller hamna.

749 00:41:20,520 --> 00:41:22,520 På efterkälken.

750 00:41:22,520 --> 00:41:24,520 Och eftersom det här är en så viktig del av den moderna ekonomin.

751 00:41:24,520 --> 00:41:26,520 Både i Kina och USA.

752 00:41:26,520 --> 00:41:28,520 Så är det full fart framåt.

753 00:41:28,520 --> 00:41:30,520 Även om det finns en latent opinion.

754 00:41:30,520 --> 00:41:32,520 Så är också mitt intryck att.

755 00:41:32,520 --> 00:41:34,520 Den opinionen handlar om en väldigt.

756 00:41:34,520 --> 00:41:36,520 En sorts teoretisk rädsla.

757 00:41:36,520 --> 00:41:38,520 Det kan hända någonting hemskt.

758 00:41:38,520 --> 00:41:40,520 På horisonten.

759 00:41:40,520 --> 00:41:42,520 Som innebär.

760 00:41:42,520 --> 00:41:44,520 Vår undergång eller nära på.

761 00:41:44,520 --> 00:41:46,520 Och det är mindre.

762 00:41:46,520 --> 00:41:48,520 Mycket mindre konkret.

763 00:41:48,520 --> 00:41:50,520 Än vad brottslighet.

764 00:41:50,520 --> 00:41:52,520 Arbetslöshet är.

765 00:41:52,520 --> 00:41:54,520 Jag är pessimist faktiskt.

766 00:41:54,520 --> 00:41:56,520 Till att man.

767 00:41:56,520 --> 00:41:58,520 Att man är.

768 00:41:58,520 --> 00:42:00,520 Vi har så pass många ekonomiska system.

769 00:42:00,520 --> 00:42:02,520 Och psykologiska hinder.

770 00:42:02,520 --> 00:42:04,520 Som gör att vi kommer inte att.

771 00:42:04,520 --> 00:42:06,520 Kunna hindra det här.

772 00:42:06,520 --> 00:42:08,520 Och därför är det som en tärning som är kastad.

773 00:42:08,520 --> 00:42:10,520 Nu får vi vänta på resultatet.

774 00:42:10,520 --> 00:42:12,520 Vad tror du om min pessimism?

775 00:42:12,520 --> 00:42:14,520 Eller är jag överdrivet pessimistisk?

776 00:42:14,520 --> 00:42:16,520 Jag hör vad du säger.

777 00:42:16,520 --> 00:42:18,520 Och jag tänker inte gå i polemik.

778 00:42:18,520 --> 00:42:20,520 Och förneka.

779 00:42:20,520 --> 00:42:22,520 Att några utav de här hindren du pekar på finns.

780 00:42:22,520 --> 00:42:24,520 De finns.

781 00:42:24,520 --> 00:42:26,520 På riktigt.

782 00:42:26,520 --> 00:42:28,520 De är inte ristad i sten.

783 00:42:28,520 --> 00:42:30,520 Och.

784 00:42:30,520 --> 00:42:32,520 Det går att påverka.

785 00:42:32,520 --> 00:42:34,520 Ledande personer.

786 00:42:34,520 --> 00:42:36,520 Att styra utvecklingen.

787 00:42:36,520 --> 00:42:38,520 I rätt riktning.

788 00:42:38,520 --> 00:42:40,520 Det här kommer ju också.

789 00:42:40,520 --> 00:42:42,520 Kräva mycket utav.

790 00:42:42,520 --> 00:42:44,520 Koordination och samarbete.

791 00:42:44,520 --> 00:42:46,520 Men även sånt har ju förekommit.

792 00:42:46,520 --> 00:42:48,520 Förr.

793 00:42:48,520 --> 00:42:50,520 Och.

794 00:42:50,520 --> 00:42:52,520 Som jag varit inne på då.

795 00:42:52,520 --> 00:42:54,520 Ledarna.

796 00:42:54,520 --> 00:42:56,520 För de här.

797 00:42:56,520 --> 00:42:58,520 Företagen.

798 00:42:58,520 --> 00:43:00,520 De ledande AI företagen.

799 00:43:00,520 --> 00:43:02,520 Och möjligtvis med undantag.

800 00:43:02,520 --> 00:43:04,520 Meta då.

801 00:43:04,520 --> 00:43:06,520 Har en medvetenhet.

802 00:43:06,520 --> 00:43:08,520 Om de här riskerna.

803 00:43:08,520 --> 00:43:10,520 Och det borde ju också.

804 00:43:10,520 --> 00:43:12,520 Kunna vara en.

805 00:43:12,520 --> 00:43:14,520 Hoppingivande faktor.

806 00:43:14,520 --> 00:43:16,520 Även om det inte ser så bra ut.

807 00:43:16,520 --> 00:43:18,520 Just nu.

808 00:43:18,520 --> 00:43:20,520 Så borde det ju vara lättare för en person.

809 00:43:20,520 --> 00:43:22,520 Som ändå.

810 00:43:22,520 --> 00:43:24,520 Känner till.

811 00:43:24,520 --> 00:43:26,520 Begreppen kring existentiell risk.

812 00:43:26,520 --> 00:43:28,520 Och även förstår.

813 00:43:28,520 --> 00:43:30,520 Att det är ganska korta tidsskalor.

814 00:43:30,520 --> 00:43:32,520 Som vi.

815 00:43:32,520 --> 00:43:34,520 Talar om här.

816 00:43:34,520 --> 00:43:36,520 Det finns ju en psykologisk tendens.

817 00:43:36,520 --> 00:43:38,520 Om vi bara pratar om.

818 00:43:38,520 --> 00:43:40,520 Risken för mänsklighetens undergång.

819 00:43:40,520 --> 00:43:42,520 Out of context.

820 00:43:42,520 --> 00:43:44,520 Så kommer.

821 00:43:44,520 --> 00:43:46,520 De flesta att tänka.

822 00:43:46,520 --> 00:43:48,520 Det här är väl någonting som handlar om.

823 00:43:48,520 --> 00:43:50,520 På hundra eller tusen.

824 00:43:50,520 --> 00:43:52,520 Eller miljoners års.

825 00:43:52,520 --> 00:43:54,520 Sikt eller så.

826 00:43:54,520 --> 00:43:56,520 Men.

827 00:43:56,520 --> 00:43:58,520 Som läget ser ut nu.

828 00:43:58,520 --> 00:44:00,520 Så kan inte jag i alla fall.

829 00:44:00,520 --> 00:44:02,520 Garantera att vi.

830 00:44:02,520 --> 00:44:04,520 Överlever.

831 00:44:04,520 --> 00:44:06,520 Som art.

832 00:44:06,520 --> 00:44:08,520 Fram till att.

833 00:44:08,520 --> 00:44:10,520 2020-talet.

834 00:44:10,520 --> 00:44:12,520 Övergår i 2030-tal.

835 00:44:12,520 --> 00:44:14,520 Det finns.

836 00:44:14,520 --> 00:44:16,520 Alltså det är jättesvårt.

837 00:44:16,520 --> 00:44:18,520 Att precisera.

838 00:44:18,520 --> 00:44:20,520 De exakta.

839 00:44:20,520 --> 00:44:22,520 Tidslinjerna här.

840 00:44:22,520 --> 00:44:24,520 Men det finns helt klart.

841 00:44:24,520 --> 00:44:26,520 På riskkartan.

842 00:44:26,520 --> 00:44:28,520 Att saker.

843 00:44:28,520 --> 00:44:30,520 Går åt skogen.

844 00:44:30,520 --> 00:44:32,520 Inom den närmaste femårsperioden.

845 00:44:32,520 --> 00:44:34,520 Och ännu troligare.

846 00:44:34,520 --> 00:44:36,520 Inom den närmaste tioårsperioden.

847 00:44:36,520 --> 00:44:38,520 Men jag vägrar se det här.

848 00:44:38,520 --> 00:44:40,520 Som ristat i sten.

849 00:44:40,520 --> 00:44:42,520 Vi behöver jobba för en.

850 00:44:42,520 --> 00:44:44,520 Lösning.

851 00:44:44,520 --> 00:44:46,520 Och ju fler hinder vi ser.

852 00:44:46,520 --> 00:44:48,520 Desto mer behöver vi.

853 00:44:48,520 --> 00:44:50,520 Kavla upp ärmarna.

854 00:44:52,520 --> 00:44:54,520 Jag vet att du har stött på.

855 00:44:54,520 --> 00:44:56,520 Det här argumentet.

856 00:44:56,520 --> 00:44:58,520 Och jag har också stött på det.

857 00:44:58,520 --> 00:45:00,520 Faktiskt i ett samtal i just den här podden.

858 00:45:00,520 --> 00:45:02,520 Med personer som menar.

859 00:45:02,520 --> 00:45:04,520 Att det kan vara acceptabelt.

860 00:45:04,520 --> 00:45:06,520 Att en AI.

861 00:45:06,520 --> 00:45:08,520 Eller flera AIs.

862 00:45:08,520 --> 00:45:10,520 Ersätter oss människor.

863 00:45:10,520 --> 00:45:12,520 Jag pratade med Torbjörn Tensjö.

864 00:45:12,520 --> 00:45:14,520 Filosofen.

865 00:45:14,520 --> 00:45:16,520 Och han menade att.

866 00:45:16,520 --> 00:45:18,520 Det kanske inte är en så dum idé.

867 00:45:18,520 --> 00:45:20,520 Ifall AI minskar det kollektiva lidandet.

868 00:45:20,520 --> 00:45:22,520 I världen.

869 00:45:22,520 --> 00:45:24,520 Du har i dina texter.

870 00:45:24,520 --> 00:45:26,520 Bland annat skrivit om.

871 00:45:26,520 --> 00:45:28,520 Googles Larry Page.

872 00:45:28,520 --> 00:45:30,520 Som menar att ifall det finns en mer.

873 00:45:30,520 --> 00:45:32,520 Avancerad och sofistikerad art.

874 00:45:32,520 --> 00:45:34,520 Så är det nästa evolutionära utvecklingssteg.

875 00:45:34,520 --> 00:45:36,520 Kanske inte så illa ifall.

876 00:45:36,520 --> 00:45:38,520 De styr och vi är.

877 00:45:38,520 --> 00:45:40,520 På något sätt.

878 00:45:40,520 --> 00:45:42,520 Hänger med om vi får göra det.

879 00:45:42,520 --> 00:45:44,520 Vad tänker du om de här argumenten.

880 00:45:44,520 --> 00:45:46,520 De tycks ju vara lite vanligare.

881 00:45:46,520 --> 00:45:48,520 Bland just.

882 00:45:48,520 --> 00:45:50,520 Folk inom textsfären.

883 00:45:50,520 --> 00:45:52,520 Men som sagt.

884 00:45:52,520 --> 00:45:54,520 Vad tänker du om det argumentet.

885 00:45:54,520 --> 00:45:56,520 De är många olika argument förstås.

886 00:45:56,520 --> 00:45:58,520 Larry Page.

887 00:45:58,520 --> 00:46:00,520 Är ju långt ifrån ensam.

888 00:46:00,520 --> 00:46:02,520 I Silicon Valley.

889 00:46:02,520 --> 00:46:04,520 I att upphöja evolutionen.

890 00:46:04,520 --> 00:46:06,520 Till någon slags.

891 00:46:06,520 --> 00:46:08,520 Ledstjärna.

892 00:46:08,520 --> 00:46:10,520 Och se den nuvarande.

893 00:46:10,520 --> 00:46:12,520 Maskinutvecklingen då.

894 00:46:12,520 --> 00:46:14,520 Som ett led i evolutionen.

895 00:46:14,520 --> 00:46:16,520 Som sen kan fortsätta.

896 00:46:16,520 --> 00:46:18,520 På maskinell istället för biologisk grund.

897 00:46:18,520 --> 00:46:20,520 Och jag tycker att det är helt.

898 00:46:20,520 --> 00:46:22,520 Korrekt tänkt.

899 00:46:22,520 --> 00:46:24,520 Att se så brett.

900 00:46:24,520 --> 00:46:26,520 På begreppet evolution då.

901 00:46:26,520 --> 00:46:28,520 Så att det även inkluderar.

902 00:46:28,520 --> 00:46:30,520 Maskinevolution.

903 00:46:30,520 --> 00:46:32,520 Men.

904 00:46:32,520 --> 00:46:34,520 Det underliggande antagande han gör.

905 00:46:34,520 --> 00:46:36,520 Att evolutionen är god.

906 00:46:36,520 --> 00:46:38,520 Och önskvärd.

907 00:46:38,520 --> 00:46:40,520 Och så.

908 00:46:40,520 --> 00:46:42,520 Det är väldigt.

909 00:46:42,520 --> 00:46:44,520 Förhastat.

910 00:46:44,520 --> 00:46:46,520 Det är många som gör det felet.

911 00:46:46,520 --> 00:46:48,520 Och det kan förklaras med att.

912 00:46:48,520 --> 00:46:50,520 Vi ser saker.

913 00:46:50,520 --> 00:46:52,520 Allt vi älskar.

914 00:46:52,520 --> 00:46:54,520 Här i världen.

915 00:46:54,520 --> 00:46:56,520 Våra medvetanden.

916 00:46:56,520 --> 00:46:58,520 Och kärlek och skönhet.

917 00:46:58,520 --> 00:47:00,520 Och sådana grejer.

918 00:47:00,520 --> 00:47:02,520 Det är ju på något plan då.

919 00:47:02,520 --> 00:47:04,520 Produkten utav.

920 00:47:04,520 --> 00:47:06,520 Miljarder år.

921 00:47:06,520 --> 00:47:08,520 Av evolution.

922 00:47:08,520 --> 00:47:10,520 Men evolutionen har ju också skapat.

923 00:47:10,520 --> 00:47:12,520 Ofattbara.

924 00:47:12,520 --> 00:47:14,520 Mängder.

925 00:47:14,520 --> 00:47:16,520 Lidande på den här planeten.

926 00:47:16,520 --> 00:47:18,520 Och gör det i varje sekund.

927 00:47:18,520 --> 00:47:20,520 Det går ju.

928 00:47:20,520 --> 00:47:22,520 Knappt att fatta då.

929 00:47:22,520 --> 00:47:24,520 Hur mycket.

930 00:47:24,520 --> 00:47:26,520 Lidande.

931 00:47:26,520 --> 00:47:28,520 Som åstadkoms.

932 00:47:28,520 --> 00:47:30,520 Både i.

933 00:47:30,520 --> 00:47:32,520 Vår köttindustri.

934 00:47:32,520 --> 00:47:34,520 Men också ute i det vilda.

935 00:47:34,520 --> 00:47:36,520 Bara under den korta tid.

936 00:47:36,520 --> 00:47:38,520 Som du och jag har.

937 00:47:38,520 --> 00:47:40,520 Det här samtalet.

938 00:47:40,520 --> 00:47:42,520 Och.

939 00:47:42,520 --> 00:47:44,520 Det är naivt att tro då.

940 00:47:44,520 --> 00:47:46,520 Att evolutionen.

941 00:47:46,520 --> 00:47:48,520 Skulle nu ha nått en brydpunkt då.

942 00:47:48,520 --> 00:47:50,520 Om man bara skapar.

943 00:47:50,520 --> 00:47:52,520 Det här goda.

944 00:47:52,520 --> 00:47:54,520 Tvärtom då.

945 00:47:54,520 --> 00:47:56,520 Så finns det många tänkare som pratar om.

946 00:47:56,520 --> 00:47:58,520 Vår tid.

947 00:47:58,520 --> 00:48:00,520 Som en slags undantagstid.

948 00:48:00,520 --> 00:48:02,520 Där vi människor.

949 00:48:02,520 --> 00:48:04,520 Åtminstone i den rika delen av världen då.

950 00:48:04,520 --> 00:48:06,520 Kan hänge oss.

951 00:48:06,520 --> 00:48:08,520 Åt saker som inte har med vår omedelbara.

952 00:48:08,520 --> 00:48:10,520 Överlevnad.

953 00:48:10,520 --> 00:48:12,520 Att göra.

954 00:48:12,520 --> 00:48:14,520 I det här läget har vi hamnat.

955 00:48:14,520 --> 00:48:16,520 Därför att vi under.

956 00:48:16,520 --> 00:48:18,520 Några århundraden.

957 00:48:18,520 --> 00:48:20,520 Kunnat ha en.

958 00:48:20,520 --> 00:48:22,520 Ekonomisk.

959 00:48:22,520 --> 00:48:24,520 Tillväxt.

960 00:48:24,520 --> 00:48:26,520 Som är större än befolkningstillväxten.

961 00:48:26,520 --> 00:48:28,520 Men evolutionen.

962 00:48:28,520 --> 00:48:30,520 Alla evolutionära krafter.

963 00:48:30,520 --> 00:48:32,520 Trycker hela tiden på.

964 00:48:32,520 --> 00:48:34,520 För att korrigera.

965 00:48:34,520 --> 00:48:36,520 Tillbaka det här.

966 00:48:36,520 --> 00:48:38,520 Till det som kallas för den.

967 00:48:38,520 --> 00:48:40,520 Malthusianska.

968 00:48:40,520 --> 00:48:42,520 Fällan då.

969 00:48:42,520 --> 00:48:44,520 Som handlar om att.

970 00:48:44,520 --> 00:48:46,520 Förändringen blir precis.

971 00:48:46,520 --> 00:48:48,520 Så stor som den kan bli.

972 00:48:48,520 --> 00:48:50,520 Och ändå överleva.

973 00:48:50,520 --> 00:48:52,520 Så att vi alla lever på gränsen.

974 00:48:52,520 --> 00:48:54,520 Till överlevnad.

975 00:48:54,520 --> 00:48:56,520 Så det här tron på.

976 00:48:56,520 --> 00:48:58,520 Evolutionen som Sali bringande.

977 00:48:58,520 --> 00:49:00,520 Och att vi kan ta ett steg tillbaka.

978 00:49:00,520 --> 00:49:02,520 Och liksom bara se dess logik.

979 00:49:02,520 --> 00:49:04,520 Spela sig ut till allas bästa.

980 00:49:04,520 --> 00:49:06,520 Det är helt fel.

981 00:49:06,520 --> 00:49:08,520 Du nämnde också Torbjörn Tännsjö.

982 00:49:08,520 --> 00:49:10,520 Som har ett helt annat resonemang.

983 00:49:10,520 --> 00:49:12,520 Och han.

984 00:49:12,520 --> 00:49:14,520 I min förra förra bok.

985 00:49:14,520 --> 00:49:16,520 Here be dragons.

986 00:49:16,520 --> 00:49:18,520 Science technology and the future of humanity.

987 00:49:18,520 --> 00:49:20,520 För tio år sedan.

988 00:49:20,520 --> 00:49:22,520 Så skrev han om den i Dagens Nyheter.

989 00:49:22,520 --> 00:49:24,520 Och han skrev.

990 00:49:24,520 --> 00:49:26,520 Väldigt tydligt där.

991 00:49:26,520 --> 00:49:28,520 Sin huvudsakliga kritik mot boken då.

992 00:49:28,520 --> 00:49:30,520 Var att jag ville att mänskligheten skulle överleva.

993 00:49:30,520 --> 00:49:32,520 Och han tyckte att.

994 00:49:32,520 --> 00:49:34,520 Det skulle vara bättre med.

995 00:49:34,520 --> 00:49:36,520 Maskiner då.

996 00:49:36,520 --> 00:49:38,520 Som är smartare än vi.

997 00:49:38,520 --> 00:49:40,520 Och som därför.

998 00:49:40,520 --> 00:49:42,520 Bli utilitarister.

999 00:49:42,520 --> 00:49:44,520 Precis som Torbjörn Tännsjö.

1000 00:49:44,520 --> 00:49:46,520 Och därför.

1001 00:49:46,520 --> 00:49:48,520 Kommer att kunna inrätta världen.

1002 00:49:48,520 --> 00:49:50,520 För att.

1003 00:49:50,520 --> 00:49:52,520 På utilitaristiskt vis.

1004 00:49:52,520 --> 00:49:54,520 Maximera.

1005 00:49:54,520 --> 00:49:56,520 Lyckan.

1006 00:49:56,520 --> 00:49:58,520 Och minimera.

1007 00:49:58,520 --> 00:50:00,520 Lidandet.

1008 00:50:00,520 --> 00:50:02,520 Men.

1009 00:50:02,520 --> 00:50:04,520 Med det vi förstår.

1010 00:50:04,520 --> 00:50:06,520 Om AI.

1011 00:50:06,520 --> 00:50:08,520 System.

1012 00:50:08,520 --> 00:50:10,520 Och.

1013 00:50:10,520 --> 00:50:12,520 Motivationssystem.

1014 00:50:12,520 --> 00:50:14,520 Och så vidare.

1015 00:50:14,520 --> 00:50:16,520 Så är det.

1016 00:50:16,520 --> 00:50:18,520 Långt ifrån uppenbart.

1017 00:50:18,520 --> 00:50:20,520 Skulle jag säga.

1018 00:50:20,520 --> 00:50:22,520 Utan tvärtom kanske ganska otroligt.

1019 00:50:22,520 --> 00:50:24,520 Att maskinerna kommer att ha just.

1020 00:50:24,520 --> 00:50:26,520 Det mål.

1021 00:50:26,520 --> 00:50:28,520 Som Torbjörn Tännsjö.

1022 00:50:28,520 --> 00:50:30,520 Visualiserar.

1023 00:50:30,520 --> 00:50:32,520 En annan idé som Tännsjö har.

1024 00:50:32,520 --> 00:50:34,520 Är ju det här med moralisk realism.

1025 00:50:34,520 --> 00:50:36,520 Att det finns ett objektivt.

1026 00:50:36,520 --> 00:50:38,520 Rätt och objektivt fel.

1027 00:50:38,520 --> 00:50:40,520 I.

1028 00:50:40,520 --> 00:50:42,520 Moraliska frågor.

1029 00:50:42,520 --> 00:50:44,520 Och.

1030 00:50:44,520 --> 00:50:46,520 Om man antar att det är sant.

1031 00:50:46,520 --> 00:50:48,520 Och även att.

1032 00:50:48,520 --> 00:50:50,520 Den sanna moralen då.

1033 00:50:50,520 --> 00:50:52,520 Är den utilitaristiska.

1034 00:50:52,520 --> 00:50:54,520 Så kommer ju tillräckligt intelligenta.

1035 00:50:54,520 --> 00:50:56,520 AI system.

1036 00:50:56,520 --> 00:50:58,520 Med säkerhet.

1037 00:50:58,520 --> 00:51:00,520 Att förstå detta.

1038 00:51:00,520 --> 00:51:02,520 Men att förstå någonting.

1039 00:51:02,520 --> 00:51:04,520 I moraliska frågor.

1040 00:51:04,520 --> 00:51:06,520 Och att agera på det.

1041 00:51:06,520 --> 00:51:08,520 Det är två helt olika saker.

1042 00:51:08,520 --> 00:51:10,520 Vad det handlar om.

1043 00:51:10,520 --> 00:51:12,520 Med människor som agerar.

1044 00:51:12,520 --> 00:51:14,520 I konflikt.

1045 00:51:14,520 --> 00:51:16,520 Med det de egentligen.

1046 00:51:16,520 --> 00:51:18,520 Förstår är den.

1047 00:51:18,520 --> 00:51:20,520 Rätta moralen.

1048 00:51:20,520 --> 00:51:22,520 Jag skulle kunna ge exempel från.

1049 00:51:22,520 --> 00:51:24,520 Mitt eget liv.

1050 00:51:24,520 --> 00:51:26,520 Men jag tror inte vi behöver.

1051 00:51:26,520 --> 00:51:28,520 Gå in så konkret.

1052 00:51:28,520 --> 00:51:30,520 På detta.

1053 00:51:30,520 --> 00:51:32,520 Jag vill bara understryka att det är en skillnad.

1054 00:51:32,520 --> 00:51:34,520 Mellan att förstå.

1055 00:51:34,520 --> 00:51:36,520 Vad som är de rätta värderingarna.

1056 00:51:36,520 --> 00:51:38,520 Att agera på dem.

1057 00:51:38,520 --> 00:51:40,520 Och det finns inga.

1058 00:51:40,520 --> 00:51:42,520 Vattentäta argument.

1059 00:51:42,520 --> 00:51:44,520 Eller ens.

1060 00:51:44,520 --> 00:51:46,520 Knappt några argument överhuvudtaget.

1061 00:51:46,520 --> 00:51:48,520 För att de här sakerna.

1062 00:51:48,520 --> 00:51:50,520 Kommer att sammanfalla på ett bättre sätt.

1063 00:51:50,520 --> 00:51:52,520 Hos de intelligenta AI systemen.

1064 00:51:52,520 --> 00:51:54,520 Än hos oss.

1065 00:51:54,520 --> 00:51:56,520 I nästan.

1066 00:51:56,520 --> 00:51:58,520 Jag ska inte säga all science fiction.

1067 00:51:58,520 --> 00:52:00,520 Men i mycket science fiction.

1068 00:52:00,520 --> 00:52:02,520 Speciellt sådana som utspelas över tusentals år.

1069 00:52:02,520 --> 00:52:04,520 Då finns det oftast.

1070 00:52:04,520 --> 00:52:06,520 En konflikt mellan människor och AI.

1071 00:52:06,520 --> 00:52:08,520 Jag tänker på exempelvis.

1072 00:52:08,520 --> 00:52:10,520 I Frank Herberts Dune.

1073 00:52:10,520 --> 00:52:12,520 Där har man ett stort krig.

1074 00:52:12,520 --> 00:52:14,520 Mellan AI och människan.

1075 00:52:14,520 --> 00:52:16,520 Och sen förbjuder man tänkande robotar.

1076 00:52:16,520 --> 00:52:18,520 Och den idén finns.

1077 00:52:18,520 --> 00:52:20,520 I väldigt mycket.

1078 00:52:20,520 --> 00:52:22,520 Science fiction litteratur.

1079 00:52:22,520 --> 00:52:24,520 Jag funderar.

1080 00:52:24,520 --> 00:52:26,520 Folk kanske läser för lite science fiction.

1081 00:52:26,520 --> 00:52:28,520 De kan inte föreställa sig.

1082 00:52:28,520 --> 00:52:30,520 Vad som skulle hända.

1083 00:52:30,520 --> 00:52:32,520 Har du något råd att ge.

1084 00:52:32,520 --> 00:52:34,520 Läs det här för att kunna visualisera det här.

1085 00:52:34,520 --> 00:52:36,520 För stort.

1086 00:52:36,520 --> 00:52:38,520 För abstrakt.

1087 00:52:38,520 --> 00:52:40,520 Och på något sätt.

1088 00:52:40,520 --> 00:52:42,520 Det kan inte konceptualiseras.

1089 00:52:42,520 --> 00:52:45,900 I de liv vi lever nu.

1090 00:52:45,900 --> 00:52:47,900 Ofta används science fiction.

1091 00:52:47,900 --> 00:52:49,900 Utav de som är mina meningsmotståndare.

1092 00:52:49,900 --> 00:52:51,900 I den här frågan.

1093 00:52:51,900 --> 00:52:53,900 Så använder de science fiction.

1094 00:52:53,900 --> 00:52:55,900 Som ett skällsord.

1095 00:52:55,900 --> 00:52:57,900 Jag kan knappt räkna de tillfällen.

1096 00:52:57,900 --> 00:52:59,900 Då jag har blivit anklagad.

1097 00:52:59,900 --> 00:53:01,900 För att hänge mig åt.

1098 00:53:01,900 --> 00:53:03,900 Science fiction scenarier.

1099 00:53:03,900 --> 00:53:05,900 Men science fiction.

1100 00:53:05,900 --> 00:53:07,900 Och roman och filmkonst.

1101 00:53:07,900 --> 00:53:09,900 Som tycker jag kompletterar.

1102 00:53:09,900 --> 00:53:11,900 Två andra kategorier.

1103 00:53:11,900 --> 00:53:13,900 Dels de som beskriver hur det är att vara människa idag.

1104 00:53:13,900 --> 00:53:15,900 Det kanske är mer parten.

1105 00:53:15,900 --> 00:53:17,900 Av all skönlitteratur.

1106 00:53:17,900 --> 00:53:19,900 Och så har vi de historiska romanerna.

1107 00:53:19,900 --> 00:53:21,900 Som beskriver hur du var människa förr.

1108 00:53:21,900 --> 00:53:23,900 Och science fiction.

1109 00:53:23,900 --> 00:53:25,900 Är den mer framåtblickande.

1110 00:53:25,900 --> 00:53:27,900 Sidan här.

1111 00:53:27,900 --> 00:53:29,900 Och den måste ju med nödvändighet.

1112 00:53:29,900 --> 00:53:31,900 Vara spekulativ.

1113 00:53:31,900 --> 00:53:33,900 Men det betyder inte.

1114 00:53:33,900 --> 00:53:35,900 Att inte science fiction.

1115 00:53:35,900 --> 00:53:37,900 Har mycket att ge.

1116 00:53:37,900 --> 00:53:39,900 Och jag kan.

1117 00:53:39,900 --> 00:53:41,900 Ett annat sätt.

1118 00:53:41,900 --> 00:53:43,900 Att försvara det här med science fiction.

1119 00:53:43,900 --> 00:53:45,900 Det är om vi tänker oss då.

1120 00:53:45,900 --> 00:53:47,900 Precis i början på 1900-talet.

1121 00:53:47,900 --> 00:53:49,900 Jag kommer inte ihåg om det var 1903.

1122 00:53:49,900 --> 00:53:51,900 Eller 1905.

1123 00:53:51,900 --> 00:53:53,900 Som Döderna Wright.

1124 00:53:53,900 --> 00:53:55,900 Lyckades med den första flygningen då.

1125 00:53:55,900 --> 00:53:57,900 Utan.

1126 00:53:57,900 --> 00:53:59,900 Utan varmluft.

1127 00:53:59,900 --> 00:54:01,900 Det som man kallar för.

1128 00:54:01,900 --> 00:54:03,900 More than air flight.

1129 00:54:03,900 --> 00:54:05,900 Och då talade någon av dem.

1130 00:54:05,900 --> 00:54:07,900 Innan de gjorde det första.

1131 00:54:07,900 --> 00:54:09,900 Lyckade försöket.

1132 00:54:09,900 --> 00:54:11,900 Att det nog låg.

1133 00:54:11,900 --> 00:54:13,900 Typ tusentals år.

1134 00:54:13,900 --> 00:54:15,900 Fast de jobbade envist på det själva då.

1135 00:54:15,900 --> 00:54:17,900 Så tror de att det låg tusentals år.

1136 00:54:17,900 --> 00:54:19,900 In i framtiden.

1137 00:54:19,900 --> 00:54:21,900 Och sen lyckades de.

1138 00:54:21,900 --> 00:54:23,900 Och man hade föreslagit i det läget.

1139 00:54:23,900 --> 00:54:25,900 Att nu är det mindre än 70 år kvar.

1140 00:54:25,900 --> 00:54:27,900 Innan vi landstiger på månen.

1141 00:54:27,900 --> 00:54:29,900 Då hade man ju naturligtvis.

1142 00:54:29,900 --> 00:54:31,900 Som science fiction.

1143 00:54:31,900 --> 00:54:33,900 Och du har läst för mycket Jules Verne.

1144 00:54:33,900 --> 00:54:35,900 Eller vilka som var.

1145 00:54:35,900 --> 00:54:37,900 H.J. Wells.

1146 00:54:37,900 --> 00:54:39,900 Precis.

1147 00:54:39,900 --> 00:54:41,900 På samma sätt.

1148 00:54:41,900 --> 00:54:43,900 Om vi reser tillbaka till 1980.

1149 00:54:43,900 --> 00:54:45,900 Och berättar.

1150 00:54:45,900 --> 00:54:47,900 För folk då.

1151 00:54:47,900 --> 00:54:49,900 Hur världen kommer att se ut.

1152 00:54:49,900 --> 00:54:51,900 I år 2020.

1153 00:54:51,900 --> 00:54:53,900 Hur mobiltelefoni.

1154 00:54:53,900 --> 00:54:55,900 Och internet kommer att ha revolutionerat världen.

1155 00:54:55,900 --> 00:54:57,900 Då kommer de här.

1156 00:54:57,900 --> 00:54:59,900 Typ tusentals människorna.

1157 00:54:59,900 --> 00:55:01,900 Det lät ju häftigt och så.

1158 00:55:01,900 --> 00:55:03,900 Men det du pratar om.

1159 00:55:03,900 --> 00:55:05,900 Är ju bara.

1160 00:55:05,900 --> 00:55:07,900 Science fiction.

1161 00:55:07,900 --> 00:55:09,900 Och om vi går tillbaka idag.

1162 00:55:09,900 --> 00:55:11,900 Tillbaka till 2019.

1163 00:55:11,900 --> 00:55:13,900 Säg.

1164 00:55:13,900 --> 00:55:15,900 Och visar vad.

1165 00:55:15,900 --> 00:55:17,900 GPT-5 kan göra.

1166 00:55:17,900 --> 00:55:19,900 Då hade det också avfärdats.

1167 00:55:19,900 --> 00:55:21,900 Som science fiction.

1168 00:55:21,900 --> 00:55:23,900 Så vi lever i en science fiction.

1169 00:55:23,900 --> 00:55:25,900 Verklighet.

1170 00:55:25,900 --> 00:55:27,900 Science fiction har jättemycket.

1171 00:55:27,900 --> 00:55:29,900 Att lära oss.

1172 00:55:29,900 --> 00:55:31,900 Filmer som Stanley Kubricks.

1173 00:55:31,900 --> 00:55:33,900 2001.

1174 00:55:33,900 --> 00:55:35,900 Från slutet av 60-talet.

1175 00:55:35,900 --> 00:55:37,900 Har mycket att säga om de här AI-frågorna.

1176 00:55:37,900 --> 00:55:39,900 Ex Machina.

1177 00:55:39,900 --> 00:55:41,900 Som kom typ 2015.

1178 00:55:41,900 --> 00:55:43,900 Eller någonting.

1179 00:55:43,900 --> 00:55:45,900 En film som.

1180 00:55:45,900 --> 00:55:47,900 Lyfter filosofiska frågor.

1181 00:55:47,900 --> 00:55:49,900 Kring AI-utvecklingen.

1182 00:55:49,900 --> 00:55:51,900 På ett sofistikerat sätt.

1183 00:55:51,900 --> 00:55:53,900 Och det finns mycket annan science fiction.

1184 00:55:53,900 --> 00:55:55,900 Som jag menar.

1185 00:55:55,900 --> 00:55:57,900 Värdefullt.

1186 00:55:57,900 --> 00:55:59,900 Så jag tänker inte sitta här.

1187 00:55:59,900 --> 00:56:01,900 Och tvåa mina händer.

1188 00:56:01,900 --> 00:56:03,900 Och säga att det är forskningsområde.

1189 00:56:03,900 --> 00:56:05,900 Kring AI safety.

1190 00:56:05,900 --> 00:56:07,900 Som jag arbetar med.

1191 00:56:07,900 --> 00:56:09,900 Inte över huvud taget.

1192 00:56:09,900 --> 00:56:11,900 Har någonting med science fiction att göra.

1193 00:56:11,900 --> 00:56:13,900 Det finns så mycket inspiration.

1194 00:56:13,900 --> 00:56:15,900 Att hämta där.

1195 00:56:15,900 --> 00:56:17,900 Olle.

1196 00:56:17,900 --> 00:56:19,900 Tack så mycket för det här samtalet.

1197 00:56:19,900 --> 00:56:21,900 Tack ska du ha.

1198 00:56:21,900 --> 00:56:23,900 Det var ett nöje.

1199 00:56:23,900 --> 00:56:51,240 Tack ska ni ha

1200 00:56:51,240 --> 00:56:57,240 Tack så mycket för det.

1201 00:56:57,240 --> 00:56:59,240 Tack så mycket för att ni var med.

1202 00:56:59,240 --> 00:57:03,240 минимals System för avdelning commission

1203 00:57:03,240 --> 00:57:10,040 Arjar Ular och Oskar går in på Amazon för att förbereda sin Date Night lasagne till King.

1204 00:57:10,640 --> 00:57:22,140 På Amazon hittar han levande ljus, lyxiga vinglas till fyndpris och en extra tandborste utifrån.

1205 00:57:22,460 --> 00:57:26,320 Date Night, får det att hända? Hitta det på Amazon.se.

1206 00:57:27,000 --> 00:57:28,600 Det här kan inte stämma.

1207 00:57:28,760 --> 00:57:29,840 Vad menar du nu?

1208 00:57:29,840 --> 00:57:34,640 Att söktjänsten Bolivisa, Sveriges största utbud, har bostäder till salu.

1209 00:57:34,640 --> 00:57:39,060 Man ser flest bostäder på marknaden och det räcker liksom att man söker där.

1210 00:57:39,340 --> 00:57:41,500 Det är sjukt, du kollar min hand, den bara skakar.

1211 00:57:41,680 --> 00:57:45,680 Snälla, lägg av nu Erik. Du har jobbat med Boliv förr, du vet det här.

1212 00:57:45,960 --> 00:57:50,000 Kan du bara läsa in det som står i manus utan att spela över?

1213 00:57:50,100 --> 00:57:53,720 Wow, alltså Boliv, vet folk det här? Det snurrar för mig nu.

1214 00:57:53,760 --> 00:57:56,160 Har du en pall eller? Jag tror att jag svimmar.

1215 00:57:56,220 --> 00:57:56,660 Det räcker nu.

1216 00:57:57,080 --> 00:58:01,870 Tack för att du lyssnar.

1217 00:58:02,210 --> 00:58:05,190 För mer granskningar, analyser och perspektiv, prova GP.

1218 00:58:05,850 --> 00:58:07,790 Just nu, två månader för endast en.

1219 00:58:07,810 --> 00:58:10,630 Gå in på gp.se-prova.

Källinformation

Skapad: 30 april 2026