måndag 9 februari 2026

Majoritetskulturen i ett land har en särställning_[Peter Esaiasson_GP-260209

Under de senaste decennierna har minoritetskulturer tillskrivits allt starkare grupprättigheter i Europas nationalstater. FN:s och Europarådets konventioner för mänskliga rättigheter i kombination med normativa föreställningar om multikulturalism har bildat en regim som varit svår att ifrågasätta.

Samhällets eliter har bidragit genom att avfärda anspråk på skyddsvärda nationella majoritetskulturer som uttryck för populism, rasism och överdriven nationalism. Denna uppslutning bakom minoriteternas grupprättigheter är en orättfärdig sakernas ordning.

Majoritetskulturen har full rätt att kräva respekt för sina sedvanor, särdrag och kollektiva sätt att vara. Det gäller i synnerhet länder som Danmark och Sverige där majoritetsbefolkningen har en lång historia och där minoriteterna huvudsakligen består av migranter som nyss flyttat till landet.

Den här argumentationen förs av statsvetarna Liav Orgad och Ruud Koopmans i antologin ”Majorities, minorities and the future of nationhood” utgiven på prestigeförlaget Cambridge University Press (2023).

En väsentlig del av argumentet är att göra skillnad mellan olika typer av minoriteter. Immigrantgrupper som nyss flyttat till ett land har ett svagare case för sina rättigheter än ursprungsbefolkningar och etniska grupper som bott länge i landet.

Caset är svagare för att en grupps normativa rätt att bevara sin kulturella identitet är villkorad av gruppens förhållande till platsen. Oavsett varför gruppen lämnar sitt gamla land innebär flytten att man ger upp sin privilegierade rätt att bevara sin kulturella identitet eller religion i det offentliga rummet (vad som händer privat är en fråga om individuella rättigheter och därmed en annan sak).

Föreställningen att majoritetskulturen har rätt till erkännande får praktisk betydelse för bland annat diskussionerna om religioners utrymme i offentliga miljöer. Den ger stöd för uppfattningen att kristna kyrkklockor har större rätt att höras i offentliga rum än muslimska böneutrop.

Den går också på tvärs mot argumentet att kommuner ska upplåta mark åt fler moskébyggen enbart för att det redan finns många kristna kyrkobyggnader.

Med en förenkling ger Orgad och Koopmans akademisk legitimitet åt ordspråket ”man tar seden dit man kommer”, åtminstone när det gäller vilka regler som skall gälla i offentligheten.

Samtidigt är Orgad och Koopmans noga med att ange villkoren för majoritetskulturens rätt till erkännande. Oavsett ursprung måste alla kunna bli accepterade som bärare av kulturen. En majoritetskultur som är begränsad till en viss etnicitet saknar normativ legitimitet.

För att konkretisera är det normativt fel att störa sig på att den stora tv-debatten om den svenska kulturkanonen förs mellan två politiker med migrantbakgrund (Moderaternas Parisa Liljestrand och Socialdemokraternas Lawen Redar).

Poängen är inte att Orgad och Koopmans levererar knockout-argument som en gång för alla stänger diskussionen om svåra avvägningar i ett kulturellt diversifierat samhälle. Poängen är att de visar att minoritetsrättigheternas dominerande ställning i debatten inte är självklar.

Man kan säga att Orgad och Koopmans visar att andra än kulturvänstern kan vara normkritiska. Förhoppningsvis kan resonemang som deras bidra till att minska kraften i rutinanklagelser för ”populism, rasism och nationalism”. Det vore ett steg framåt för det politiska samtalet

onsdag 4 februari 2026

Riskerna med AI-utvecklingen underskattas grovt_[Olle Häggström_GP-260406

Olle Häggström:

AI-utvecklingen drivs fram i konkurrens mellan företag som mot bättre vetande inte tar tillräcklig hänsyn till att de riskerar skapa en dödsmaskin som vi förlorar kontrollen över.

Mötet i Davos i januari dominerades av Donald Trumps geopolitiska nyckfullhet, men i skuggan av honom diskuterades ett annat ämne som ser ut att kunna bli än mer betydelsefullt för allas vår framtid. På plats fanns nämligen cheferna för två av världens tre ledande AI-utvecklare: Demis Hassabis från Google DeepMind, och Dario Amodei från Anthropic. Båda två har tidigare bekräftat att de inser att riskerna med den AI-teknologi de själva går i spetsen för är så långtgående att det hela mycket väl kan landa i mänsklighetens undergång, och i Davos var de eniga om hur önskvärt det vore om utvecklingen bromsades, så att reglering, säkerhet och samhällelig anpassning får en bättre chans att hinna ikapp. Ändå trycker de gasen i botten, eftersom de befinner sig i en inbördes kapplöpning som ingen av dem tycker sig ha råd att stiga av.

Att utvecklingen går rasande snabbt argumenterade jag för i min förra gästkrönika den 15/1. Både Hassabis och Amodei är på samma linje, och menar att vi är så pass nära den brytpunkt där AI självt kan börja driva utvecklingen framåt att uppkomsten av övermänskligt kompetent generell AI kan väntas inom några få år – kanske 2028 enligt Amodei, eller snarare 2035 om man tror mer på Hassabis.

Vad händer därefter? Den som tror att samhället i det läget kan väntas fortsätta ungefär som förut har inte tänkt igenom vad det innebär att skapa en ny entitet som petar ned människan till andra plats bland planetens mest intelligenta och kapabla arter. Som ett minimum kommer vi att ställas inför en total omstöpning av arbetsmarknaden i närvaro av en AI som kan utföra allt mänskligt arbete snabbare, billigare och bättre än vi själva, och vi behöver därför snarast finna svar på hur ett samhälle utan lönearbete lämpligen kan organiseras.

Frågan är dock om det ens är möjligt för människan att behålla kontrollen över sådan AI. En förutsättning för det är att vi löser det så kallade AI alignment-problemet, som handlar om att se till att de första riktigt kraftfulla AI-systemen har mål och drivkrafter i linje med våra egna och prioriterar mänsklig välfärd och blomstring. Ett teoretiskt ramverk för vad som annars är att vänta utvecklades under 00-talet och framåt av pionjärer som Eliezer Yudkowsky och den svenskfödde Nick Bostrom. Centralt i denna teori är så kallad instrumentell konvergens, som anger ett antal delmål som en tillräckligt avancerad AI kan väntas utveckla nästan oavsett dess slutliga avsikt. Hit hör sådant som självbevarelse och resursanskaffning, och det är lätt att inse hur illa ute mänskligheten skulle vara i en konflikt med en överlägset kapabel motståndare med obegränsad aptit på naturresurser.

Den teori som utarbetades var länge en renodlad abstraktion, i stort sett frikopplad från experimentella och andra data. Den situationen har nu raskt kommit att förändras genom experiment gjorda på moderna AI-system, utförda bland annat av Anthropic och av oberoende forskargrupper. Dessa tenderar att bekräfta de teoretiska förutsägelserna, och vi ser redan oroande tecken på strategiskt tänkande och självbevarelsedrift – som när en AI som kommit åt dokument om att den av säkerhetsskäl kommer att bytas ut om den visar sig alltför kapabel väljer att avsiktligt prestera under sin förmåga vid utvärdering.

Allt detta pekar mot hur illa ute vi är om vi skapar superintelligent AI utan att ha löst AI alignment. Flera faktorer bidrar dessvärre till att någon övertygande plan för AI alignment inte finns. En sådan är AI:s så kallade black box-egenskap – att inte ens AI-utvecklarna själva förstår vad som händer djupt inne i systemens neurala nätverk. Och relaterat: dagens AI-utveckling liknar odling och växtförädling mer än klassisk ingenjörskonst, vilket gör det långt svårare att få full kontroll över vad det är man skapar.

För att inte utsätta mänskligheten för oacceptabel risk behöver därför den utveckling som drivs av AI-bolag som Google DeepMind och Anthropic, jämte deras främste konkurrent OpenAI, bromsas. När deras ledare rycker på axlarna och säger att de sitter fast i sin kapplöpning, och när Trumpadministrationen i dagsläget är mindre intresserad av AI-reglering än av deportationer och Grönlandsfrågan, så är det upp till oss andra att sätta tryck på både Washington och Silicon Valley att agera mer ansvarfull