Independent thesis Advanced level (professional degree), 20 credits / 30 HE credits
Denna uppsats har syftat till att undersöka hur straffrätten förhåller sig till artificiell intelligens på ett generellt, grundläggande plan. För att förstå nuvarande lagstiftning och dess förhållande till artificiell intelligens bättre, har ett påhittat lagstiftningsförslag ”artificiell intelligens som gärningsperson” använts som verktyg. De frågeställningar som har undersökts är hur nämnda påhittade lagstiftningsförslag skulle förhålla sig till Nils Jareborgs brottsideologier, de straffideologier som ligger bakom vårt påföljdssystem, samt till brottsdefinitionen i 1 kap. 1 § BrB. Det har vidare undersökts om det finns några alternativ till det påhittade lagstiftningsförslaget som skulle passa bättre in i straffsystemet.
Undersökningen har visat att många av de problem som artificiell intelligens medför i straffrättsligt hänseende inte är nya, men att kombinationen av problem kan sägas vara det. Vissa problem har tidigare stötts på i form av juridiska personer, medan andra har stötts på i form av rättsobjekt.
Det som framförallt verkar skilja artificiell intelligens från de flesta andra rättsobjekt är dess förmåga att kränka de intressen som skyddas av strafflagstiftningen inom ramen för dess autonomi, vilket jag menar gör att det påhittade lagstiftningsförslaget skulle kunna motiveras utifrån den radikala brottsideologin. Eftersom det inte är möjligt att tillskriva artificiell intelligens någon attityd till en person i maktposition eller till lagstiftningen som sådan, kan det påhittade förslaget dock inte motiveras utifrån varken den primitiva eller kollektivistiska brottsideologin.
Sammantaget verkar det inte heller finnas några starka straffideologiska skäl till att genomföra det påhittade lagstiftningsförslaget, även om man skulle kunna tänka sig att det går att motivera ur inkapaciteringssynpunkt, till exempel. Det stärkta brottsofferperspektivet som kommer till uttryck i Dir. 2023:115 bedöms inte påverka denna slutsats, om reformen skulle bli verklighet.
Artificiell intelligens kan inte begå gärningar i dess straffrättsliga bemärkelse, så som det definieras i 1 kap. 1 § BrB. Det betyder i sin tur att artificiell intelligens inte ens kan begå brott i objektiv mening, även om man i och för sig skulle kunna tänka sig att det resultat som artificiell intelligens producerar skulle kunna uppfylla kravet på brottsbeskrivningsenlighet. Medvetande är en grundförutsättning för uppsåt och oaktsamhet och artificiell intelligens kan därför inte tillskrivas skuld. Att artificiell intelligens inte kan begå gärningar konstateras kunna få betydelse för brottsrubriceringen både i fall med en eller flera mänskliga gärningspersoner.
I uppsatsen introduceras begreppen anonyma och kumulerade fel för att beskriva de situationer som artificiell intelligens kan ge upphov till på straffrättens område.
Det föreslås bland annat att uppsåtsbedömningen vid prövningen av mänskligt straffrättsligt ansvar för underlåtenhet att utöva kontroll och tillsyn över artificiell intelligens bör göras utifrån de principer för uppsåtsbedömningen vid företagaransvar som HD ställt upp i NJA 2022 s. 264.
Slutligen argumenteras för att många av de problem som tycks uppstå i mötet mellan straffrätten och artificiell intelligens i flera fall inte verkar bero på de straffrättsliga reglerna, utan snarare på vår upplevelse av vad artificiell intelligens är för något.
2025. , p. 69