AI-förordningen skärper kraven på transparens – vad innebär det för dig?

AI utvecklas snabbt och öppnar för nya möjligheter hela tiden. Men samtidigt växer också kraven på hur du använder AI-genererat material på ett korrekt och ansvarsfullt sätt.

Detta Mediaflow Webinar handlar om den nya AI-förordningen (AI Act) som innebär att organisationer behöver ha bättre ordning och tydlighet kring hur AI används i kommunikation, marknadsföring och innehållsproduktion.

Längd: 56.30

Frågor och svar

Här är svar från Katarina Ladenfors på frågor som inte besvarades i sändningen

Katarina: Här pratar AI-förordningen framför allt om syntetiskt innehåll och deepfakes, inte vanlig bildredigering. Artikel 50 innebär sannolikt att skyldigheten att märka inte gäller när AI bara används assistivt för “standard editing” och inte väsentligt ändrar innehållet eller betydelsen i bilden.

Ett färgfilter, lite brusreducering eller liknande är normalt sett inte något som behöver AI-märkning enligt artikel 50. Börjar man däremot använda AI-funktioner som lägger till/byter ut personer, objekt eller miljöer på ett sätt som kan uppfattas som ett autentiskt foto av något som aldrig hänt – då hamnar man närmare deepfake-reglerna. Även om manipuleringen av bilden kan vilseleda mottagaren genom att bilden förskönas.  

Katarina: AI-förordningen gäller bara när AI-system används. Om du klipper in en person i en bild med traditionella verktyg utan AI omfattas det inte av artikel 50. Observera att andra regler kan gälla, t.ex. lagen om namn och bild i reklam.

Artikel 50 fokuserar på innehåll som skulle kunna uppfattas som ”autentiskt eller sanningsenligt” – alltså sådant som ser ut som verkliga personer, platser, objekt eller händelser. 

En tydligt schematisk eller icke-naturtrogen vetenskaplig illustration ligger normalt utanför kärnan av det som måste märkas enligt AI-förordningen. Juridiskt är det alltså tveksamt om det finns ett “måste”.

Ur god forskningssed/transparens kan det däremot vara klokt att kort ange t.ex. “Illustration framtagen med stöd av AI-verktyg”, särskilt i akademiska sammanhang.

Katarina: I AI-förordningen får leverantörer av AI-system kravet att se till att syntetiskt innehåll kan detekteras maskinellt, och den som publicerar deepfake-innehåll får en skyldighet att upplysa om det.

Om en bildtjänst inte har märkt upp materialet och ni i god tro tror att det är ett vanligt foto, ligger ansvaret i första hand på plattformen/leverantören. När ni i efterhand får veta att bilden är AI-genererad är det däremot klokt att:

  • uppdatera märkningen där bilden används (digitalt går det relativt lätt),

  • se över era avtal/policys för bildköp och välja leverantörer som tydligt anger AI-innehåll.

Katarina: Artikel 50 kräver att informationen lämnas ”på ett klart och särskiljbart sätt” vid första exponeringen för personen.

I tryckt material talar det för att märkning i direkt anslutning till bilden är säkrast när bilden är naturtrogen och riskerar att misstas för verklighet (t.ex. deepfakes, realistiska AI-foton).

En generell upplysning i kolofonen kan fungera som komplement, men är sannolikt inte tillräckligt som enda lösning för sådant innehåll som omfattas av artikel 50.

Katarina: Krav på märkning gäller sannolikt inte när AI bara gör standardredigering och inte ändrar innehållet eller dess innebörd på ett väsentligt sätt.

En praktisk modell för interna regler kan vara:

  • AI-genererad bild (skapad från textprompt, ingen verklig originalbild): märks t.ex. “Bild genererad med AI”.
  • AI-manipulerad bild (verkligt original som väsentligt förändrats, t.ex. personer eller miljö tillagda): märks liknande, och extra tydligt om det kan uppfattas som ett verkligt foto.
  • AI-assisterad lättredigering (brusreducering, färg, beskärning): normalt ingen märkning, men dokumenterat internt.

Katarina: En bra grund är att hålla det enkelt men tydligt. Jag skulle rekommendera att era interna regler åtminstone innehåller:

  • Tillämpningsområde: Vilka typer av innehåll och kanaler som omfattas (bilder, video, text; intern/extern kommunikation).
  • Kategorier: En enkel uppdelning, t.ex. AI-genererat, AI-manipulerat och AI-assisterad standardredigering – där den sista sannolikt inte kräver märkning.
  • När vi måste märka: Minimikrav enligt AI-förordningen, t.ex.
    • deepfakes eller annat syntetiskt innehåll som kan uppfattas som “på riktigt”,

    • AI-genererad/manipulerad text som informerar allmänheten.

  • Hur märkningen ska se ut: Standardfras(er) och var de ska stå (intill bilden, i vinjett, i sluttexter osv.).
  • Ansvar och arbetsgång: Vem som får använda AI-verktyg, vem som granskar och vem som har ansvar för att märkning och rättigheter (upphovsrätt/GDPR) är på plats.

Det ger en tydlig miniminivå som ni sedan kan bygga vidare på om ni vill vara mer transparenta än lagen kräver. Jag rekommenderar att ni upprättar en AI-policy där dessa regler är en del. 

Katarina: Ja, Att “det var AI som skapade bilden” är ingen frisedel – det är användningen i er marknadsföring som bedöms

Katarina: Juridiskt spelar två saker stor roll:

  1. Används ett AI-system över huvud taget?
    – om nej: AI-förordningen gäller inte.
  2. Ändras innehållet så att det blir eller liknar en deepfake?
    – dvs. att det ser ut som verkliga personer, objekt eller händelser på ett sätt som kan uppfattas som autentiskt, trots att det inte är det. Då krävs märkning. 

Katarina: Jag har undersökt förordningstexten och det finns inget absolut krav på att ange källa, se art. 50.4 och art. 50.5 i AI-förordningen. 

Katarina: Problemområdet här är mindre AI-förordningen och mer sekretess och immateriella rättigheter. Många publika AI-tjänster använder användardata och prompts för att förbättra sina modeller, om man inte uttryckligen väljer bort det.

Behandla grafisk profil och mallar som koncerninterna tillgångar – ladda helst inte upp allt i öppna, konsumentinriktade tjänster.

Katarina: Du kan inte ansöka om upphovsrättsligt skydd inom EU. Upphovsrätten uppstår automatiskt. I dagsläget får du dock ingen upphovsrätt till sådant som är AI-genererat t.ex. bilder: 

  • du behöver inte och kan i praktiken inte “ansöka” om upphovsrätt till en sådan bild,

  • du får i stället luta dig mot verktygets villkor och se vilka användningsrättigheter du faktiskt har,

  • om du vill ha upphovsrättsligt skydd: säkerställ att det finns tillräcklig mänsklig kreativ insats i slutresultatet (komposition, urval, bearbetning).

Katarina: Artikel 50 är inriktad på innehåll som kan uppfattas som verkligt (deepfakes) eller AI-genererade texter som informerar allmänheten.

Abstrakta bakgrunder, mönster, geometriska former osv. utan koppling till verkliga personer eller händelser hamnar långt från riskzonen. Här finns normalt ingen tydlig juridisk skyldighet att märka enligt AI-förordningen.

Många organisationer väljer ändå en enkel generell regel – t.ex. att alla AI-bilder i extern kommunikation märks – för att slippa gränsdragningsproblem.

Katarina: En “deep fake” är enligt AI-förordningen AI-genererat eller manipulerat bild-, ljud- eller videoinnehåll som liknar verkliga personer, objekt, platser eller händelser och falskt framstår som autentiskt eller sant. Framstår rösten som en verklig person måste den märkas. 

Katarina: Visionsbilder visar ofta något som inte finns ännu – det är redan i dag vanligt att ange “visionsbild” eller liknande. AI-förordningens deepfake-definition fokuserar på att innehållet liknar befintliga personer, objekt eller platser och framstår som autentiskt.

Är det tydligt att det är en visionsbild/illustration av ett framtida projekt, ligger ni längre ifrån artikel 50.

Är bilden fotorealistisk och används i sammanhang där allmänheten kan tro att det är ett nuvarande foto av platsen, är det klokt att både

  • ange att det är en visionsbild, och
  • överväga enkel AI-märkning om AI spelat en stor roll i framtagandet.

Katarina: a) Upphovsrätt

  • Tänk på att det kan vara ett upphovsrättsintrång att ladda in ett fotografi utan tillstånd. Utgår ni från ett skyddat originalfoto, finns upphovsrätten kvar till originalet.
  • AI-bearbetningen kan bli ett bearbetat verk – men då krävs normalt tillstånd från rättighetshavaren om ni ska använda det.
  1. b) GDPR och personuppgifter
  • En bild på en identifierbar person är personuppgift. Att bearbeta bilden med AI är fortsatt behandling av personuppgifter och måste ha laglig grund, information till den registrerade m.m.
  • Om AI används för emotion recognition eller biometrisk kategorisering (känslor, ålder, etnicitet m.m.) aktiveras dessutom särskilda transparenskrav i artikel 50.3, utöver GDPR.

AI-förordningens märkningsregler kommer ovanpå befintlig upphovsrätt och GDPR, de ersätter dem inte. Ni behöver både

  1. märka när artikel 50 kräver det, och

  2. säkerställa att ni har rätt att använda utgångsmaterialet och att personuppgifter behandlas lagligt.

Medverkande

Carolina Eklöv

Carolina Eklöv

Onboarding-specialist

Carolina jobbar med onboarding och träffar många av våra nya kunder när de behöver hjälp att komma igång med Mediaflow. Hon arbetade tidigare som kommunikatör och var i flera år en tv-personlighet i de lokala SVT- och TV4-nyheterna.

Katarina Ladenfors

Katarina Ladenfors

Advokat

Advokat och partner på MarLaw, specialiserad på marknadsrätt, immaterialrätt, IT-rätt, avtalsrätt och integritetsskyddsjuridik.

John Robertsson

John Robertsson

Chief Product Officer

John är Produktchef på Mediaflow och ansvarig för hur våra tjänster utvecklas och förbättras över tid. Han har ett förflutet som journalist och även kommunikatör på kommun.

Våra webinars

Anmäl dig till kommande livesändningar eller titta i efterhand.

Åk till toppen