6. Materielle menneskerettigheter i den digitale æraen

I møte med ny teknologi er enkelte menneskerettigheter særlig viktige.

«Retten til privatliv er en inngangsport til å fremme og verne andre menneskerettigheter som påvirkes av kunstig intelligens.»
FNs menneskerettighetsråd, 2019

Ny teknologi gir helt nye muligheter for hvilke mengder av data som kan samles inn, hvor lenge dataene om oss kan lagres, og hva de kan brukes til. Datasyklusen består av en rekke ledd, fra innhenting, lagring, systematisering, bearbeidelse, analyse, til langtidslagring og sletting. Menneskerettighetene som da blir særlig viktige er de materielle rettighetene som samtidig gir prosessuell beskyttelse: de som verner informasjon om hver av oss gjennom hele syklusen fra dataene samles inn frem til de slettes. Retten til privatliv gir slikt særlig vern ved innsamling, lagring og bruk av private data. Retten til ytringsfrihet gir beskyttelse av private uttrykk fra det øyeblikk de er ytret, også i den forstand at ytringer ikke skal påvirke ens øvrige rettigheter. Retten til ikke-diskriminering gir beskyttelse i den forstand at data ikke må samles inn, behandles eller benyttes på måter som forsterker eksisterende diskriminerende praksis eller foranlediger nye typer diskriminerende praksis. Etter hvert som digitale løsninger integreres dypere i hverdagen vår, blir retten til privatliv, ytringsfrihet og ikke-diskriminering stadig viktigere som forutsetninger for oppfyllelse av andre menneskerettigheter.

Retten til privatliv

Teknologiutviklingen medfører at retten til privatliv blir stadig viktigere fordi dataene om hver borger i større grad blir grunnlag for både rettigheter og for inngrep.1FNs barnekomité, General Comment No. 25, 2021, avsn. 67–68; og A/HRC/39/29, avsn. 11; samtA/HRC/48/31 avsn. 6.

I en informasjonsbasert verden blir retten til privatliv og til personlige data en grunnrettighet som tilrettelegger for andre menneskerettigheter, både online og offline.2Se FNs barnekomité, General Comment No. 25, 2021, avsn. 67–68, og A/HRC/39/29, avsn. 11. Fra å være en alminnelig menneskerettighet som ga beskyttelse mot enkelte typer inngrep, er retten til privatliv blitt en grunnleggende rettighet som er en forutsetning for oppfyllelsen av andre rettigheter, på linje med retten til ytringsfrihet eller retten til ikke-diskriminering. Retten til privatliv spiller i økende grad en avgjørende rolle i maktbalansen mellom myndighetene og individet, og er en grunnleggende menneskerettighet i et demokratisk samfunn.3FNs høykommisær for menneskerettigheter, Right to privacy, 2021, avsn. 6. 

EMK artikkel 8 beskytter privat informasjon i den forstand at staten som utgangspunkt verken skal ha eller gripe inn i privat informasjon. Privat informasjon inkluderer informasjon som finnes eller kan bli avledet om en person og vedkommendes liv, samt beslutninger fattet basert på slik informasjon. Digitaliseringen av livene våre gjør imidlertid at grensen mellom hva som er privat informasjon og hva som er offentlig er i endring, noe som gjerne kalles det private paradoks. Når skillet viskes ut mellom det personlige og det upersonlige, privat og offentlig data, anonym informasjon og informasjon hvor opphavskilde kan identifiseres, og denne sammenblandingen samtidig tjener interessene til mektige kommersielle aktører, blir det mer krevende å avgjøre hvilken type informasjon som er beskyttet av retten til privatliv.

Lagring av informasjon kan utgjøre et brudd med retten til privatliv under EMK.4Se f.eks. Leander v. Sweden, (9248/81), 26. mars 1987, avsn. 48. Se også FNs høykommisær for menneskerettigheter, Right to privacy, 2021, avsn. 20. Når det gjelder innsamling og prosessering av kommunikasjonsdata, har EMD klargjort at slik data er beskyttet av retten til privatliv også når det ikke anses som personlig informasjon.5Big Brother Watch and Others v. Storbritannia avsn. 330 og Centrum för Rättvisa v. Sverige avsn. 244. Retten til privatliv omfatter også rett til konfidensialitet i kommunikasjon.6FNs høykommisær for menneskerettighter, Right to privacy, 2021, avsn. 17; Tallin Manualen 2017, s. 189. For eksempel retten til å sende en e-post til en annen uten at kommunikasjonen fanges opp av statlige myndigheter. Om e-posten inneholder sensitiv informasjon er underordnet.7Den europeiske domstolen. Digital Rights Ireland and Seitlinger and Others, forente saker C-293/12 og C-594/12, 2014, 8. apr. 2014, avsn. 33. Den skal ikke leses av andre mennesker. Teknologiutviklingen gjør at spørsmålet endrer karakter. Dersom det er maskiner som leser e-posten, oppstår spørsmålet om retten til privatliv brytes i samme grad. Det er uenighet om retten til privatliv slår inn dersom den private informasjonen behandles av maskiner gjennom algoritmeanalyse. Svaret vil trolig avhenge av formålet med maskinens undersøkelse. Dersom det er for å sikre nettverkets operasjoner, vil det enten ikke implisere retten til privatliv eller det vil være et inngrep som vil være rettferdiggjort. Der det benyttes filtre som vil innebære at utvalgte e-poster til slutt vil bli undersøkt av mennesker, kan saken likevel stille seg annerledes.8Big Brother Watch and Others v. Storbritannia, avsn. 330.

Dersom staten foretar inngrep i retten til privatliv, krever EMK at tre vilkår er oppfylt: Inngrepet må ha et rettslig grunnlag, det må ivareta et legitimt formål, og det må være nødvendig i et demokratisk samfunn.

Et inngrep vil foreligge dersom innhenting av informasjon (data eller metadata) er systematisk, informasjonen lagres over tid og utleveres til andre. Behandling av opplysningene vil kunne utgjøre et inngrep i privatlivet etter EMK artikkel 8, selv om informasjonen er offentlig tilgjengelig. EMD legger til grunn at masseinnsamling er en gradvis prosess, der inngrepet i individets rettigheter etter artikkel 8 tiltar underveis i prosessen.9Big Brother Watch and Others v. Storbritannia, avsn. 325–331. Selv på det første stadiet, der innhentingen og lagringen ikke er rettet mot konkrete individer, vil dette kunne utgjøre et inngrep i artikkel 8. Kravet til sikkerhetsmekanismer vil imidlertid være størst på slutten av prosessen, når innholdet i kommunikasjonen kan bli nærmere undersøkt.10Big Brother Watch and Others v. Storbritannia, avsn. 330. Under EMK vil altså det å samle inn data i store mengder (bulk) i seg selv være en innblanding i retten til privatliv.11Barbulescu v. Romania, (61496/08), 5. sept. 2017. Slik innsamling er likevel ikke et brudd med retten til privatliv dersom den tredelte testen er innfridd.12Big Brother Watch and Others v. Storbritannia og Centrum för Rättvisa v. Sverige. Se også Telegraaf Media Nederland Landelijke Media BV and Others v. Nederland, (39315/06), 22. nov. 2012, avsn. 88, og Tele2 Sverige AB v Post-och telestyrelsen Secretary of State for the Home Department v Watson and Others, 2016.

Til illustrasjon vil et overvåkningsregime som samler inn digital informasjon i bulk (kommunikasjonsdata) være et inngrep i konvensjonenes forstand og må underkastes den tredelte testen.13S. and Marper v. Storbritannia, avsn. 101. Det første spørsmålet blir om det finnes en rettslig hjemmel under nasjonal rett som er tilstrekkelig til å beskytte mot vilkårlige inngrep i individers menneskerettigheter. Det andre spørsmålet blir om overvåkningen har et legitimt formål. Det tredje spørsmålet blir om overvåkningen er nødvendig i et demokratisk samfunn, i betydningen å svare på et presserende sosialt behov, og om inngrepet er proporsjonalt med det legitime formålet.14Testen under FNs konvensjon om politiske og sivile rettigheter referer til nødvendighet og proposjonalitet. Vurderingen av nødvendighet forholder seg ikke alltid til «demokratisk samfunn», se f.eks. General Comment No. 34, art. 19. Overvåkning vil gjerne anses å være legitimt i den grad formålet er å beskytte nasjonal sikkerhet eller offentlig ro og orden.15Weber and Saravia v. Tyskland, (54934/00), 29. juni 2006, avsn. 103–104. Vurderingen av hva som er nødvendig i et demokratisk samfunn krever da at man vurderer den potensielle nytteverdien av teknologien sett opp mot alvorligheten i inngrepet i en gitt menneskerettighet. Når nytteverdien handler om nasjonale sikkerhetsbehov, er det gjerne svært krevende å ha en åpen og innsiktsfull vurdering av nytten.

I tillegg til EMK, gjelder også EUs personvernregler og SPs regler om privatliv for norske myndigheter. EU-pakten for grunnleggende rettigheter opererer med en rettighet til beskyttelse av persondata som er skilt ut fra retten til privatliv.16Se Pakten for grunnleggende rettigheter i Europa Unionen, som gir rett til respekt for kommunikasjon i art. 7 og rett til beskyttelse av personlig data i art. 8.  Pakten gjelder ikke direkte for Norge, men vil påvirke tolkningen av reglene for persondatabeskyttelse i EU, som Norge er bundet av gjennom EUs personvernforordning (GDPR). Lagring av data utgjør «prosessering av personlig data» og faller under GDPR. Forordningen gjelder som norsk lov med enkelte tilpasninger, jf. personopplysningsloven § 1. I den grad en stat lagrer persondata, vil dette implisere retten til privatliv.17Europarådet, direktiv 95/46/EC (1995), art. 2(b).

 Etter GDPR artikkel 5 (2) må teknologi ha innebygget personvern. GDPR artikkel 35 pålegger personvernkonsekvensvurdering i forhold til de registrertes rettigheter og friheter ved ny teknologi eller teknologi som brukes i nye sammenhenger. De fleste land, inkludert Norge, har en MÅ-gjøre-en-personvernkonsekvensvurderings-liste etter artikkel 35 (4). Dertil sier GDPR artikkel 25 at den som tar i bruk et KI-verktøy der personopplysninger behandles, plikter å se til at de velger verktøy som har innebygd personvern i seg. Det innebærer at programmet eller algoritmen skal ivareta personvernprinsippene (artikkel 5), de registrertes rettigheter (artiklene 12–22) og friheter (fortalen (4) og EMK 8).

Sensitive personopplysninger er gitt et særlig vern i GDPR artikkel 9. Hovedregelen er at behandling av slike data er forbudt, men det er unntak ved samtykke, dersom den registrerte selv har offentliggjort opplysningene, eller dersom det er nødvendig av hensyn til allmenne interesser. I sistnevnte tilfelle må behandlingen av personopplysningene stå i et rimelig forhold til det mål som søkes oppnådd, være forenlig med det grunnleggende innholdet i retten til vern av personopplysninger, samt at egnede og særlige tiltak for å verne den registrertes grunnleggende rettigheter må sikres.18GDPR art. 9 nr. 2 bokstav g.

Under SP kreves det at inngrep i retten til privatliv ikke må være vilkårlig eller ulovlig.19For forskjell i terminologien «vilkårlig» og «ulovlig» FNs høykommissær for menneskerettigheter, Report on the right to privacy in the digital era, 2014, avsn. 21–27. Ulovlig betyr at stater kun kan gripe inn i retten til privatliv i den grad det foreligger hjemmel. Hjemmelen må være i overenstemmelse med bestemmelsene og formålene med SP, den må være klar og den må spesifisere vilkårene for inngrep i detalj. Inngrep i retten til privatliv kan ikke være vilkårlig, noe som innebærer at selv inngrep som er foreskrevet i lov, må være i tråd med SP, tjene et legitimt formål, være nødvendig for å oppnå det legitime formålet,20FNs høykommissær for menneskerettigheter, Right to privacy, 2014, avsn. 21 flg, og 2018, avsn.10. og være proporsjonal.21Toonen v. Australia (CCPR/C/50/D/488/1992), avsn. 8.3, Van Hulst v. Netherlands (CCPR/C/82/D/903/1999), avsn. 7.3 og 7.6, Madhewoo v. Mauritius (CCPR/C/131/D/3163/2018), avsn. 7.5, and CCPR/C/USA/CO/4, avsn. 22. Enhver begrensning av retten til privatliv må være det minst inngripende alternativ, og må ikke røre ved kjernen i retten til privatliv. 22FNs menneskerettighetskomite, General Ccmment No. 31 (2004), avsn. 6; FNs høykommissær for menneskerettigheter, Right to privacy, 2014, avsn. 22, and FNs høykommissær for menneskerettigheter, Right to privacy, 2018, avsn. 10.

Ytringsfrihet

Stadig flere av våre ytringer foregår digitalt. Nye digitale verktøy gjør at retten til ytringsfrihet må sikres på nye måter.

Ytringsfriheten er beskyttet av EMK artikkel 10, SP artikkel 19 og Grunnloven § 100. Ytringsfriheten skal blant annet verne om sannhetssøken, demokrati og individets frie meningsdannelse.23Grunnloven § 100 annet ledd. Ytringsfriheten omfatter både retten til å søke og motta informasjon, og til å dele ideer og meninger, og kan derfor sees på som en forutsetning for realiseringen av andre menneskerettigheter. Ytringsfrihet i Grunnloven og internasjonale traktater gjelder for ethvert medium, og omfatter også moderne teknologiske løsninger.24Tallinn Manual 2017 s. 189. Beslektet med ytringsfriheten er retten til menings- og tankefrihet.25SP art. 19 (2), General Comment No. 34. I det øyeblikket en mening er uttrykt, vil utrykket være beskyttet av og begrenset av ytringsfriheten.26EMK art. 10 (1), FN-erklæringen art. 19, SP art. 19 (2). Ytringsfriheten er en forutsetning for forsamlings- og demonstrasjonsfriheten, som vernes av EMK artikkel 11, SP artikkel 21 og Grunnloven § 101.

Ny teknologi øker flatene hvor man kan utøve sin ytringsfrihet. Digitale flater gir et globalt publikum mulighet til å søke, motta og dele informasjon, ideer og andre typer innhold for å oppnå kunnskap, bidra i debatter og delta i demokratiske prosesser. Det er også enklere å nå et større publikum med ytringer gjennom digitale flater, hvor enhver kan være sin egen redaktør. Ved at flere kan få tilgang til og dele større mengder informasjon raskere og enklere enn før, kan ny teknologi spille en positiv rolle for ytringsfriheten.

Samtidig representerer ny teknologi en trussel mot retten til å motta informasjon og retten til å ytre seg. Denne trusselen retter seg mot individer, grupper og hele samfunnssegmenter. Algoritmer dikterer hva brukere ser og hvilken prioritet dette gis, og de kan programmeres til å begrense eller prioritere innhold som igjen påvirker og manipulerer mottaker. De mest sentrale digitale plattformene eies av noen få, internasjonale selskaper, som har stor påvirkningskraft, er lite regulert, og som handler som portvoktere for den digitale verden.

Noen snakker om et tiltagende digitalt forurensningsmiljø i kommunikasjonsmiljøet, med falske profiler, «deep fakes», manipulasjon og ugjennomtrengelige avsendere.27Dansk institut for menneskerettigheder, Når algoritmer sagsbehandler, (2021). Roboter sprer informasjon og desinformasjon raskt og i store mengder. Kunstig intelligens kan spisse politiske budskap rettet mot enkelte samfunnssegment med bestemte holdninger eller bekymringer eller i gitte livssituasjoner. Vår digitale offentlighet styres i økende grad av algoritmer på måter som forsterker motsetninger og polarisering, som regel uten at vi er klar over det selv. Den digitale informasjonsverdenen er desentralisert og fragmentert, og store internasjonale selskaper forvalter stadig mer av de sentrale ytringsflatene. Utviklingen går så raskt at rettslig rammeverk og reguleringstiltak for å beskytte brukere mot nye verktøy stadig havner på etterskudd.

Ny teknologi kan dermed utfordre selve formålet med ytringsfriheten – å skape et klima for en mangfoldig offentlig debatt som er tilgjengelig og inkluderende for alle. Brudd på retten til privatliv og selvbestemmelsesrett over informasjon om en selv kan hindre mennesker fra å uttrykke seg fritt. Algoritmer kan fragmentere det offentlige rom og skape ekkokamre, hvor enkelte typer nyheter blir forsterket, og fører til økt polarisering i samfunnet, som igjen kan true sosiale bånd. Individets frie meningsdannelse kan bli truet dersom vi blir presentert kun med et utsnitt av virkeligheten, samtidig som vi selv tror at vi blir presentert et helhetlig bilde. Nye teknologiske løsninger kan bryte med retten til ytringsfrihet i en slik grad at den underminerer individuelle rettigheter og den måten deltakende demokrati er ment å fungere.28Szabo and Vissy v. Ungarn, (37138/14), 12 jan. 2016, avsn. 57.

Overvåkningsmulighetene som ny teknologi bringer med seg, utfordrer særlig ytringsfriheten gjennom nedkjølingseffekten. Teknologien gir mulighet til å fange opp og kartlegge hvem man kommuniserer med (kommunikasjonsdata) og hva som blir delt (innholdsdata). Vi legger igjen stadig flere digitale spor om oss selv, som kan lagres, systematiseres og sammenstilles. Ytringsfriheten og personvernet vil ofte kunne stå i et spenningsforhold til hverandre, for eksempel der en persons ytring griper inn i privatlivet til en annen. Ytringsfriheten og personvernet er gjerne begge involvert i de menneskerettslige avveiningene som må foretas i tilknytning til ny teknologi. Frykt for negative virkninger på privatlivet og personvernet kan medføre at man lar være å ytre seg, eller ytrer seg på en annen måte enn man ellers ville ha gjort. Dette gjelder særlig ved frykt for myndighetenes overvåking, men også private selskapers lagring og håndtering av data kan sette ytringsfriheten under press når vi ikke vet hvilken informasjon som samles inn, hvordan den kan systematiseres eller hvem den kan gis ut til. Den nedkjølende effekten på ytringsfriheten er spesielt alvorlig for journalister, som nyter et sterkt vern av sine kilder og sin korrespondanse. EMD har konstatert krenkelse av ytringsfriheten i EMK artikkel 10 der bulkovervåkingssystemer ikke inneholder gode nok sikkerhetsmekanismer for å beskytte konfidensiell journalistisk informasjon.29Big Brother Watch and Others v. Storbritannia. I andre tilfeller vil påvirkningen på ytringsfriheten kunne være mindre konkret og vanskelig å påvise, slik at det blir snakk om et strukturelle ytringsfrihetsspørsmål snarere enn krenkelser begått overfor enkeltindivider.

Måten ny teknologi kan spre informasjon på, gjør at uønskede ytringer slik som desinformasjon, hatefulle ytringer eller annet ulovlig innhold, kan få større spredning og større negativ effekt enn tidligere. Dette eksponerer særlig minoriteter og marginaliserte grupper. Private plattformer har gjerne egne regler for moderering av innhold, og baserer seg ofte på hel- eller delautomatiserte systemer for å avdekke og blokkere uønsket innhold. Slike verktøy kan være med på å beskytte mot ulovlig og skadelig innhold. En for restriktiv modereringspraksis kan derimot også være problematisk i lys av ytringsfriheten. Det kan å ha motsatt effekt, ved at innhold publisert av personer som tilhører gruppen man i utgangspunktet ønsker å beskytte mot hatefulle ytringer, blir moderert bort.

I møte med ulovlig eller skadelig innhold kan også stater ty til verktøy som å blokkere enkelte individer fra tilgang til utvalgte IP-adresser, ta ned nettsider, benytte filterteknologi for å nekte tilgang til sider som inneholder bestemt innhold, blokkere kommunikasjon av e-poster og andre typer inngrep i ytringsfriheten. Slike virkemidler kan lett misbrukes. Inngrep av denne typen vil være i strid med ytringsfriheten etter EMK dersom de ikke har hjemmel i lov og er nødvendige og proporsjonale.30EMD har eksempelvis konstatert krenkelse av art. 10 i saker om blokkering av nettsteder uten tilstrekkelig begrunnelse og overprøvingsmulighet, se Ahmet Yildirim v. Tyrkia (3111/10), 8. des. 2012. Heller ikke blokkering av YouTube var i tråd med EMK art. 10, se Cengiz and Others v. Tyrkia (48226/10 og 14027/11), 1. des. 2005. Enkelte typer ytringer har dessuten et særlig sterkt menneskerettighetsvern. Det gjelder ytringer som angår myndighetenes maktbruk, politikk, demokratiske valg, samt rapportering av menneskerettigheter, myndighetsaktiviteter og korrupsjon.

Ikke-diskriminering

Digitale verktøy og kunstig intelligens kan både forsterke eksisterende diskriminerende tendenser og kan skape helt nye former for diskriminering som bryter med menneskerettighetsvernet mot diskriminering.

Diskrimineringsvernet står sterkt i Norge. Grunnloven § 98 og EMK artikkel 14 slår fast forbudet mot diskriminering. EMK oppstiller et aksessorisk diskrimineringsvern som innebærer at inngrep i rettigheter under EMK ikke kan praktiseres på en måte som gjør forskjell i konvensjonens rettigheter basert på rase, hudfarge, kjønn, språk, trosoppfatning, politiske eller andre meninger, nasjonalt eller sosialt opphav, eiendomsforhold, fødsel eller annen status. SP oppstiller et generelt diskrimineringsvern basert på de samme grunnlagene.31SP art. 2(1), 3 og 26.

Ny teknologi eksponerer oss for at allerede eksisterende diskriminerende praksiser overføres til det digitale domenet. Et eksempel er ansiktsgjenkjenningsverktøy som i liten grad klarer å gjenkjenne mørkere hudfarge. Algoritmene til maskinene lages per i dag av mennesker, og maskinene kan arve våre stereotypier og vår forutinntatthet. Diskrimineringspraksis smitter over til de digitale flatene, og kan forsterkes som følge av menneskelig programmering.

Et annet diskrimineringsaspekt ved nye teknologier er tilgang på nye digitale flater. Digitalt utenforskap betegner personer som av ulike grunner ikke har like god tilgang på ny teknologi som andre. Dette kan for eksempel gjelde personer med funksjonsnedsettelser, personer uten fast bopel eller personer med livsførsel som avviker fra normen. Overføring av stadig flere av samfunnets offentlige funksjoner fra analoge til digitale flater kan gjøre at informasjon og funksjoner som blir mer tilgjengelig for de fleste, blir mindre tilgjengelige for et mindretall. Digitalt utenforskap kan reflektere og forsterke allerede eksisterende sosiale, kulturelle og økonomiske ulikheter. Manglende tilgang på teknologi kan også skape nye former for utenforskap som er problematisk fra et diskrimineringsperspektiv.

I tillegg kan maskinlæring og kunstig intelligens medføre helt nye former for diskriminering. Maskinene kombinerer etter hvert informasjon på nye måter. Livssyklusen til dataene består av generering, lagring, kuratering, prosessering og gjenbruk. Enkelte skillelinjer som kjønn, legning, etnisitet og religion, er karakteristika som for en rekke beslutninger ikke skal tillegges vekt etter menneskerettighetene, for eksempel på arbeids- eller boligmarkedet. Selv om vi bevisst skjuler slike opplysninger for maskinen, gjør summen av andre opplysninger at selvlærende maskiner likevel kan slutte seg frem til disse kjennetegnene. Algoritmer har annen informasjon som vil bli benyttet som for eksempel kjønnspredikator. Dersom dataene tilsier at det er en viktig faktor, vil autonome systemer dermed kunne ende med å vektlegge faktorer på måter som vil bryte med menneskerettighetene som beskytter mot nettopp slik form for diskriminering. Et analyseverktøy benyttet av Amazon til å plukke ut relevante CVer har for eksempel gjort at kvinner i stor grad har blitt avvist. Maskinenes veier til beslutninger blir utilgjengelige, samtidig som resultatet blir diskriminerende.