Personvern Og Informasjonsteknologi

Innholdsfortegnelse:

Personvern Og Informasjonsteknologi
Personvern Og Informasjonsteknologi

Video: Personvern Og Informasjonsteknologi

Video: Personvern Og Informasjonsteknologi
Video: Opplæringsvideo personvern og informasjonssikkerhet 2024, Mars
Anonim

Inngangsnavigasjon

  • Inngangsinnhold
  • Bibliografi
  • Akademiske verktøy
  • Venner PDF forhåndsvisning
  • Forfatter og sitatinfo
  • Tilbake til toppen

Personvern og informasjonsteknologi

Først publisert tors 20 nov 2014; substansiell revisjon onsdag 30. oktober 2019

Mennesker verdsetter sitt privatliv og beskyttelsen av deres personlige livssfære. De verdsetter litt kontroll over hvem som vet hva med dem. De ønsker absolutt ikke at deres personlige informasjon skal være tilgjengelig for bare noen som helst. Men nyere fremskritt innen informasjonsteknologi truer personvernet og har redusert mengden kontroll over personopplysninger og åpner for muligheten for en rekke negative konsekvenser som et resultat av tilgang til personopplysninger. I den andre halvdel av 20 th århundre databeskyttelse regimer har blitt satt på plass som en respons til økende nivåer av behandling av personopplysninger. Den 21. stårhundre har blitt århundret med big data og avansert informasjonsteknologi (f.eks. former for dyp læring), fremveksten av store teknologiselskaper og plattformøkonomien, som kommer med lagring og prosessering av databyte.

Avsløringene fra Edward Snowden, og mer nylig Cambridge Analytica-saken (Cadwalladr & Graham-Harrison 2018), har vist at bekymringer for negative konsekvenser er reelle. De tekniske mulighetene for å samle, lagre og søke i store mengder data om telefonsamtaler, internettsøk og elektronisk betaling er nå på plass og brukes rutinemessig av offentlige etater og bedriftsaktører. Fremveksten av Kina og den store skalaen med bruk og spredning av avanserte digitale teknologier for overvåking og kontroll har bare bidratt til bekymring for mange. For forretningsfirmaer er personopplysninger om kunder og potensielle kunder nå også en viktig ressurs. Omfanget og formålet med de personlige datasentrerte forretningsmodellene til Big Tech (Google, Amazon, Facebook, Microsoft,Apple) er blitt beskrevet i detalj av Shoshana Zuboff (2018) under etiketten “overvåkningskapitalisme”.

Samtidig er betydningen og verdien av personvern fortsatt gjenstand for betydelig kontrovers. Kombinasjonen av økende kraft av ny teknologi og den synkende klarheten og avtalen om personvern gir opphav til problemer angående lov, politikk og etikk. Mange av disse konseptuelle debattene og problemstillingene ligger i sammenheng med tolkning og analyse av den generelle databeskyttelsesforordningen (GDPR) som ble vedtatt av EU våren 2018 som etterfølgeren av EU 1995-direktivene, med anvendelse langt utenfor grensene til den europeiske union.

Fokuset for denne artikkelen er å utforske forholdet mellom informasjonsteknologi og personvern. Vi vil begge illustrere de spesifikke truslene som IT og innovasjoner innen IT utgjør for personvern og indikere hvordan IT selv kan være i stand til å overvinne disse personvernproblemene ved å bli utviklet på måter som kan betegnes som "personvernfølsomme", "personvernforbedrende" eller " respekt for personvern”. Vi vil også diskutere rollen til nye teknologier i debatten, og redegjøre for hvordan moralske debatter i seg selv påvirkes av IT.

  • 1. Oppfatninger om personvern og verdien av personvern

    • 1.1 Konstitusjonell vs. informasjonsmessig personvern
    • 1.2 Kontoer om verdien av personvern
    • 1.3 Personopplysninger
    • 1.4 Moralske grunner for å beskytte personopplysninger
    • 1.5 Lov, regulering og indirekte kontroll over tilgang
  • 2. Informasjonsteknologiens innvirkning på personvernet

    • 2.1 Utviklingen innen informasjonsteknologi
    • 2.2 Internett
    • 2.3 Sosiale medier
    • 2.4 Big data
    • 2.5 Mobile enheter
    • 2.6 Tingenes internett
    • 2.7 E-regjering
    • 2.8 Overvåking
  • 3. Hvordan kan informasjonsteknologi i seg selv løse personvernproblemer?

    • 3.1 Designmetoder
    • 3.2 Personvernforbedrende teknologier
    • 3.3 Kryptografi
    • 3.4 Identitetsstyring
  • 4. Nye teknologier og vår forståelse av personvern
  • Bibliografi
  • Akademiske verktøy
  • Andre internettressurser
  • Relaterte oppføringer

1. Oppfatninger om personvern og verdien av personvern

Diskusjoner om personvern er sammenvevd med bruk av teknologi. Publikasjonen som startet debatten om personvern i den vestlige verden ble anledet av introduksjonen av avispressen og fotografering. Samuel D. Warren og Louis Brandeis skrev sin artikkel om personvern i Harvard Law Review (Warren & Brandeis 1890) delvis i protest mot den påtrengende aktiviteten til journalistenes datter. De argumenterte for at det er en "rett til å være i fred" basert på et prinsipp om "ukrenkelig personlighet". Siden publiseringen av denne artikkelen har debatten om personvern blitt drevet av påstander om enkeltindividers rett til å bestemme i hvilken grad andre har tilgang til dem (Westin 1967) og påstander om samfunnets rett til å vite om individer. Informasjon som en hjørnestein i tilgangen til enkeltpersoner, har personverndebatten utviklet seg sammen med - og som svar på - utviklingen av informasjonsteknologi. Det er derfor vanskelig å forestille seg forestillingene om personvern og diskusjoner om databeskyttelse som atskilt fra måten datamaskiner, Internett, mobil databehandling og de mange applikasjonene til disse grunnleggende teknologiene har utviklet seg.

1.1 Konstitusjonell vs. informasjonsmessig personvern

Inspirert av påfølgende utvikling i amerikansk lovgivning, kan det skilles mellom (1) konstitusjonelt (eller avgjørende) personvern og (2) tort (eller informasjonsmessig) personvern (DeCew 1997). Den første refererer til friheten til å ta egne beslutninger uten innblanding fra andre i forhold som blir sett på som intime og personlige, for eksempel beslutningen om å bruke prevensjonsmidler eller å ha abort. Den andre er opptatt av enkeltpersoners interesse i å utøve kontroll over tilgang til informasjon om seg selv og blir ofte referert til som "informasjonsmessige personvern". Tenk her for eksempel på informasjon som blir gitt på Facebook eller andre sosiale medier. Alt for lett kan slik informasjon være utenfor kontrollen av den enkelte.

Uttalelser om personvern kan være beskrivende eller normative, avhengig av om de brukes til å beskrive måten mennesker definerer situasjoner og personvernforhold og måten de verdsetter dem på, eller brukes til å indikere at det burde være begrensninger for bruken av informasjon eller informasjonsbehandling. Disse forholdene eller begrensningene innebærer vanligvis personlig informasjon om enkeltpersoner, eller måter å behandle informasjon på som kan påvirke enkeltpersoner. Informasjons privatliv i normativ forstand refererer typisk til en ikke-absolutt moralsk rett til personer til å ha direkte eller indirekte kontroll over tilgang til (1) informasjon om seg selv, (2) situasjoner der andre kan skaffe seg informasjon om seg selv, og (3) teknologi som kan brukes til å generere, behandle eller spre informasjon om seg selv.

1.2 Kontoer om verdien av personvern

Debattene om personvern dreier seg nesten alltid om ny teknologi, alt fra genetikk og den omfattende studien av biomarkører, hjernebilder, droner, bærbare sensorer og sensornettverk, sosiale medier, smarttelefoner, lukket krets-TV, til regjerings cybersecurity-programmer, direkte markedsføring, RFID-brikker, Big Data, hodemonterte skjermer og søkemotorer. Det er i utgangspunktet to reaksjoner på flommen av ny teknologi og dens innvirkning på personlig informasjon og personvern: den første reaksjonen, holdt av mange mennesker i IT-bransjen og i FoU, er at vi har null personvern i den digitale tidsalderen, og at det ikke er noe måten vi kan beskytte den på, så vi bør venne oss til den nye verden og komme over den (Sprenger 1999). Den andre reaksjonen er at personvernet vårt er viktigere enn noen gang, og at vi kan og vi må forsøke å beskytte det.

I litteraturen om personvern er det mange konkurrerende beretninger om personvernets art og verdi (Negley 1966, Rössler 2005). I den ene enden av spekteret argumenterer reduksjonsberetninger for at personvernkrav egentlig handler om andre verdier og andre ting som betyr noe fra et moralsk synspunkt. I henhold til disse synspunktene kan verdien av personvern reduseres til disse andre verdiene eller verdikildene (Thomson 1975). Forslag som er blitt forsvart på denne måten nevner eiendomsrett, sikkerhet, autonomi, intimitet eller vennskap, demokrati, frihet, verdighet eller nytteverdi og økonomisk verdi. Reduksjonistregnskap mener at viktigheten av personvern bør forklares og betydningen avklares i forhold til de andre verdiene og verdikildene (Westin 1967). Det motsatte synet hevder at personvern er verdifullt i seg selv, og dets verdi og betydning er ikke avledet fra andre hensyn (se for en diskusjon Rössler 2004). Synspunkter som tolker personvern og den personlige livssfæren som en menneskerett, ville være et eksempel på denne ikke-reduksjonistiske oppfatning.

Nylig er det foreslått en type personvernkonto i forhold til ny informasjonsteknologi, som erkjenner at det er en klynge av relaterte moralske påstander som ligger til grunn for appeller til personvern, men fastholder at det ikke er en eneste essensiell kjerne av personvernhensyn. Denne tilnærmingen omtales som klyngekontoer (DeCew 1997; Solove 2006; van den Hoven 1999; Allen 2011; Nissenbaum 2004).

Fra et beskrivende perspektiv er et nylig ytterligere tilskudd til kroppen for personvernkontoer epistemiske kontoer, der forestillingen om personvern først og fremst analyseres med tanke på kunnskap eller andre epistemiske tilstander. Å ha personvern betyr at andre ikke kjenner til visse private forslag; manglende personvern betyr at andre kjenner visse private forslag (Blaauw 2013). Et viktig aspekt ved denne oppfatningen om å ha privatliv er at det blir sett på som en relasjon (Rubel 2011; Matheson 2007; Blaauw 2013) med tre argumentplasser: et emne (S), et sett med proposisjoner (P) og et sett med individer (JEG). Her er S emnet som har (en viss grad av) personvern. P er sammensatt av de forslagene emnet ønsker å holde private (kall forslagene i dette settet 'personlige forslag'),og jeg er sammensatt av de individer med respekt for hvem S ønsker å holde de personlige forslagene private.

Et annet skille som er nyttig å gjøre er skillet mellom en europeisk og en amerikansk amerikansk tilnærming. En bibliometrisk studie antyder at de to tilnærmingene er separate i litteraturen. Den første konseptualiserer spørsmål om informasjonsmessig personvern i form av "databeskyttelse", den andre i form av "personvern" (Heersmink et al. 2011). Når man diskuterer forholdet til personvern og teknologi, er oppfatningen av databeskyttelse mest nyttig, siden det fører til et relativt tydelig bilde av hva beskyttelsesobjektet er og på hvilke tekniske måter dataene kan beskyttes. Samtidig innbyr den til svar på spørsmålet hvorfor dataene bør beskyttes, og peker på en rekke særegne moralske grunnlag på bakgrunn av hvilken teknisk, juridisk og institusjonell beskyttelse av personopplysninger kan rettferdiggjøres. Informasjon om personvern blir dermed omarbeidet når det gjelder beskyttelse av personopplysninger (van den Hoven 2008). Denne kontoen viser hvordan personvern, teknologi og databeskyttelse er relatert, uten å forveksle personvern og databeskyttelse.

1.3 Personopplysninger

Personlig informasjon eller data er informasjon eller data som er koblet eller kan knyttes til enkeltpersoner. Eksempler inkluderer eksplisitt angitte egenskaper som en persons fødselsdato, seksuell preferanse, oppholdssted, religion, men også IP-adressen til datamaskinen din eller metadata knyttet til denne typen informasjon. I tillegg kan personopplysninger også være mer implisitte i form av atferdsdata, for eksempel fra sosiale medier, som kan knyttes til enkeltpersoner. Personopplysninger kan kontrasteres med data som av andre grunner anses som sensitive, verdifulle eller viktige, for eksempel hemmelige oppskrifter, økonomiske data eller militær etterretning. Data som brukes til å sikre annen informasjon, for eksempel passord, blir ikke vurdert her. Selv om slike sikkerhetstiltak (passord) kan bidra til personvern,deres beskyttelse er bare et instrument for beskyttelsen av annen (mer privat) informasjon, og kvaliteten på slike sikkerhetstiltak er derfor utenfor rammen av våre betraktninger her.

Et relevant skille som er gjort i filosofisk semantikk, er at det er mellom referensiell og attributiv bruk av beskrivende etiketter til personer (van den Hoven 2008). Personopplysninger er i loven definert som data som kan knyttes til en fysisk person. Det er to måter denne koblingen kan opprettes på; en referansemodus og en ikke-referansemodus. Loven er først og fremst opptatt av 'referensiell bruk' av beskrivelser eller attributter, den type bruk som er gjort på grunnlag av et (mulig) bekjentskap av taleren og gjenstanden for hans kunnskap. "Morderen av Kennedy må være sinnssyk", ytret mens han pekte på ham i retten, er et eksempel på en referansebrukende beskrivelse. Dette kan kontrasteres med beskrivelser som brukes attributivt som i "morderen av Kennedy må være sinnssyk, hvem han enn er". I dette tilfellet er brukeren av beskrivelsen ikke - og kan aldri bli - kjent med personen han snakker om eller har tenkt å henvise til. Hvis den juridiske definisjonen av personopplysninger tolkes referensielt, vil mye av dataene som på et eller annet tidspunkt kunne bringes til å bære på personer, være ubeskyttet; det vil si at behandlingen av disse dataene ikke vil bli begrenset av moralske grunner relatert til personvern eller personlig livssfære, siden de ikke "henviser" til personer på en enkel måte og derfor ikke utgjør "personopplysninger" i en streng forstand.mye av dataene som på et eller annet tidspunkt kunne bringes til å bære på personer, ville være ubeskyttet; det vil si at behandlingen av disse dataene ikke vil bli begrenset av moralske grunner relatert til personvern eller personlig livssfære, siden de ikke "henviser" til personer på en enkel måte og derfor ikke utgjør "personopplysninger" i en streng forstand.mye av dataene som på et eller annet tidspunkt kunne bringes til å bære på personer, ville være ubeskyttet; det vil si at behandlingen av disse dataene ikke vil bli begrenset av moralske grunner relatert til personvern eller personlig livssfære, siden de ikke "henviser" til personer på en enkel måte og derfor ikke utgjør "personopplysninger" i en streng forstand.

1.4 Moralske grunner for å beskytte personopplysninger

Følgende typer moralske grunner for beskyttelse av personopplysninger og for å gi direkte eller indirekte kontroll over tilgang til disse dataene fra andre kan skilles (van den Hoven 2008):

  1. Forebygging av skade: Ubegrenset tilgang fra andres bankkonto, profil, sosiale mediekontoer, skylagringsplasser, egenskaper og oppholdssted kan brukes til å skade den registrerte på mange forskjellige måter.
  2. Informasjonsulikhet: Personopplysninger har blitt varer. Enkeltpersoner er vanligvis ikke i en god posisjon til å forhandle fram kontrakter om bruken av dataene sine, og har ikke midler til å sjekke om partnere oppfyller vilkårene i kontrakten. Lov om personvern, regulering og styring har som mål å etablere rettferdige betingelser for å utarbeide kontrakter om overføring og utveksling av personopplysninger og gi den registrerte kontroller og balanser, garantier for oppreisning og midler til å overvåke overholdelsen av kontraktens betingelser. Fleksible priser, prismålretting og prismåling, dynamiske forhandlinger gjennomføres typisk på grunnlag av asymmetrisk informasjon og store forskjeller i tilgangen til informasjon. Også valg av modellering i markedsføring, mikremålretting i politiske kampanjer,og nudging i implementering av politikk utnytte en grunnleggende informasjonsulikhet mellom rektor og agent.
  3. Informativ urettferdighet og diskriminering: Personopplysninger gitt i en sfære eller sammenheng (for eksempel helsehjelp) kan endre sin betydning når de brukes i en annen sfære eller kontekst (for eksempel kommersielle transaksjoner) og kan føre til diskriminering og ulemper for den enkelte. Dette er relatert til diskusjonen om kontekstuell integritet av Nissenbaum (2004) og Walzerian rettsfærer (Van den Hoven 2008).
  4. Inngrep i moralsk autonomi og menneskeverd: Mangel på privatliv kan utsette enkeltpersoner for krefter utenfor som påvirker valgene deres og får dem til å ta beslutninger de ellers ikke ville tatt. Massetilsyn fører til en situasjon der rutinemessig, systematisk og kontinuerlig tar valg og beslutninger fordi de vet at andre ser på dem. Dette påvirker deres status som autonome vesener og har det som noen ganger blir beskrevet som en "kjølig effekt" på dem og på samfunnet. Nært beslektede er hensyn til brudd på respekten for personer og menneskeverd. Den enorme ansamlingen av data som er relevante for en persons identitet (f.eks. Hjern-datamaskin-grensesnitt, identitetsgrafer, digitale dobler eller digitale tvillinger,analyse av topologien i ens sosiale nettverk) kan føre til ideen om at vi kjenner en bestemt person siden det er så mye informasjon om henne. Det kan hevdes at det å kunne finne ut av mennesker på grunnlag av big dataene utgjør en epistemisk og moralsk ujevnhet (Bruynseels & Van den Hoven 2015), som ikke respekterer det faktum at mennesker er underlagt private mentale tilstander som har en viss kvalitet som er utilgjengelig fra et eksternt perspektiv (tredje- eller andreperspektiv) - hvor detaljert og nøyaktig det måtte være. Å respektere personvern vil da innebære en anerkjennelse av denne moralske fenomenologien til mennesker, dvs. å anerkjenne at et menneske alltid er mer enn avanserte digitale teknologier kan levere. Det kan hevdes at det å kunne finne ut av mennesker på grunnlag av big dataene utgjør en epistemisk og moralsk ujevnhet (Bruynseels & Van den Hoven 2015), som ikke respekterer det faktum at mennesker er underlagt private mentale tilstander som har en viss kvalitet som er utilgjengelig fra et eksternt perspektiv (tredje- eller andreperspektiv) - hvor detaljert og nøyaktig det måtte være. Å respektere personvern vil da innebære en anerkjennelse av denne moralske fenomenologien til mennesker, dvs. å anerkjenne at et menneske alltid er mer enn avanserte digitale teknologier kan levere. Det kan hevdes at det å kunne finne ut av mennesker på grunnlag av big dataene utgjør en epistemisk og moralsk ujevnhet (Bruynseels & Van den Hoven 2015), som ikke respekterer det faktum at mennesker er underlagt private mentale tilstander som har en viss kvalitet som er utilgjengelig fra et eksternt perspektiv (tredje- eller andreperspektiv) - hvor detaljert og nøyaktig det måtte være. Å respektere personvern vil da innebære en anerkjennelse av denne moralske fenomenologien til mennesker, dvs. å anerkjenne at et menneske alltid er mer enn avanserte digitale teknologier kan levere.som ikke respekterer det faktum at mennesker er personer med private mentale tilstander som har en viss kvalitet som er utilgjengelig fra et eksternt perspektiv (tredje- eller andreperspektiv) - hvor detaljert og nøyaktig det måtte være. Å respektere personvern vil da innebære en anerkjennelse av denne moralske fenomenologien til mennesker, dvs. å anerkjenne at et menneske alltid er mer enn avanserte digitale teknologier kan levere.som ikke respekterer det faktum at mennesker er personer med private mentale tilstander som har en viss kvalitet som er utilgjengelig fra et eksternt perspektiv (tredje- eller andreperspektiv) - hvor detaljert og nøyaktig det måtte være. Å respektere personvern vil da innebære en anerkjennelse av denne moralske fenomenologien til mennesker, dvs. å anerkjenne at et menneske alltid er mer enn avanserte digitale teknologier kan levere.

Disse hensynene gir alle gode moralske grunner for å begrense og begrense tilgangen til personopplysninger og gi enkeltpersoner kontroll over sine data.

1.5 Lov, regulering og indirekte kontroll over tilgang

Når de erkjenner at det er moralske grunner for å beskytte personopplysninger, er lover om databeskyttelse i nesten alle land. Det grunnleggende moralske prinsippet som ligger til grunn for disse lovene er kravet om informert samtykke til behandling av den registrerte, og gir forsøkspersonen (i hvert fall i prinsippet) kontroll over potensielle negative effekter som diskutert ovenfor. Videre krever behandling av personlig informasjon at dens formål skal spesifiseres, bruken av dem begrenses, enkeltpersoner varsles og få lov til å rette opp unøyaktigheter, og innehaveren av dataene skal stilles til ansvar overfor tilsynsmyndighetene (OECD 1980). Fordi det er umulig å garantere at alle typer databehandling i alle disse områdene og applikasjonene overholdes til disse reglene og lovene på tradisjonelle måter,såkalte “privacy-enhancing Technologies” (PETs) og identitetsstyringssystemer forventes å erstatte menneskelig tilsyn i mange tilfeller. Utfordringen med hensyn til personvern i det tjueførste århundre er å sikre at teknologi er designet på en slik måte at den inkluderer personvernkrav i programvaren, arkitekturen, infrastrukturen og arbeidsprosessene på en måte som gjør at brudd på personvern usannsynlig vil oppstå. Nye generasjoner personvernforskrifter (f.eks. GDPR) krever nå standard en "personvern etter design" -tilnærming. Dataøkosystemene og sosio-tekniske systemer, forsyningskjeder, organisasjoner, inkludert insentivstrukturer, forretningsprosesser og teknisk maskinvare og programvare, opplæring av personell, bør alle utformes på en slik måte at sannsynligheten for brudd på personvern er lav som mulig.

2. Informasjonsteknologiens innvirkning på personvernet

Debattene om personvern dreier seg nesten alltid om ny teknologi, alt fra genetikk og den omfattende studien av biomarkører, hjernebilder, droner, bærbare sensorer og sensornettverk, sosiale medier, smarttelefoner, lukket krets-TV, til regjerings cybersecurity-programmer, direkte markedsføring, overvåking, RFID-brikker, big data, hodemonterte skjermer og søkemotorer. Effekten av noen av disse nye teknologiene, med særlig fokus på informasjonsteknologi, blir diskutert i dette avsnittet.

2.1 Utviklingen innen informasjonsteknologi

"Informasjonsteknologi" refererer til automatiserte systemer for lagring, prosessering og distribusjon av informasjon. Vanligvis innebærer dette bruk av datamaskiner og kommunikasjonsnettverk. Mengden informasjon som kan lagres eller behandles i et informasjonssystem avhenger av teknologien som brukes. Teknologiens kapasitet har økt raskt de siste tiårene, i samsvar med Moore lov. Dette gjelder lagringskapasitet, prosesseringskapasitet og kommunikasjonsbåndbredde. Vi er nå i stand til å lagre og behandle data på exabyte-nivå. For å illustrere, for å lagre 100 exabyte med data på 720 MB CD-ROM-plater, ville det kreves en bunke av dem som nesten vil nå månen.

Denne utviklingen har grunnleggende endret vår praksis for informasjonslevering. De raske endringene har økt behovet for nøye vurdering av ønskene av effekter. Noen snakker til og med om en digital revolusjon som et teknologisk sprang som ligner på den industrielle revolusjonen, eller en digital revolusjon som en revolusjon i forståelsen av menneskets natur og verden, lik revolusjonene fra Copernicus, Darwin og Freud (Floridi 2008). I både teknisk og epistemisk forstand er det lagt vekt på tilkobling og interaksjon. Fysisk rom har blitt mindre viktig, informasjon er allestedsnærværende, og sosiale relasjoner har også tilpasset seg.

Som vi har beskrevet personvernet når det gjelder moralske grunner for å stille begrensninger for tilgang til og / eller bruk av personlig informasjon, stiller den økte tilkoblingen som informasjonsteknologien pålegger mange spørsmål. I en beskrivende forstand har tilgangen økt, noe som i en normativ forstand krever vurdering av ønskelig med denne utviklingen, og evaluering av potensialet for regulering ved hjelp av teknologi (Lessig 1999), institusjoner og / eller lov.

Når tilkobling øker tilgangen til informasjon, øker det også muligheten for agenter til å handle basert på de nye informasjonskildene. Når disse kildene inneholder personlig informasjon, dukker det lett opp risiko for skade, ulikhet, diskriminering og tap av autonomi. For eksempel kan fiendene dine ha mindre problemer med å finne ut hvor du er, brukere kan bli fristet til å gi fra seg personvern for opplevde fordeler i nettmiljøer, og arbeidsgivere kan bruke online informasjon for å unngå å ansette visse grupper mennesker. Videre kan systemer i stedet for brukere bestemme hvilken informasjon som vises, og dermed konfrontere brukere bare med nyheter som samsvarer med deres profiler.

Selv om teknologien opererer på enhetsnivå, består informasjonsteknologi av et sammensatt system av sosio-tekniske praksiser, og dens kontekst av bruk danner grunnlaget for å diskutere sin rolle i å endre muligheter for tilgang til informasjon, og derved påvirke personvernet. Vi vil diskutere noen spesifikke utviklingen og deres innvirkning i de følgende avsnittene.

2.2 Internett

Internett, opprinnelig unnfanget på 1960-tallet og utviklet på 1980-tallet som et vitenskapelig nettverk for utveksling av informasjon, var ikke designet for å skille informasjonsstrømmer (Michener 1999). Dagens verdensvev var ikke forutsett, og heller ikke muligheten for misbruk av Internett. Nettsteder for sosiale nettverk dukket opp for bruk i et fellesskap av mennesker som kjente hverandre i det virkelige liv - først, mest i akademiske omgivelser - i stedet for å bli utviklet for et verdensomspennende fellesskap av brukere (Ellison 2007). Det ble antatt at deling med nære venner ikke ville forårsake noen skade, og personvern og sikkerhet dukket først opp på agendaen når nettverket ble større. Dette betyr at personvernhensyn ofte måtte behandles som tilleggsprogrammer enn som design.

Et hovedtema i diskusjonen om Internett-personvern dreier seg om bruken av informasjonskapsler (Palmer 2005). Informasjonskapsler er små biter av data som nettsteder lagrer på brukerens datamaskin, for å muliggjøre personalisering av nettstedet. Noen informasjonskapsler kan imidlertid brukes til å spore brukeren på flere nettsteder (sporing av informasjonskapsler), noe som muliggjør for eksempel reklame for et produkt brukeren nylig har sett på et helt annet nettsted. Igjen er det ikke alltid klart hva den genererte informasjonen brukes til. Lover som krever brukernes samtykke for bruk av informasjonskapsler, er ikke alltid vellykkede med tanke på å øke kontrollnivået, ettersom samtykkeforespørslene forstyrrer oppgavestrømmene, og brukeren kan ganske enkelt klikke bort alle forespørsler om samtykke (Leenes & Kosta 2015). Tilsvarende funksjoner på sosiale nettverk innebygd i andre nettsteder (f.eks"Like" -knapp) kan tillate at det sosiale nettverket identifiserer nettstedene som besøkes av brukeren (Krishnamurthy & Wills 2009).

Den nylige utviklingen av cloud computing øker de mange personvernproblemene (Ruiter & Warnier 2011). Tidligere, mens informasjon vil være tilgjengelig fra nettet, vil brukerdata og programmer fremdeles lagres lokalt, noe som hindrer programleverandører i å ha tilgang til data- og bruksstatistikken. I skyberegning er både data og programmer online (i skyen), og det er ikke alltid klart hva brukergenererte og systemgenererte data brukes til. Ettersom data er lokalisert andre steder i verden, er det ikke alltid selvsagt hvilken lov som er gjeldende, og hvilke myndigheter som kan kreve tilgang til dataene. Data som er samlet inn av online tjenester og apper som søkemotorer og spill, er spesielt bekymringsfulle her. Hvilke data som brukes og kommuniseres av applikasjoner (nettleserhistorikk, kontaktlister osv.) Er ikke alltid klart,og selv når det er, kan det eneste valget som er tilgjengelig for brukeren, være å ikke bruke applikasjonen.

Noen spesielle funksjoner for Internett-personvern (sosiale medier og big data) blir diskutert i de følgende seksjonene.

2.3 Sosiale medier

Sosiale medier gir ytterligere utfordringer. Spørsmålet handler ikke bare om de moralske grunnene for å begrense tilgangen til informasjon, det handler også om de moralske grunnene for å begrense invitasjonene til brukerne om å sende inn alle slags personopplysninger. Nettsteder på sosiale nettverk inviterer brukeren til å generere mer data for å øke verdien på nettstedet ("profilen din er …% komplett"). Brukere blir fristet til å utveksle personopplysningene sine for fordelene ved bruk av tjenester, og gir både disse dataene og deres oppmerksomhet som betaling for tjenestene. I tillegg kan det hende at brukerne ikke engang er klar over hvilken informasjon de fristes til å gi, som i det nevnte tilfellet av "lignende" -knappen på andre nettsteder. Bare å begrense tilgangen til personlig informasjon gjør ikke rettferdighet til problemene her,og det mer grunnleggende spørsmålet ligger i å styre brukernes atferd ved å dele. Når tjenesten er gratis, trengs dataene som betalingsmåte.

En måte å begrense brukerne fristelse til å dele er å kreve at standardinnstillinger for personvern er strenge. Selv da begrenser dette tilgangen for andre brukere (“venner av venner”), men det begrenser ikke tilgangen for tjenesteleverandøren. Slike begrensninger begrenser også verdien og anvendeligheten av nettsteder for sosiale nettverk, og kan redusere positive effekter av slike tjenester. Et spesielt eksempel på personvernvennlige standarder er opt-in i motsetning til opt-out-tilnærmingen. Når brukeren må utføre en eksplisitt handling for å dele data eller abonnere på en tjeneste eller adresseliste, kan de resulterende effektene være mer akseptable for brukeren. Mye avhenger imidlertid fortsatt av hvordan valget er innrammet (Bellman, Johnson, & Lohse 2001).

2.4 Big data

Brukere genererer masse data når de er online. Dette er ikke bare data eksplisitt lagt inn av brukeren, men også tallrike statistikker om brukeratferd: nettsteder som er besøkt, lenker som er klikket, søkeord som er skrevet inn, etc. Data mining kan brukes til å trekke ut mønstre fra slike data, som deretter kan brukes til å lage beslutninger om brukeren. Disse kan bare påvirke onlineopplevelsen (annonser vist), men avhengig av hvilke parter som har tilgang til informasjonen, kan de også påvirke brukeren i helt andre sammenhenger.

Spesielt kan store data brukes til å profilere brukeren (Hildebrandt 2008), og lage mønstre av typiske kombinasjoner av brukeregenskaper, som deretter kan brukes til å forutsi interesser og oppførsel. En uskyldig applikasjon er "du kan også like …", men avhengig av tilgjengelige data kan det bli gjort mer sensitive avledninger, for eksempel mest sannsynlig religion eller seksuell preferanse. Disse derivasjonene kan da igjen føre til ulik behandling eller diskriminering. Når en bruker kan tilordnes en bestemt gruppe, til og med bare sannsynlighet, kan dette påvirke handlingene som andre har gjort (Taylor, Floridi, & Van der Sloot 2017). For eksempel kan profilering føre til avslag på forsikring eller kredittkort, i så fall er fortjeneste den viktigste årsaken til diskriminering. Når slike beslutninger er basert på profilering,Det kan være vanskelig å utfordre dem eller til og med finne forklaringene bak. Profilering kan også brukes av organisasjoner eller mulige fremtidige regjeringer som har diskriminering av bestemte grupper på deres politiske agenda, for å finne sine mål og nekte dem tilgang til tjenester, eller verre.

Big data kommer ikke bare fra Internett-transaksjoner. Tilsvarende kan data samles inn når du handler, når de blir tatt opp av overvåkningskameraer i offentlige eller private rom, eller når du bruker smartkortbaserte betalingssystemer for kollektivtransport. Alle disse dataene kan brukes til å profilere innbyggere, og basere beslutninger på slike profiler. For eksempel kan shoppingdata brukes til å sende informasjon om sunne matvaner til bestemte personer, men igjen også for beslutninger om forsikring. I henhold til EUs lov om databeskyttelse er tillatelse nødvendig for behandling av personopplysninger, og de kan bare behandles til det formålet de ble innhentet for. Spesifikke utfordringer er derfor (a) hvordan man får tillatelse når brukeren ikke eksplisitt inngår en transaksjon (som i tilfelle overvåking), og (b) hvordan man kan forhindre “funksjonskryp”, dvs.data som brukes til forskjellige formål etter at de er samlet inn (som for eksempel kan skje med DNA-databaser (Dahl & Sætnan 2009).

En spesiell bekymring kan komme fra genetikk og genomiske data (Tavani 2004, Bruynseels & van den Hoven, 2015). Som andre data kan genomics brukes til å lage forutsigelser, og spesielt kunne forutsi risiko for sykdommer. Bortsett fra at andre har tilgang til detaljerte brukerprofiler, er et grunnleggende spørsmål her om personen skal vite hva som er kjent om henne. Generelt kan brukere sies å ha rett til å få tilgang til all informasjon som er lagret om dem, men i dette tilfellet kan det også være en rettighet til ikke å vite, spesielt når kunnskap om dataene (f.eks. Risiko for sykdommer) vil redusere trivsel - ved å forårsake frykt, for eksempel - uten å muliggjøre behandling. Når det gjelder tidligere eksempler, er det ikke sikkert at man ønsker å kjenne til mønstrene i ens egen shoppingatferd.

2.5 Mobile enheter

Ettersom brukere i økende grad eier nettverksenheter som smarttelefoner, samler og sender mobile enheter flere og flere data. Disse enhetene inneholder vanligvis et utvalg av alt="sep man icon" /> Hvordan sitere denne oppføringen.

september mann ikon
september mann ikon

Forhåndsvis PDF-versjonen av denne oppføringen hos Friends of the SEP Society.

inpho-ikonet
inpho-ikonet

Slå opp dette emnet på Internet Philosophy Ontology Project (InPhO).

phil papirer ikon
phil papirer ikon

Forbedret bibliografi for denne oppføringen på PhilPapers, med lenker til databasen.

Andre internettressurser

  • Albright, J., 2016, “Hvordan Trumps kampanje brukte det nye dataindustrielle komplekset for å vinne valget”, LSE, US Center, USApp-amerikansk politikk og politikkblogg.
  • Allen, C., 2016, The Path to Self-Sovereign Identity, Coindesk.
  • Cadwalladr, C., 2019, Facebooks rolle i Brexit - og trusselen mot demokratiet. TED Talk
  • Danezis, G & S. Gürses, 2010, “En kritisk gjennomgang av 10 års privatlivsteknologi.”
  • Gellman, R., 2014, “Fair information practices: a basic history,”, versjon 2.12, 3. august 2014, online manuskript.
  • Nakamoto, S., Bitcoin: Et node-til-node-elektronisk kontantsystem, www.bitcoin.org.
  • PCI DSS (= Payment Card Industry Data Security Standard), v3.2 (2018), PCI DSS-relaterte dokumenter, PCI Security Standards Council, LLC.
  • Richter, H., W. Mostowski, & E. Poll, 2008, "Fingerprinting pass", presentert på NLUUG Spring Conference on Security.
  • Elektronisk personverninformasjonssenter.
  • EU-kommisjonen, databeskyttelse.
  • Det amerikanske utenriksdepartementet, personvernloven.

Anbefalt: