AI och integritet - Case-diskussion

Case-diskussion: AI och integritet

Arbeta i grupper om 3-4 personer. Läs ert case, diskutera frågorna och förbered en kort redovisning (2 minuter).


Case 1: Kamera i elevdatorn

Bakgrund

En skola i USA lånade ut laptops till elever. I datorerna fanns en funktion som kunde:

  • ta bilder via webbkameran,
  • ta skärmdumpar,
  • aktiveras på distans av skolan.

Skolan sa att funktionen skulle användas för att hitta stulna datorer.
I praktiken togs bilder även när elever var hemma, bland annat i sina sovrum. Elever och vårdnadshavare visste inte om detta.

Diskussionsfrågor:

  1. Hade skolan rätt att använda kameran? Var går gränsen?
  2. Spelar det roll att det var en skola och inte ett företag?
  3. Är det okej om syftet är “säkerhet”? När blir säkerhet övervakning?
  4. Hur hade detta upplevts om det hände i Sverige?

Koppling till AI:

  • Om bilderna analyseras automatiskt: ansiktsigenkänning, identifiering av personer i rummet och analys av beteende.
  • Hur förändras situationen när ingen människa tittar direkt?
  • Hur förändras situationen när beslut fattas automatiskt?

Case 2: 23andMe och genetisk data

Bakgrund

Företaget 23andMe säljer DNA-test:

  • Du skickar in saliv.
  • Du får information om släktskap, ursprung och vissa hälsorisker.

Efter dataintrånget 2023 blev det tydligt hur känslig informationen är. Uppgifter om genetiska profiler exponerades.

Problemet är också att DNA inte bara handlar om en person.
Om en i familjen testar sig kan information indirekt avslöja saker om andra släktingar.

Diskussionsfrågor:

  1. Är DNA “mer privat” än annan data? Varför eller varför inte?
  2. Vem äger genetisk information: du, din familj eller företaget?
  3. Borde vissa typer av data inte få samlas in alls?
  4. Skulle du själv göra ett DNA-test? Vad skulle få dig att tveka?

Koppling till AI:

  • AI används för att analysera genetiska mönster, förutspå sjukdomsrisker och gruppera människor efter biologiska drag.
  • Tänk framåt: försäkringsbolag, arbetsgivare och staten.

Case 3: Skolplattformen i Stockholm

Bakgrund

Stockholms stad införde en digital skolplattform för schema, närvaro, omdömen och kommunikation mellan lärare, elever och vårdnadshavare.

Systemet kritiserades hårt, bland annat för:

  • mycket omfattande persondatabehandling,
  • otydlighet kring behörigheter,
  • brister i säkerhet och åtkomstkontroll.

Fallet blev ett exempel på digitalisering utan tillräcklig hänsyn till integritet.

Diskussionsfrågor:

  1. Är det okej att samla data bara för att det är praktiskt?
  2. Vad är extra känsligt när det gäller barn och unga?
  3. Vem bär ansvaret: kommunen, företaget eller staten?
  4. Hade detta varit mer okej om systemet “fungerade bra”?

Koppling till AI:

  • Även om Skolplattformen inte var ett AI-system kan samma data användas i AI för att förutspå studieresultat, identifiera “riskelever” och föreslå åtgärder automatiskt.
  • När blir stöd till övervakning?
  • Kan AI förstärka fördomar om elever?

Gruppredovisning

Varje grupp presenterar:

  • Vad ni ser som största integritetsrisken i ert case.
  • Hur ni fördelar ansvar mellan aktörerna.
  • Ett konkret förslag som minskar risken utan att stoppa all nytta.

Exit ticket (individuellt)

Svara kort på frågan:

Vilken typ av data om dig själv skulle du aldrig vilja att en AI analyserar, och varför?

Framsteg

0/0