Ill.foto: Mostphotos.
Språkmodellene trenger regulering, ikke heiagjeng
Debatt: Etter ett år med ChatGPT er det fremdeles ingen nasjonale føringer for hvordan vi skal tilpasse undervisning og høyere utdanning. Det er helt krise.
Høyre går høyt ut med at de vil
ha regler for bruk av kunstig intelligens i skolen. «Hurra», tenkte jeg, endelig er det noen som er faste i klypa, der andre går rundt med slappe
vinterfingre i polvottene.
Det er jo i tråd med det Norges mest fremstående KI-ekspert,
Inga
Strümke sier: «Vi lever i det tredje semesteret med ChatGPT uten
retningslinjer for lærere og undervisere om hvordan de skal tilpasse
undervisningsopplegg. Det er spektakulært, på en dårlig måte.»
Men nei da, Høyre har ikke fulgt med i timen som omhandlet KI
likevel, til tross for at nevnte Strümke har vært med i ekspertutvalget som har
vært med å lage rapporten «Neste
steg for kunstig intelligens», som
Høyre baserer uttalelsene sine på.
I rapporten skriver de: «Notatet er blitt behandlet i Høyre
og løsningene som foreslås i denne rapporten svarer derfor ikke
nødvendigvis med meningene til hvert enkelt medlem fra ekspertutvalget.»
Jeg håper virkelig ikke at tidligere digitaliseringsminister
Linda Hofstad Helleland blir fremtidig digitaliseringsminister med denne
holdningen: «Norge kan lykkes med kunstig intelligens, men da holder det ikke å
kun sette rammer, vi må også gripe muligheter.»
Ingen setter rammer
Nå er det til informasjon ingen som har satt rammer, og
ingen som evner å sette rammer for bruken av kunstig intellgens. Det å sette rammer skjer
faktisk ikke. Problemet er faktisk så stort at det ikke kan løses politisk i
lille Norge alene. Hva skjer når problemer er for store innenfor skole til at
politikerne kan løse de, jo da delegeres problemet til lærerne, som en gave for
dere metodefrihet. I delegeringsprosessen blir også problemet lystig og hastig
omdefinert til «mulighet».
Det blir sagt at KI har kommet for å bli. Det samme har
heroin, kreft og forurensing. Argumentet er for hult, med mindre vi aksepterer
at AI også er en sykdomskilde som vil forgifte elven som renner inn i vårt
felles kurbad, skolen. Alle som kjenner sin Ibsen, burde ta den referansen. Den
giftige elven må faktisk reguleres før vi slipper vannet inn i kurbadet.
Når
den politiske utfordringen med dette er tatt på alvor, og vi virkelig har
rammer for KI som kan regulere når vi vil bruke denne språkteknologien eller
ikke, da kan vi begynne å snakke om muligheter.
La meg være helt konkret: En elev kan bruke KI til å lage en
tekst som eleven kaller sin egen. Læreren kan ut fra sin kjennskap til elevens
skrivestil- og historikk se at dette har ikke eleven gjort selv. I motsetning
til med en plagiatkontroll, kan ikke læreren bevise at det er jukset, slik at
eleven bare kan stå på sitt om at det er hans/hennes arbeid. Svarteper går til
lærer, som kan ende opp med en krenkesak av det hele: «Hen tror ikke på meg!»
Utdanning leder frem til karakterer, som gir valgmuligheter
når du bruker dem til å konkurrere om skoleplass. KI er et konkurransefortrinn,
som kan hjelpe eleven frem til de karakterene hen ønsker. Om en tenåring da
skal velge å være etisk renhårig, eller la jukserne ta hans/hennes rettmessige
plass på søkerlistene, går nok dessverre majoriteten for den digitale
bloddopingen.
Handlingslammelse
Akkurat nå er lærerne bundet på hender og føtter. Elevene
kan jukse og styre på, og vi har ingen midler til rådighet for å skille ut hva
som er autentisk eller ikke. Vi som er lærere og som er både digitalt og
analogt orienterte i vår gjerning, ser mengder av muligheter, på godt og vondt.
Så langt veier mulighetene for vondt langt mer enn mulighetene for godt. Den
politikeren som tar denne konkrete virkeligheten på alvor, skal jeg lytte på,
men akkurat nå er alle like handlingslammede.
Vi lærere kjenner så inderlig godt til den digitale
virkeligheten som elevene (og vi voksne) lever i, og kreftene som suger
oppmerksomheten. Strümke sier det som vi alle vet: «Det er kjempevanskelig å ha
selvdisiplin og styre seg selv og kontrollere impulsene sine på digitale
plattformer – særlig de som bruker anbefalingsalgoritmer som er direkte
manipulerende. Og det er et soleklart eksempel på at det ikke fungerer å legge
ansvaret for teknologibruk på individet.»
I et Innlegg på Khrono beskriver
Strümke det som er den pågående situasjon. Dette er vårt felles
utgangspunkt.
ChatGPT har ettårsjubileum, og fremdeles er det ingen
nasjonale føringer for hvordan vi skal tilpasse undervisning og høyere
utdanning. Det er helt krise.
Jeg håper at politikerne snart kan være ærlige på at de ikke
skjønner AI bedre enn lærerne, og at de egentlig ikke har midler til å hjelpe
oss med å regulere bruken. Vi lærere ser faktisk mulighetene, og det er ikke et
lystig syn.