Bild: Pixabay

I veckan insåg jag hur jag kan utnyttja Helsingfors universitets chatrobot, CurreChat då jag förkovrar mig i statistik och lär mig koda med statistikprogrammet R. CurreChat är en vidareförädlad och datasäker förlängning av ChatGPT-språkmodellen som finns tillgänglig för HU:s personal.

Bakgrunden till denna nya insikt var att jag jobbade med en statistikövning om regressionsanalys. Övningen byggde på ett enkelt datamaterial om hur bilars hastighet påverkar bromssträckan, och uppgiften var att ta fram, med hjälp av statistikprogrammet R, vissa siffror som till exempel regressionskoefficienten och en tabell på residualvärden.

Det jag valde dessutom att göra på egenhand, var att ta fram ett punkdiagram på det data jag använde och den regressionsmodell jag kodat fram. Kodraden jag skrev för punktdiagrammet såg ut som följande:

library(tidyverse)

cars %>% 

lm(dist ~ speed, data = .) %>%

ggplot()+  aes(x = speed, y = dist)+ geom_point()

Punktdiagrammet blev rätt hyfsat, men det som jag saknade var själva regressionslinjen, som är en linje som har det igenomsnitt minsta avståndet till samtliga observationer.

I stället för att luska ut kod-raden för regressionslinjen från en handbok, presenterade jag koden ovan för CurreChatt-botten och bad den föreslå en lämplig kod för ändamålet. Svaret kom som på beställning och jag fick kodraden ”geom_smooth(method = ”lm”, se = FALSE)”. Det enda jag nu behövde göra var att kopiera och klistra in koden och därmed var diagrammet fulländat!

Jag kan inte i ord utrycka hur omtumlad jag är över hur språkmodellsverktygen vaskade fram koden och hur priviligierad jag känner mig för att få lära mig statistik och R-kodning just i denna tid då detta språkmodellsverktyg är tillgängligt.

Det som gjorde denna upplevelse så omtumlande var inte bara det, att jag fick en fungerande kod som jag bara kunde klistra in, utan det faktum att språkmodellen inledde sitt svar med att berömma min kod, för att sedan konstatera i vänlig och pedagogisk ton att raden ”lm(dist ~ speed, data = .)” var onödig då jag använder ”aes”-funktionen. Språkmodellen lyckades alltså både svara på min konkreta fråga, men dessutom erbjöd den mig ett litet tips som jag inte ens visste att jag behövde!

Mina kolleger vid Helsingfors universitet, professor Jan-Erik Lönnqvist och universitetslektor Rasmus Mannerström, skrev en kritisk och viktig text i Helsingin Sanomat om problemen med att studerande börjat använda språkmodeller för att göra läs- och skrivuppgifter. Jag förstår deras bekymmer, men vill samtidigt poängtera att problemet inte är, att språkmodeller används, utan hur och till vad de används.

Jag kan själv inte tänka mig att jag någonsin skulle gå med på att avstå eller förbjuda studerande användandet av språkmodeller, nu då jag lärt mig att använda dem på ett sätt som stöder min inlärning.

Det som samtidigt behöver diskuteras vid samtliga universitet och undervisningsanläggningar, är vad som är sambandet mellan våra nuvarande studieprestationer som essäer, läs-uppgifter, tentamina och inlärning? AI-utvecklingen innebär onekligen att många av de studieprestationer och uppgifter som vi skapat som ett medel för undervisning och bedömning av lärande vid universitet är dåligt anpassade till den nya verkligheten.

Universiteten behöver dessutom bli mindre prestationsinriktade till fördelen att faktiskt fokusera på djupinlärning och analytisk förmåga! Och den här uppmaningen har vi väl hört långt innan ChatGPT lanserades?

För varje studerande gäller det väl också att inse, att även om AI kan göra studieprestationer, är det en själv som fortsättningsvis behöver vara den som lär sig nya saker och fördjupar sitt kunnande. Att låta AI skriva en essä-uppgift som lagts fram i undervisningssyfte, är lite som att sätta i gång ett löpband, men inte själv stiga på den, och samtidigt förvänta sig träningsresultat.