Verktøy basert på kunstig intelligens i utdanning - for ansatte
Denne nettsiden gir en oversikt over de vanligste verktøyene basert på generativ kunstig intelligens, og rammen rundt bruken av disse verktøyene for ansatte ved UiB.

Hovedinnhold
Bruken av tekst- og samtaleverktøy som ChatGPT og lignende tjenester har fÃ¥tt allmenn utbredelse siden lanseringen av ChatGPT seint i 2022. Verktøy basert pÃ¥ generativ kunstig intelligens (KI) bringer med seg mange muligheter, men gir ogsÃ¥ noen utfordringer.Ìý
Hva mener vi med KI-baserte verktøy?Ìý
- Generativ kunstig intelligens:ÌýDette er en fellesbetegnelse for verktøy som kan frembringe tekst, bilder, lyd, videoer osv. Generativ KI kan ogsÃ¥ skape nyttige strukturer som proteiner, enzymer, bygningskonstruksjoner og løsningsforslag og pÃ¥ den mÃ¥ten bidra til vitenskapelige fremskritt. PÃ¥ denne siden omtaler vi kun tekst - og samtaleverktøy.Ìý
ChatGPT er et eksempel pÃ¥ et verktøy som lager tekst basert pÃ¥ input fra brukeren, og verktøy som Microsoft Copilot og Google Gemini fungerer pÃ¥ lignende mÃ¥te.Ìý
- Trening av modellen: For Ã¥ lage innhold mÃ¥ KI-verktøyet trenes opp ved Ã¥ lære fra data. Modellen som verktøyet er basert pÃ¥, finner mønstre i dataene som gjør at den kan gi gode oversikter og oppsummeringer, og ofte kan lage innhold som fremstÃ¥r som nytt.Ìý
Ìý - ±ÊÃ¥±ô¾±³Ù±ð±ô¾±²µ³ó±ð³Ù: Det er viktig Ã¥ være klar over at disse verktøyene ikke er pÃ¥litelige kilder til informasjon. De frembringer svar basert pÃ¥ sannsynligheter, og fungerer ikke som en vanlig søkemotor. De kan feilkoble informasjon som ikke i utgangspunktet er relaterte, noe som resulterer i sÃ¥kalte "hallusinasjoner".Ìý
Ìý - Hvilket potensial har KI-verktøy :ÌýMetoder og verktøy basert pÃ¥ kunstig intelligens bringer med seg muligheter for store vitenskapelige fremskritt, spesielt innen naturvitenskap, teknologi og medisin. Eksempler pÃ¥ slike blir stadig vist frem og diskutert pÃ¥ seminarserien til UiB AI, som er Ã¥pne for alle studenter. Tekst - og samtaleverktøy ble først diskutert pÃ¥ Ìý
Fallgruver ved bruk av tekst- og samtaleverktøy basert på KI
Du vet aldri hvilke data modellen er trent pÃ¥Ìý
Enhver generativ KI-modell som et tekst - og samtaleverktøy er basert pÃ¥, mÃ¥ bli trent pÃ¥ et sett med data. Hvilke data som blir brukt under opplæringen vil i svært stor grad kunne pÃ¥virke hvilke resultater vi fÃ¥r ut, og dette er noe vi mÃ¥ være bevisste pÃ¥ nÃ¥r vi mottar en respons fra den generative modellen.Ìý
PÃ¥ samme mÃ¥te som at meningene og holdningene vÃ¥re kan bli formet av informasjonen vi har, vil generative modeller produsere innhold i trÃ¥d med dataene de er trent pÃ¥. Som bruker av disse tjenestene kan du aldri være sikker pÃ¥ hvilke data som er blitt brukt i opplæringen, med mindre tjenestene har gjort dette tilgjengelig pÃ¥ en mÃ¥te som kan gjennomgÃ¥s.Ìý
Selv om KI kan gi oss nyttige verktøy, er kunnskap og ekspertise i det aktuelle fagomrÃ¥det helt nødvendig for Ã¥ kunne vurdere pÃ¥liteligheten til innholdet disse verktøyene produserer.ÌýÌý
For mer informasjon om hvordan data kan, og har pÃ¥virket kunstig intelligens til Ã¥ gjøre feilslutninger, se f.eks. Ìý
Modellen er et resultat av dataene den er trent pÃ¥Ìý
Selv om vi vet hvilke data en modell er trent pÃ¥, er det ikke nødvendigvis slik at den produserer fornuftige resultater.ÌýForenklet sagtÌýkan vi si at en modell som benytter data av høy kvalitet, som oftest vil produsere innhold av høy kvalitet. Tilsvarende vil en modell som er trent pÃ¥ data av lav kvalitet,Ìýsom oftestÌýprodusere innhold av lav kvalitet.Ìý
Som brukere av disse tjenestene kjenner vi ikke til kvaliteten pÃ¥ dataene eller hvordan disse er prosessert. Dersom vi stoler blindt pÃ¥ resultatet av en generativ modell, risikerer vi Ã¥ ta i bruk upÃ¥litelige svar. Spør du ChatGPT hvem som var rektor ved UiB i 1955, fÃ¥r du som svar at dette var Asbjørn ØverÃ¥s, og ikke Erik Waaler som er riktig. Dette er et eksempel pÃ¥ faktafeil, noe du kan lese mer om i professor Jill Walker Rettberg sin .Ìý
Du har ikke kontroll pÃ¥ data du sender innÌý
Ved Ã¥ ta i bruk generative modeller pÃ¥ internett sender du informasjon til servere du ikke nødvendigvis vet hvor befinner seg. EU har et svært strengt regelverk som regulerer hva bedrifter kan og ikke kan gjøre med opplysningene dine, men for nettbaserte tjenester er det er ingen garanti for at de opererer i EU/EØS i henhold til dette regelverket.ÌýÌý
Med mindre bedriften som leverer modellen du bruker har forpliktet seg til Ã¥ hÃ¥ndtere dataene dine pÃ¥ en lovlig og etisk mÃ¥te, risikerer du at dataene blir brukt for Ã¥ trene opp andre modeller, eller av ulike grunner kommer pÃ¥ avveie. Det er derfor svært viktig at vi er bevisste pÃ¥ hvilke data vi sender, i likhet med de fleste andre tjenester pÃ¥ internett.Ìý
Eksempelvis er studentarbeid som eksamensbesvarelser ikke lov Ã¥ sende til generative modeller, ettersom eksamensbesvarelser er Ã¥ regne som personopplysninger. I alle tilfeller hvor UiB skal sende personopplysninger til en tredjepart, mÃ¥ det foreligge en databehandleravtale.Ìý
SprÃ¥kmodeller har et begrenset virkeomrÃ¥deÌý
Digitalisering, teknologi og kunstig intelligens er i ferd med Ã¥ endre fagene vÃ¥re og arbeidslivet pÃ¥ tvers av bransjer. Kunstig intelligens,Ìý ogsÃ¥ i andre former enn generative modeller, blir tatt i bruk i mange sammenhenger. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forstÃ¥else inkludert kjennskap til kunstig intelligens, være avgjørende i bÃ¥de arbeid – og samfunnsliv.ÌýÌýÌý
Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag- og disipliner, og ulike fakultet og institutt kan dermed ha ulike tilnærminger til bruken. Uavhengig av dette er det juridiske rammer, regelverk for plagiat og fusk, og for kildeføring som mÃ¥ respekteres.ÌýÌý
Hva betyr dette for deg som underviser og ansatt?Ìý
Digitalisering, teknologi og kunstig intelligens endrer fagene våre og arbeidslivet på tvers av bransjer. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse være avgjørende i både arbeids- og samfunnsliv.
Det ble gjennomført en undersøkelse om bruken og syn pÃ¥ Chatbots og andre verktøy basert pÃ¥ kunstig intelligens blant studenter i Sverige. Majoriteten av studentene er positiv til slike verktøy og mener at de gjør læringsprosessen mer effektiv. Samtidig utrykker mer enn halvparten en bekymring rundt virkningen av chatbots for fremtidig utdanning, men er mindre bekymret for andre KI-baserte sprÃ¥kverktøy. Mer enn 60 prosent av studentene mener at bruk av chatbots under eksamen er fusk, men majoriteten av studenter er i mot et forbud mot KI-baserte verktøy i utdanningene. Les mer i . Ìý
Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag og disipliner. Det er derfor viktig at fagmiljøene selv vurderer bruken av slike verktøy i sine emner og studieprogram. Felles for alle fagmiljø gjelder at juridiske rammer, regelverk for plagiat og fusk, og for kildeføring må respekteres.  
Betydningen av verktøy for kunstig intelligens for læring og undervisningÌý
Generative modeller har et vidt spekter av måter de kan benyttes på i en undervisnings- og læringssituasjon. Fagmiljøene må selv vurdere hvordan og i hvilken grad verktøyet kan benyttes i egne emner og studieprogram, og tydeliggjøre premissene for bruk overfor studentene i emnebeskrivelser og aktuelle kommunikasjonskanaler. Uavhengig av om generative modeller er tillatt i vurderingssituasjonen, er det ulike måter studenter kan benytte slike modeller for å tilegne seg kunnskap, ferdigheter og generell kompetanse. Studenter kan eksempelvis benytte slike verktøy til å få laget en oppsummering av sine forelesningsnotater som sammenhengende tekst, utarbeiding av "puggekort" (flash cards), og som en sparringspartner som kan forklare ulike deler av pensum.
Andre eksempler kan være at for eksempel ChatGPT eller lignende, kan hjelpe en student gjennom å stille spørsmål fra et kjent pensum eller å utbedre tekster.
Studentene vil i eksempelet over ha benyttet seg av generative modeller for Ã¥ tilegne seg kunnskap under egenstudier, som sÃ¥ kan brukes i en vurderingssituasjon. Dette kan sammenlignes med Ã¥ samarbeide med andre studenter, noe som generelt oppfordres til som en del av egenstudiet, men som vanligvis ikke er lov i vurderingssituasjoner. I tillegg vil studentene tilegne seg ferdigheter nÃ¥r det gjelder bruken av denne type verktøy.ÌýÌý
I hvilken grad studenter velger Ã¥ bruke slike verktøy i egenstudier avhenger i stor grad av studentenes ferdigheter og interesse for disse. For Ã¥ legge til rette for at studentene tilegner seg slike ferdigheter, kan undervisningsopplegget aktivt inkludere verktøy basert pÃ¥ kunstig intelligens.Ìý
Gjennom en utforskende tilnærming til slike verktøy kan man fÃ¥ innsikt i positive effekter pÃ¥ læring og konstruktiv bruk av teknologi, samt kritisk refleksjon og tenkning rundt bruken av slike verktøy.ÌýÌý
I flere emner pÃ¥ UiB har ChatGPT blitt brukt som en del av undervisningen. VÃ¥ren 2023 har de i INF100 brukt tid pÃ¥ Ã¥ presentere hva ChatGPT er, nemlig en sprÃ¥kmodell, og at en skal være forsiktig med Ã¥ kalle det kunstig intelligens. Foreleser viste studentene gode og dÃ¥rlige svar pÃ¥ spørsmÃ¥l stilt til ChatGPT, og studentene fikk lov til Ã¥ bruke ChatGPT i sine besvarelser sÃ¥ lenge de siterte bruken og var sikre pÃ¥ at de kunne faget godt nok til Ã¥ vurdere verktøyets nøyaktighet.Ìý
I INF250 ble studentene som tok emnet vÃ¥ren 2023 bedt om Ã¥ generere kode ved Ã¥ bruke ChatGPT for Ã¥ visualisere et datasett. Studentene ble bedt om Ã¥ levere koden som ChatGPT produserte, samt en refleksjon over opplevelsen av Ã¥ bruke ChatGPT, som hvor lett/vanskelig det var Ã¥ fÃ¥ ønsket resultat, om koden var korrekt, hvordan visualiseringen sÃ¥ ut m.m.Ìý
VÃ¥ren 2023 jobbet studentene i DIKULT304 med AI. Her ble studentene gjort oppmerksomme pÃ¥ at ChatGPT og andre KI-modeller er verktøy med begrensninger. De diskuterte for eksempel kildekritikk og referering i kunstig intelligens, og KI- modellens tendens til Ã¥ finne opp ting som ikke har blitt sagt eller gjort. I flere emner pÃ¥ Digital Kultur bruker de som en veileder for bruk av ChatGPT og andre KI-modeller i deres emner.Ìý
I emnet MUTP104 har studentene vÃ¥ren 2023 jobbet med hvilke spørsmÃ¥l en kan stille slike verktøy med et sterkt fokus pÃ¥ kildekritikk. Stemmer det med studentenes egen oppfatning, og er det andre kilder som kan underbygge dette?Ìý
Ved flere emner ved Det medisinske fakultet er det tatt i bruk KI-Chatboter til Ã¥ lage forslag til kollokvieoppgaver, eksamensoppgaver eller quizer i undervisningen. Et konkret eksempel fra Det medisinske fakultet er MED6, hvor foreleser har pÃ¥ generell basis tatt for seg hvordan kunstig intelligens kan benyttes innen medisinen, bÃ¥de hvilke fordeler det har, og hvilke utfordringer det kan by pÃ¥.Ìý
Betydningen av verktøy for kunstig intelligens i vurderingÌýÌý
Det store spennet i bruken av generative modeller blir tydeligst i vurderingssituasjoner. I ytterkantene finner man pÃ¥ den ene siden "ingen bruk" av generative modeller, og pÃ¥ den andre siden "omfattende bruk", hvor den generative modellen har produsert hele innholdet. Avhengig av hvilken linje man legger seg pÃ¥ i eget fag, vil det kunne oppstÃ¥ grÃ¥soner for hva som er akseptabel bruk. Bruken mÃ¥ uansett respektere gjeldende regelverk for plagiat og fusk, samt kildeføring. Ìý
Dersom man legger seg pÃ¥ en linje hvor generative modeller i noen grad benyttes som en del av vurderingen, kan det potensielt dukke opp noen grÃ¥soner. Hva skjer dersom en student har skrevet en tekst uten bruk av generative modeller, men bruker et verktøy for Ã¥ kutte ned pÃ¥ antall ord for Ã¥ komme innenfor ordgrensen? I hvilken grad er teksten fremdeles studentens eget selvstendige arbeid? Dersom modellen kun fjerner og ikke legger til, vil studenten ha brukt generative modeller, men kan man si at studenten har produsert innholdet selv?Ìý
Et annet eksempel kan være Ã¥ bruke generative modeller til Ã¥ rette opp i sprÃ¥klige og grammatiske feil. I en vurderingssituasjon hvor det er sprÃ¥k og grammatikk som blir vurdert vil man sannsynligvis ikke tillate dette, men i tilfeller hvor det er andre aspekter ved studentenes læringsutbytte som blir vurdert, kan det være rom for Ã¥ tillate bruken av generative modeller til dette.ÌýÌý
En tredje mÃ¥te studenten kan benytte seg av generative modeller pÃ¥, er Ã¥ be modellen om Ã¥ kritisere eller gi tilbakemeldinger pÃ¥ innleveringer. Dersom man som underviser har publisert vurderingskriterier for en oppgave, kan studentene bruke vurderingskriteriene sammen med det de selv har skrevet, og mate dette inn i en modell. Studentene kan da f.eks. be modellen ta utgangspunkt i vurderingskriteriene, emnebeskrivelsen, og annen relevant informasjon og gi tilbakemelding pÃ¥ form og innhold.Ìý
Avhengig av hvordan man legger opp undervisningen og vurderingen i et emne, vil det være svært ulike problemstillinger man bør ta stilling til. Dersom generative modeller tillates i et emne, skal studentene mÃ¥tte legge ved samtalene de har hatt med modellene? NÃ¥r er det eventuelt dette skal bli gjort? Og, blir samtaleloggen ogsÃ¥ en del av vurderingsgrunnlaget?ÌýÌý
Dersom man velger Ã¥ gÃ¥ for en vurdering hvor studentene ikke skal kunne bruke generative modeller, mÃ¥ man tenke gjennom hvilken vurderingsform man skal benytte seg av, og hvordan man skal avdekke eventuelt juks. Siden de generative modellene krever internettilgang, kan man sikre seg mot bruken av disse ved Ã¥ benytte seg av saleksamen uten tilgang til internett. Selv om det Ã¥ bruke saleksamen kan være et godt virkemiddel for Ã¥ hindre bruk av generative modeller, er det ikke nødvendigvis ønskelig dersom man har ambisjoner om f.eks. Ã¥ bruke formative vurderingsformer.Ìý
Ved andre vurderingsformer enn saleksamen må man derfor tenke gjennom hvilke oppgaver man gir studentene, slik at disse ikke enkelt kan besvares av en generativ modell. Universitet i Oslo har løftet frem viktige implikasjoner denne teknologien har for høyere utdanning og laget forslag til gode vurderingspraksiser på kort og lengre sikt som ikke kan besvares av generativ AI som Chat GPT.
På kortere sikt foreslås det å vektlegge kritisk refleksjon som får frem studentenes synspunkter, synliggjør tankeprosesser underveis i arbeidet, og som vektlegger å skape noe nytt. Gjennom å knytte oppgaver spesifikt til pensum eller dagsaktuelle problemstillinger blir det vanskeligere å benytte Chat GPT for å besvare oppgavene. Vurderingsformer knyttet til ulike formater som for eksempel video, presentasjoner og muntlige vurderinger, prosjektarbeid, mappevurderinger eller vurderingsformer der studentene får tilbakemeldinger underveis og forbedrer sitt arbeid kan også begrense mulighetene for å benytte Chat GPT. På lengre sikt foreslås det å endre fokuset fra kontroll av læring til prosessen med å lære og å utforske hvordan verktøy basert på kunstig intelligens kan inngå for å støtte læringen. Du kan lese mer om dette på .
Hvilke KI-verktøy kan jeg bruke?
Microsoft Copilot for web
Som en del av Microsoft-pakken til UiB, har alle ansatte og studenter tilgang til Microsoft Copilot for web. Copilot for web bruker de samme språkmodellene som andre ChatGPT-tjenester, men er i tillegg koblet til internettsøk. Det som blir skrevet til samtaleroboten blir ikke lagret, og dermed anses tjenesten som sikker og pålitelig når det gjelder databeskyttelse og personvern. Data under behandling er kryptert slik at selv Microsoft ikke har tilgang, og vil heller ikke bli brukt til videre trening av verktøyet. Løsningen er imidlertid ikke godkjent for fortrolig eller strengt fortrolig informasjon.
Les mer om Microsoft Copilot for web (tidl. Bing chat enterprise) i nyhetssaken .
Hvordan tar jeg i bruk Copilot for web?
- Naviger til
- Kontroller at du er logget pÃ¥ med UiB-kontoen din ved Ã¥ se etter et grøntÌýmerkeÌýøverst til høyre pÃ¥ skjermen. Hvis det grønne merket mangler, mÃ¥ du logge pÃ¥ med UiB-kontoen din for at dataene dine skal være beskyttet av UiB sin databehandleravtale.Ìý
- Prøv deg frem med ulike «prompts», pÃ¥ norsk "instrukser",Ìýog se hva du fÃ¥r som svar.
For å holde data som sendes inn private blir ikke samtalen lagret.
Du mister Samtalen hvis du:
- Velger «nytt emne»-knappen
- Lukker nettleservinduet
- Lar samtalen være åpen i timesvis.
Copilot vil også glemme eventuelle filer eller nettsider du åpner i nettleseren. Det er derfor viktig at du lagrer samtaleinnholdet ditt etter behov.
Om du vil lære mer om hvordan å lage gode prompts/instrukser kan du ta Digital Norway sitt gratis kurs i .
UiBchat
Den andre samtaleroboten som kan brukes på UiB som en trygg erstatning for andre samtaleroboter er . Også denne samtaleroboten sikrer at informasjonen man legger inn i tjenesten ikke blir lagret noe sted og heller ikke blir brukt til å trene KI-modellen videre.
For Ã¥ ta den i bruk, gÃ¥ til Ìýog logg inn med UiB-brukerkontoen din. Ìý
Hva skiller UiBchat fra ChatGPT?
- Data blir ikke lagret andre steder enn på egen datamaskin når du bruker UiBChat
- Samtale-logger blir lagret i nettleseren du bruker, og er ikke tilgjengelig fra andre enheterÌý
- Ved bruk av UiBchat er du trygg på at det du skriver til samtaleroboten ikke blir delt eller brukt for å trene modellen videre
- Data du legger inn i samtalen blir behandlet i Microsoft sitt datasenter i Stockholm, men blir ikke lagret hos Microsoft etter at svaret fra GPT er levert. Dette er i tråd med inngått databehandleravtale.
Vær oppmerksom på at utfordringene knyttet til hvor mye du kan stole på verktøyet og alle spørsmål om faglige retningslinjer osv. gjelder uansett hvilket verktøy du bruker, også dem fra UiB. UiBChat er kun til bruk for grønne og gule data.
For mer informasjon om hvordan du bruker UiBchat, gÃ¥ tilÌý
Kontakt ved spørsmål eller behov for brukerstøtte:
Juridiske rammerÌý
Verktøy for kunstig intelligens og GDPR
En av utfordringene med bruken av kunstig intelligens verktøy som ChatGPT og personvernregelverket (GDPR), er at dataene som blir brukt til Ã¥ trene verktøyene, inneholder personopplysninger. Personopplysning defineres som informasjon i enhver form som kan knyttes, direkte eller indirekte, til en enkeltperson. Disse personopplysningene er hentet inn i verktøyet fra ulike kilder, bÃ¥de fra internett og fra brukerne, med eller uten deres kjennskap til dette.Ìý
Det er svært usikkert om disse personopplysningene er hentet inn på lovlig vis, og datatilsyn fra flere land har vært skeptiske til slike tjenester av denne grunn. Etter GDPR er det svært vanskelig å anse at en slik samling av personopplysninger, noe som kalles for dataskraping, kan være lovlig. Det gjelder særlig sensitive personopplysninger som opplysninger om rase, etnisitet, religion, helse, politiske oppfatninger eller seksuell orientering.
Brukere må vite at løsninger som bygger på kunstig intelligens bruker det som skrives inn eller lastes opp til å forbedre tjenesten, og at de deles med tredjeparter som kommersielle aktører og myndigheter. Det vil si at personopplysninger som legges inn blir lagret og brukt videre. Det er ikke mulig å rette eller slette dem fra modellen. Vær klar over at forespørsler som sendes inn i tjenesten kan inneholde sensitiv personinformasjon og at modellen kan utlede sensitiv informasjon om deg utfra oppgitt informasjon.
Ìý
Til undervisere
Som underviser må du være oppmerksom på at du ikke kan pålegge studenter å bruke tjenester som UiB ikke har en databehandleravtale med. Dette gjelder per nå f.eks. ChatGPT og andre AI-tjenester. Dersom du er usikker på om tjenesten du ønsker å bruke har en databehandleravtale med UiB, kan du sende inn en sak på .
Akademisk redelighet er en overordnet norm som styrer hva som er forventet av blant andre UiB sine studenter. Vi forventer at studentene stoler pÃ¥ egne ferdigheter, gjør selvstendige vurderinger og tar standpunkt. Tekst - og samtaleverktøy basert pÃ¥ KI og andre digitale verktøy, reiser spørsmÃ¥l knyttet til bÃ¥de kildebruk og krav om selvstendighet. Som hovedregel er det et krav om at svaret pÃ¥ eksamen er en selvstendig produsert tekst.Ìý
Dette gjør at Ã¥ levere en tekst som helt eller delvis automatisk frembragt vil regnes som fusk, med mindre det er sitert pÃ¥ redelig mÃ¥te.Ìý
For mer informasjon, se nettsidenÌý
Kildeføring av generative modellerÌýÌý
NÃ¥r programvare pÃ¥virker resultater, analyser eller funn i akademisk arbeid, skal du referere til den. KI-verktøy blir regnet som programvare og ikke som medforfatter, fordi programvaren ikke kan ta ansvar for arbeidet.Ìý
KI-generert tekst kan ikke bli gjenskapt av andre. Derfor bør det i akademiske arbeider bli oppgitt hvordan KI-verktøyet ble brukt, inkludert tidspunkt og omfang, og hvordan resultatet ble inkludert i teksten. Ofte er det nyttig Ã¥ vise hva som ble skrevet inn i chatten. Lange svar fra KI-verktøyet kan legges som vedlegg. Vær oppmerksom pÃ¥ at det kan være fagspesifikke regler for dokumentasjon av KI-bruk.Ìý
Eksempel pÃ¥ referanse i Ìý
- I teksten: tekst (OpenAI, 2023)
- I referanselisten: OpenAI. (2023). ChatGPT (20. april-versjon) [Stor språkmodell].
DIGI-emner ved UiBÌý
Mange ansatte og studenter ved UiB har benyttet seg av tilbudet om Ã¥ bygge digital forstÃ¥else, kunnskap og kompetanse gjennom DIGI emnepakken. Dette er mindre 2,5 studiepoengsgivende emner som er tilgjengelige for alle Ã¥ ta.Ìý
Veiledning for KI-verktøy ved fakulteteneÌý
Flere fakulteter ved UiB har utviklet egne veiledere for bruk av sprÃ¥kmodeller og annet KI-verktøy. Bruken av slike verktøy varierer stort utfra fagomrÃ¥det, og UiB legger derfor til grunn at det er fagmiljøene som selv vurderer bruken av slike verktøy pÃ¥ sine fagomrÃ¥der. Studentene mÃ¥ orientere seg om føringene for sine studieprogram og emner.Ìý
- Det medisinske fakultet: Bruk av kunstig intellligens (KI) ved Det medisinske fakultet
- Det samfunnsvitenskapelig fakultet:ÌýVeiledning ved bruk av samtaleroboter
- Det juridiske fakultet: Retningslinjer for bruk av KI i undervisning og prøvingÌý(pdf)Ìý