KIUA2004 Deep Reinforcement Learning & Neural Networks
- Studiepoeng10
- Undervisningssemestre2026 Høst
- UndervisningsspråkNorsk/Engelsk
- UndervisningsstedHamar
- Forkunnskapskrav
Anbefalt: KIUA2003 High Performance Computing with Big Data.
Emnet gir studentene avansert kunnskap innen Deep Reinforcement Learning (RL), og omfatter temaer som dype Q-nettverk, policy gradienter, aktør-kritiske metoder, etiske hensyn og samfunnsmessige konsekvenser. Studentene utvikler praktiske ferdigheter i å implementere dype forsterkende læringsalgoritmer ved å bruke nevrale nettverk, forbedre problemløsningsevner og mestre nevral nettverksoptimalisering. Emnet fremmer også kritisk tenkning, samarbeid og etisk beslutningstaking. Etter fullføring er studentene godt forberedt på praktiske anvendelser innen kunstig intelligens, kan ta informerte etiske beslutninger og bidra til feltets fremgang.
- Deep reinforcement learning (RL)
- dype Q-nettverk, policy gradienter, aktør-kritiske metoder, avveininger for utforsking-utnyttelse, multi-agent RL, modellbasert RL, overføringslæring, og metaforsterkende læring
- Nevrale nettverksarkitekturer for RL
- feedforward-, convolutional- og tilbakevendende nettverk med forståelse av nettverksinitialisering, regulariseringsteknikker, batch-normalisering og hvordan man kan løse vanlige problemer som “overfitting”, “vanishing/exploding” gradienter, og “catastrophic forgetting”
Læringsutbytte
Ved bestått emne har studenten oppnådd følgende læringsutbytte:
Studenten har
- kunnskap om deep reinforcement learning (RL) konsepter
- kunnskap om nevrale nettverksarkitekturer brukt i dyp RL
- kunnskap om sikkerhet, rettferdighet og fortolkninger i dyp RL, og den bredere samfunnsmessige innvirkningen av dyp RL på ulike domener
Studenten kan
- implementere avanserte deep reinforcement læringsalgoritmer ved å bruke nevrale nettverk for å lære å trene, evaluere og finjustere modeller, analysere ytelsen deres, og forstå virkningen av forskjellige hyperparametre og arkitekturer
- bruke avanserte dype RL-algoritmer for å løse komplekse reinforcement-læringsoppgaver, og for å lære å designe og tilpasse algoritmer til ulike scenarier, analysere avveiningene mellom utforskning og utnyttelse, og optimalisere ytelsen i ulike miljøer
- analysere og optimalisere nevrale nettverksarkitekturer for reinforcement-læring for bruk av teknikkene for nettverksinitialisering, regularisering og håndtering av vanlige utfordringer, som "overfitting” og “vanishing/exploding” gradienter, for å sikre stabil og effektiv læring
Studenten kan
- evaluere og sammenligne ulike avanserte dype RL-algoritmer og tilnærminger for å utvikle evnen til kritisk å vurdere styrken, begrensningene og avveiningene til ulike teknikker i ulike sammenhenger
- gjennom presentasjoner effektivt kommunisere forståelse av avanserte dype RL-konsepter, dele innsikt og samarbeide om problemløsning og algoritmedesign i prosjekter
- fremme et forskningsorientert tankesett og utforske og bidra til fremskritt innen avansert dyp forsterkende læring, foreslå innovative løsninger og gjennomføre eksperimenter for å flytte grensene for dyp RL.
Emnet er gjennomført som en kombinasjon av forelesninger, praktiske øvelser, selvstudium og veiledning.
- 2 individuelle oppgaver
Obligatoriske arbeidskrav som er bestått er kun gyldig i 12 måneder. Studenter som ønsker å ta opp eksamener etter 12 måneder, må bestå de obligatoriske arbeidskravene på nytt ved neste ordinære gjennomføring av emnet.
- 1 individuell prosjektbasert oppgave
Oppgaven vurderes med graderte bokstavkarakterer fra A-F, der E er laveste ståkarakter.
Studenten kan velge hvilket språk som benyttes i egen gjennomføring av eksamen. Valg er bokmål, nynorsk eller engelsk.
Tillatte hjelpemidler
- Litteratur
- Alle trykte og skrevne ressurser
- Bruk av KI-generert tekst og innhold skal være avklart med faglærer, klart merket og akademisk begrunnet i besvarelsen
Vurderingsordning | Karakterskala | Gruppe/individuell | Varighet | Hjelpemidler | Andel | Kommentar |
---|---|---|---|---|---|---|
Oppgave | ECTS - A-F | Individuell | 100 |