Arbeidet mot status 2 har i all hovedsak omhandlet implementering av LLM. For å lage oppsummeringer til artiklene har jeg jobbet mye med hvordan API kall til LLM modeller kan gjøres. Databaselagring av artikler for å unngå å sjekke de flere ganger har også vært en stor del av arbeidet siden Status 1.
Jeg jobber fortsatt alene, men har planer om å vise frem hvordan løsning er nå for å få innspill fra Digin.
System og user prompt til AI-modellen som brukes som oppskrift på oppsummeringene.
Testing av flere forskjellige modeller for å finne de som funker best, og som er billigst / gratis.
Jobben med å lagre i database
Sjekk om de eksisterer allerede i databasen før de sendes til LLM siden det er unødvendig å bruke ressurser på en artikkel om den allerede er sjekket
Lagrer hvor det er hentet fra, på hvilken måte (RSS/webscrapet), dato hentet, link og om det er relevant
Dette gjør det lettere for meg å feilsøke og å ha oversikt
Viser kun de relevante
Bør også lagre den oppsummerende teksten som kommer fra LLM i databasen så det er lettere å hente ut senere, men dette er ikke gjort enda
Arbeid videre mot avsluttende refleksjon:
Finpusse database og hvordan jeg oppsummerer med LLM
Bestemme meg for en LLM-modell
Få sendt informasjonen til Digin på måten de vil (Mail, spreadsheet e.l.)
Oppdatere nettsider og RSS-feeds for å få med alle relevante kanaler jeg hente info fra