1. Databehandling og personvern
Spørsmål om informasjonskilder: Hvilke datakilder vil bli brukt for opplæring og drift av den automatiske oppsummeringsmodulen? Er disse kildene i samsvar med personopplysningsloven?
Svar: Vi bruker data fra flere offentlig tilgjengelige anbudskilder. Vi bruker både Mercell-genererte anbudsmetadata samt dokumenter som er inkludert i anbudet. MERK: Vi bruker grunnleggende modeller (LLM-er som OpenAIs GPT-4o) og bruker dem på en måte som gjør at dataene våre eksplisitt er valgt bort for opplæring. Vi trener altså ikke modeller.
Spørsmål om informasjonslagring: Hvor vil informasjonen bli lagret, og hvilke tiltak er på plass for å beskytte denne informasjonen mot uautorisert tilgang?
Svar: Vi lagrer informasjonen på en dedikert AWS-konto som følger de samme generelle retningslinjene som Mercells resterende AWS-kontoer. Det finnes to måter å få tilgang:
AWS IAM-brukere/roller med riktige tillatelser kan få tilgang. I skrivende stund er det kun utviklere som jobber med systemet som har tillatelse.
Med riktig brukerlegitimasjon kan man få tilgang gjennom REST API. Dette er kun sikret gjennom den oauth2-kompatible klientlegitimasjonsflyten. Legitimasjon må opprettes av utviklerteamet.
2. Åpenhet og forklaringer
Spørsmål om modellforklaring: Blir KI-modellens beslutningsprosess dokumentert og gjort forståelig for brukerne?
Svar: Beslutningsprosessen til KI-modellen er ikke offentliggjort, og det er også umulig å oppnå. Vi bruker patentbeskyttede grunnmodeller som ikke dokumenterer hvordan de har blitt trent eller hvordan de genererer resultater. Vi kan dele informasjon om prosessen som bruker denne modellen og hvordan modellen blir brukt. Informasjon om selve modellen er utilgjengelig.
Reviderbarhet: Hvilke mekanismer er på plass for å revidere KI-modulens resultater? Hvordan sikrer dere at svarene samsvarer med forventet standard?
Svar: Vi har flere kvalitetskontrollmekanismer:
Menneskelig evaluering av stikkprøver. Våre eksperter tar stikkprøver av sammendragene og kontrollerer for nøyaktighet og fullstendighet (presisjon og tilbakekalling)
Maskinevaluering av stikkprøver. Vi bruker ulike referanseverdier for å evaluere sammendragsresultatet mot referansesammendrag. Dette gjør det mulig å kvantifisere sammendragets nøyaktighet og fullstendighet.
Maskinevaluering i stor skala. Vi bruker et sett referanseverdier og akseptkriterier for å evaluere hvert sammendrag før det presenteres for kunden/brukeren.
Brukerevaluering. Sluttbrukerne kan gi tilbakemelding på sammendragene, både binært (er det et godt eller dårlig sammendrag) samt kvalitativt (hva mangler, hva kan forbedres). Denne tilbakemeldingen blir innarbeidet i både menneskelig- og maskinevaluering av resultater.
Av disse evalueringene er 1 og 2 for tiden på plass. 3 og 4 er under planlegging.
3. Forutinntathet og rettferdighet
Spørsmål om reduksjon av forutinntathet: Hvilke tiltak blir gjort for å identifisere og redusere eventuelle forutinntatheter i KI-modellens treningsdata og resultater.
Svar: Vi bruker ikke grunnmodellenes internkunnskap direkte, men de fungerer heller som en måte å behandle dokumentene på. Modellene blir instruert til å kun bruke informasjonen som er tilgjengelig i dokumentene. Dette gir minimalt rom for forutinntatheter utenom det som allerede finnes i dokumentene.
Spørsmål om rettferdighetssjekk: Hvordan sikrer vi at sammendragene er rettferdige og ikke-diskriminerende på tvers av forskjellige typer anbudsdokumenter?
Svar: Modellen evaluerer alle dokumentene og vil lete etter den mest nøyaktige informasjonen. Modellens resultater er ikke 100 % deterministisk, og vi kan derfor ikke garantere at resultatet vil være 100 % likt hele tiden, men i prinsippet behandler vi faktiske dokumenter og henter informasjon fra alle. Vi har ingen mekanismer på plass for å gi spesiell behandling til visse typer dokumenter.
4. Ytelse og nøyaktighet
Spørsmål om evalueringsmålinger: Hva brukes for å evaluere ytelsen og nøyaktigheten til KI-sammendragene?
Svar: Se svar under “2. Reviderbarhet”
Spørsmål om kontinuerlig overvåking: Hvordan overvåker vi KI-systemets ytelse over tid for å sikre regelmessig kvalitet og nøyaktighet?
Svar: Se svar under “2. Reviderbarhet punkt 3 og 4”
5. Brukerinteraksjon og tilbakemelding
Spørsmål om tilbakemelding fra brukere: Hvordan samler og bruker vi tilbakemelding fra brukere for å forbedre KI-sammendragene?
Svar: Brukere kan gi tilbakemelding på to måter: En tommel opp/ned-knapp (eller lignende) og et innleggsfelt for å gi kvalitativ tilbakemelding. Denne tilbakemeldingen vil bli evaluert av KI-teamet og brukt til å forbedre produktet.
Spørsmål om feilrapportering: Hvordan kan brukerne rapportere feil eller unøyaktigheter i sammendragene?
...
Finnish Coming Soon
...
🇬🇧 AI Modules FAQ
1. Data Management and Privacy
Data Sources: What data sources will be used for training and operating the AI summarization module? Are these sources compliant with relevant data protection laws?
...
Through AWS IAM users/roles having the right permission set. At time of writing this is only available for developers working on the system
Through our REST API while having the right user credentials. This is secured through the oauth2 compliant client credentials flow only. Credentials need to be created by the developer team.
2. Transparency and Explainability
Model Explainability: How will the AI model's decision-making process be documented and made understandable to users?
...
Out of these evaluations, 1 and 2 are currently in place. 3 and 4 are being planned.
3. Bias and Fairness
Bias Mitigation: What steps are being taken to identify and mitigate any biases in the AI model’s training data and outputs?
...
The model is evaluating all the documents and will look for the most accurate information. Since the output of the model is not 100% deterministic it cannot be guaranteed that it will be 100% the same all the time, but in principle we are processing factual documents and retrieving factual information out of all of them. No mechanism is in place to provide special treatment to certain types of documents.
4. Performance and Accuracy
Evaluation Metrics: What metrics will be used to evaluate the performance and accuracy of the AI summaries?
...
See answer at “2. Auditability” point 3 and 4.
5. User Interaction and Feedback
User Feedback Mechanism: How will we collect and incorporate user feedback to improve the AI summaries?
...