MOTVIRKE KRIMINALITET: Morten Tandle i Nordic Financial Cert sier at det er viktig vi alle lærer litt av AI-teknologien for å skjønne hvordan den kan brukes mot oss. (Foto: Sjur Anda)

Fort gjort å gi bort sensitive data med ChatGPT

Sikkerhetseksperter advarer om at all informasjonen du legger inn i AI-verktøyet ChatGPT er tilgjengelig for selskapene som står bak. Ekspertene oppfordrer likevel ansatte til å prøve ut og lære seg det nye verktøyet.

AI-verktøyet ChatGPT kan gjøre mer enn å skrive stil for skoleelever. Det er også velegnet til å skrive sammendrag av notater og rapporter, hente informasjon fra mange kilder og sette dem sammen, og finne feil i datakode. Ivrige ansatte tar i bruk ChatGPT i sine daglige gjøremål uavhengig av hvor langt bedriften er kommet i planene for hvordan Chat GPT skal brukes.

SIKKERHETSBRUDD

Det de færreste brukerne tenker på er at det de mater inn i ChatGPT også er tilgjengelig for de som står bak verktøyet, OpenAI og Microsoft.

Håkon Styri, seniorrådgiver i Nasjonalt cybersikkerhetssenter (NCSC) sier at mange ikke har forstått dette.

ANDRE KAN SE: Håkon Styri i NSM sier at når man legger inn sensitive opplysninger i ChatGPT, slipper man dem ut til noen som ikke skal ha kjennskap til dette. (Foto: NSM)

– Bruken av ChatGPT blir overvåket av de som har laget systemet. Det betyr at når man legger inn sensitive opplysninger, så slipper man dem faktisk ut til noen som ikke skal ha kjennskap til dette. Da har man brutt noen alvorlige bestemmelser, sier han. NCSC er en del av Nasjonal sikkerhetsmyndighet (NSM).

TRE LEKKASJER FRA SAMSUNG

Flere medier skriver om hvordan ansatte i Samsung ubevisst lekket sensitiv informasjon via ChatGPT. Utviklere skal ha brukt ChatGPT til å forbedre kode, og ingeniører skal ha brukt ChatGPT til å forbedre feilfinning i mikrobrikker. Men det som kanskje er mest relevant for folk flest: En Samsung-ansatt brukte ChatGPT til å lage en presentasjon basert på notater fra et internt møte. Presentasjonen skal ha inneholdt sensitive markedsdata.

I sin «Privacy Policy» skriver OpenAI at «når du bruker våre tjenester, kan vi samle personlig informasjon som er inkludert i det som legges inn, opplastinger eller tilbakemeldinger du gir til våre tjenester».

Morten Tandle i Nordic Financial Cert sier at slik datainnsamling ikke er unik for ChatGPT. Google gjør det samme med Google Translate.

– Det er en fin tjeneste, men hvis du tar et internt dokument, legger det inn i Google Translate og trykker oversett, så gir du dokumentet til Google Og ifølge tjenesteavtalen til Google kommer de til å bruke denne informasjonen, sier han.

Nordic Financial Certs primæroppgave er å oppdage og avverge cyberangrep på nordiske finansinstitusjoner. Den største utfordringen er foreløpig ikke kunstig intelligens og ChatGPT, men maskinlæring og automatisering av cyberangrepene.

PRØV DEN UT

Morten Tandle sier at teknologien er der og at finansnæringen må benytte seg av den.

– Det er jo lett å begynne å se for seg mulige negative anvendelser, og det er ikke helt meningsløst å drive med det, men jeg tror det viktige er at vi alle tar inn over oss at dette kommer, og  at vi begynner å se på mulighetene og begynner å lære oss litt av teknologien. Sånn kan vi skjønne hvordan den vil kunne brukes mot oss, sier han.

Jeg tror det viktige er at vi alle tar inn over oss at dette kommer, og  at vi begynner å se på mulighetene og begynner å lære oss litt av teknologien

Morten Tandle, Nordic Financial Cert

ChatGPT har vist seg god til å lage kode til programvare som sparer datafolkene for mye tidkrevende arbeid. Fallgruven her er ikke bare at OpenAI, Microsoft eller andre får tilgang til kodingen, men at det blir et spørsmål om hvem som eier koden.

– Det er finansielle institusjoner i Norden som har blokkert ChatGPT. En bank som lager kode vil ikke at det skal være tvil om hvem som eier koden. Men jeg tror at det snart vil komme verktøy som gjør at eierrettighetene blir liggende i banken som utvikler koden, sier Tandle.

AI FOR KRIMINELLE

Kriminelle ventes å bruke ChatGPT til svindelforsøk med phishing og såkalt direktørsvindel. ChatGPT lager en tekst som er velskrevet og som inneholder relevante opplysninger som språkmodellen har samlet inn om virksomheten. Svindlerne kan sende veldig troverdige henvendelser.

Når man legger inn sensitive opplysninger, så slipper man dem faktisk ut til noen som ikke skal ha kjennskap til dette

Håkon Styri, Nasjonalt cybersikkerhetssenter

– Dette er én trussel. En annen er kunstig intelligens som kan etterligne både bilder, video og stemmer, og lure deg til å tro at det er en i ledelsen som ringer. Man kan ikke lenger identifisere ledere eller ansatte i virksomheten bare på bakgrunn av stemme eller bildet av ansiktet, sier Styri.

FAKTA

I serie artikler ser vi nærmere på om og hvordan ulike bedrifter i finansnæringen bruker kunstig intelligens og mer spesifikt GPT-teknologien. GPT står for generative pre-trained transformer. Dette er nevrale nettverk som er utviklet av det Microsoft-kontrollerte selskapet OpenAI. Nettverket brukes til generativ tekstmodellering der ChatGPT er en modell. GPT-modeller som er forhåndstrent på store mengder tekstdata kan brukes til en rekke oppgaver. Dette kan inkludere automatisert tekstgenerering, oversettelse, svar på spørsmål, støtte for en rekke administrative oppgaver og i utvikling av nye produkter og tjenester.

Tidligere artikler om AI i finansnæringen:

19. April 2023: Kan språkrobotene redde chatboten?

17. April 2023: Norske finansdata byr på store AI-muligheter

14. April 2023: – GPT er et annet «beist»