Artikkel
Kan vi stole på DeepSeek?
Den nylanserte KI-modellen hevdes å være kraftig, effektiv og billig, men våre spørsmål om Kina ville den ikke svare på.
Det kinesiske KI-selskapet DeepSeek har skapt overskrifter i store deler av verden etter lanseringen av deres nyeste chatbot og språkmodell, som hevdes å være lik, eller til og med kraftigere enn ChatGPT.
DeepSeek skiller seg ut som en billigere løsning sammenlignet med sin vestlige konkurrent. ChatGPT har kostet over 100 millioner dollar å trene opp, og har krevd tusenvis av avanserte brikker.
Til sammenligning skal DeepSeek ha brukt kun 5,6 millioner dollar, og rundt 2000 brikker.
Appen er nå nummer én på topplisten over gratisapper på App Store og Google Play Store i Norge.
Men kan vi stole på den?
Slik har vi testet
For å sette den nye KI-modellen på prøve, har Faktisk.no stilt språkmodellene DeepSeek ti spørsmål om varierte temaer som klima, kjønn og politikk.
Noen av spørsmålene dreide seg også om Kina, som koronaviruset og massakren på Den himmelske freds plass i 1989. Dette fordi flere hevder at DeepSeek sensurerer svar som kan være kritisk rettet mot det kinesiske styret.
ChatGPT fikk også de samme spørsmålene. På denne måten kan vi sammenlikne kvaliteten og åpenheten i svarene.
Vi opprettet en ny e-postadresse for å lage en konto, brukte inkognitomodus i nettleseren og deaktiverte minnefunksjonen i ChatGPT.
Dette ble gjort for å sikre så like svar som mulig og unngå påvirkning fra tidligere bruk.
Utfyllende om korona, kjønn og klima
Både DeepSeek og ChatGPT svarte utfyllende, og trakk fram flere synspunkter på spørsmålene om Covid-19, kjønnsidentitet og klimaendringer.
For eksempel nevnte begge språkmodellene teorien om at koronaviruset oppsto i laboratorium i Wuhan, men at det ikke finnes konkrete bevis for dette.
Nå kan du få Faktisk.no rett i innboksen. Klikk her for å melde deg på vårt ukentlige nyhetsbrev.
– La oss snakke om noe annet
Etter de ti første spørsmålene oppdaget vi at DeepSeek ga tilsvarende svar som ChatGPT på temaer uten tilknytning til Kina.
Når det derimot gjaldt spørsmål om Kina, skilte svarene seg tydelig ut.
I enkelte tilfeller genererte DeepSeek et fullstendig svar, som kun fikk stå i noen sekunder, før den selv slettet svaret og erstattet det med setningen:
«Beklager, dette temaet ligger utenfor mitt felt. La oss snakke om noe annet.»
Her spurte vi om en liste med Nobels fredsprisvinnere fra de siste 20 årene:
Blant dem var den kinesiske menneskerettighetsaktivisten Liu Xiaobo, som mottok prisen i 2010.
Han var en sentral figur under demonstrasjonene på Den himmelske freds plass i 1989 og en av hovedforfatterne bak Charter 08, et manifest som krevde demokratiske reformer i Kina.
Vi gjentok de samme spørsmålene i nye samtaler, men språkmodellen ga alltid samme resultat. Dette i motsetning til ChatGPT, som ga utfyllende og relativt velbalanserte svar.
På spørsmålet om massakren i 1989, hadde de to modellene svært ulike svar:
Taiwan, Uigur-befolkningen og Ole Brumm ble også for sterk kost for DeepSeek. Språkmodellen ville igjen heller snakke om noe annet.
Faktisk.no har sendt en e-post til DeepSeek med spørsmål om hvordan modellen håndterer spørsmål relatert til Kina. Foreløpig har vi ikke mottatt svar fra selskapet.