"AI-revolutionen har rigtigt nok potentiale til at skabe alle mulige problemer, som skal løses. Det er dog problemer, som kan løses. AI har også potentialet til at ændre den måde, som vi arbejder på for det bedre, hvis vi tilpasser os og samarbejder med teknologierne."
Store sprogmodeller (large language models) som ChatGPT, er et kraftfuldt værktøj, der rummer store muligheder, men som vi også skal være meget kritiske overfor. Der er nemlig potentielt en masse skævheder ”indbygget” i systemerne, som vi skal anerkende og være fuldt bevidste om, når vi bruger dem - og især når vi benytter dem til undervisning.
[...]
Når vi taler om skævheder, bruges begrebet ”bias” ofte – også på dansk. Ordet bias stammer fra engelsk, men er ifølge Dansk Sprognævn brugt som dansk ord allerede i 1953 og betyder ”forudindtagethed, tendens eller skævhed”.
"ChatGPT og andre store maskinlærings-sprogmodeller kan virke sofistikerede, men de er dybest set bare komplekse udgaver af auto-complete-funktionen på en SmartPhone:
I stedet for at foreslå det næste ord i en e-mail eller besked, producerer den de mest statistisk sandsynlige ord i meget længere tekster.
Programmerne omdanner andres arbejde, som om det var noget nyt: Chatbotten ‘forstår’ ikke, hvad den producerer.
Belægget for disse output kan aldrig være sandhed. Dens sandhed er sandheden om korrelationen, at ordet ‘sætninger’ altid skal fuldende sætningen: »Vi afslutter hinandens …«, fordi det er den mest almindelige, ikke fordi det udtrykker noget, der er blevet observeret." [...]
"Fordi ChatGPT’s sandhed kun er en statistisk sandhed, kan vi aldrig stole på output produceret af dette program på samme måde, som vi kan stole på en journalists eller en forskers output.
Det kan ikke verificeres, fordi det er blevet konstrueret for at skabe output på en anden måde end dét, vi normalt betragter som værende ‘videnskabeligt’.
Vi kan ikke tjekke ChatGPT’s kilder, fordi kilden er det statistiske faktum, at visse ord har en tendens til at optræde sammen eller følge efter hinanden.
Uanset hvor sammenhængende ChatGPT’s output kan forekomme, svarer publikationen af chatbottens arbejde til at lade auto-complete løbe løbsk." [...]
"ChatGPT kan som ved et trylleslag producere tilsyneladende læselig viden, men det er ikke tilrådeligt at forveksle chatbottens output med reel, videnskabelig viden.
Vi bør aldrig forveksle logisk sammenhæng med forståelse. ChatGPT lover nem adgang til ny og eksisterende viden, men det er at klamre sig til halmstrå."