Kategorier
Viden

Derfor bør du ikke skabe indhold ved hjælp af AI

Robotterne kommer! Mulighederne for at skabe indhold ved hjælp af AI bliver flere og flere, men bør du gribe dem? Vores svar er et klokkeklart nej, og det er der nogle helt bestemte grunde til. Dem kan du læse om her.

Der er nogle, der mener, at AI i fremtiden helt vil kunne erstatte Google og dets menneskeskabte indhold. Det er vi nu ikke så sikre på. Og så længe Google stadig er den helt store søgemaskine, bør du afstå fra at bruge AI til at skabe indhold. Det vil nemlig næppe gøre sig godt i søgeresultaterne.

Hvad er problemet med AI?

Sådan tænker du måske. Er AI ikke en nem og hurtig måde at skabe noget content på? Hvis man kan spare tid og penge ved hjælp af robottekster, hvorfor så ikke? Hvad er egentlig problemet?

For det første må vi anfægte, at du overhovedet kan spare tid og penge ved at skabe indhold med AI. Der skal nemlig en hel del arbejde til, for, at en AI-tekst i sidste ende har værdi for brugeren. Og så er det faktisk ikke nogen særlig nem og hurtig løsning længere.

Det helt store problem med AI er netop, at det er en udfordrende måde at skabe kvalitetsindhold på. Det vil nemlig som oftest være i strid med Googles fire kvalitetskriterier, E-E-A-T, som du måske, måske ikke, har hørt om. Det kan du blive klogere på nedenfor.

AI rimer ikke på E-E-A-T

Google har fire kriterier, som de vurderer online indhold og dets kvalitet ud fra:

  1. Erfaring
  2. Ekspertise
  3. Autoritet
  4. Troværdighed

Disse kriterier kommer helt på tværs af AI, hvis du spørger os. Lad os forklare dig præcis hvorfor og hvordan lige nedenfor.

Problemer med Troværdighed

Troværdighed er det vigtigste kriterie i E-E-A-T-modellen. Ikke desto mindre vil AI-indhold have enormt svært ved at leve op til dette kriterie. Hvorfor? Jo, fordi det er tvivlsomt, hvorvidt indholdet overhovedet er faktuelt. Det kræver i hvert fald, at du bruger tid på, at faktatjekke din robottekst for at finde ud af, om den holder vand.

Og nu tænker du måske: Er det ikke bare noget vi finder på? Så vi lod det komme an på en prøve. Vi spurgte Chat GPT om den kunne skrive et portræt af fornyeligt afdøde journalist og forfatter Lise Nørgaard. Det kunne den godt, men det den skrev, var bare ikke faktuelt korrekt.

Lise Nørgaard er født den 14. juni 1917. Og altså ikke den 17. januar. Og hun døde i 2023. Os bekendt har hun heller ikke skrevet en bog, der hedder ‘De gamle damer’, men en bog der hedder ‘De sendte en dame’. Det synes vi (selvfølgelig), at Chat GPT skulle vide og det kom der denne spøjse samtale ud af.

Og sådan kunne vi sikkert have blevet ved. Men vi synes alligevel at Chat GPT skulle have en chance mere. Så vi spurgte den om et lidt simplere spørgsmål.

Men heller ikke her havde den alle facts på plads:

Kilde: DBU

Problemer med Autoritet, Erfaring og Ekspertise

Din hjemmeside vil næppe blive en Autoritet eller en go-to-side for brugerne, når den ikke er troværdig. For hvorfor skulle de foretrække en side, hvis information er tvivlsom?

Desuden bærer robotteksten hverken præg af værdifuld Erfaring eller Ekspertise, hvilket er den anden halvdel af E-E-A-T-modellen. Tværtimod er den blot sammensat af en algoritme, som stykker indholdet sammen ud fra eksisterende tekst på internettet.

Din robottekst kan blive set som spam

Som du kan forstå af det ovenstående, er det op ad bakke at skabe en AI-tekst, som lever op til Googles kvalitetskriterier. Googles mission er først og fremmest at skabe godt og hjælpsomt indhold, som brugerne får glæde af. Og det er bare svært med en robot, der hverken er troværdig, autoritativ, ekspert eller livserfaren.

Derimod er der en risiko for, at dit AI-generede indhold vil blive set som spam. Din robottekst serverer ikke noget nyt eller originalt, men er blot en sammensætning af allerede eksisterende indhold. Google slår hårdt ned på spam med en meget dårlig placering i søgemaskinen, så det er der alle mulige grunde til at prøve på at undgå.

AI lovgivning på vej

Ifølge DI Digital er AI Act det første bud på en sammenhængende lovgivning fra EU. Selvom den nye lovgivning er lige på trapperne, så er der stadig uenighed om vitale dele af lovgivningen. Nogle af de ting, som stadig diskuteres, er, hvad definitionen af ‘højrisiko AI’ skal være, samt hvorvidt brugen af persondata til AI-systemer skal være lovligt eller ej.

Det betyder, at der stadig kan komme ændringer til loven. Én af de seneste ændringer får direkte indflydelse på Chat GPT.

Hvis man benytter et AI-system, som genererer kompleks tekst med minimal indflydelse fra et menneske, så skal det være tydeligt for modtageren, at der er blevet brugt et AI-system. Hvilket formentlig kan betyde, at en AI-genereret tekst skal markeres som ‘produceret ved hjælp af AI’ på samme måde, som man skal deklarere en tekst, som ‘annonce’, hvis den er sponsoreret.

Foto: Unsplash

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *