Det opplyser selskapet Meta, som eier begge de sosiale mediene. Endringen i reglene skal etter planen tre i kraft i mai.

Bakgrunnen er kritikk fra selskapets «oversight board», et internt organ som kommer med innspill til moderering av innhold.

Planen er at KI-generert innhold skal identifiseres ved hjelp av nye bransjestandarder som indikerer at innhold ikke er «ekte», og ved at brukere selv opplyser om at de legger ut KI-innhold.

– Utvikler seg raskt

Dagens Meta-regler forbyr videoer der noen sier noe de i virkeligheten ikke har sagt. Men Meta påpeker at det særlig i løpet av det siste året oftere har dukket opp KI-genererte bilder og lyd som framstår realistisk.

– Denne teknologien utvikler seg raskt, konstaterer selskapet.

Senere i år er det presidentvalg i USA, og det er frykt for at KI-generert desinformasjon vil kunne påvirket valget.

Fjernes ikke lenger

Etter regelendringen vil ikke Meta lenger automatisk fjerne videoer der noen sier noe de i virkeligheten ikke har sagt. I stedet vil videoene bli merket så det framgår at de er laget med kunstig intelligens.

Nicolas Gaudemet fra konsulentselskapet Onepoint er positiv til merkingen, men advarer om at det finnes programvare som kan lage KI-innhold uten noen type identifikasjon.

Tidligere i år ble Meta, Google og OpenAI enige om et nytt system der deres KI-verktøy skal utstyre innhold med usynlige «vannmerker».