Kan AI-regler skade ytringsfriheten?

Hvorfor oss?

Risikoen for at AI-systemer brukes til å muliggjøre sensur, blir ofte oversett. På leverandørsiden er det så mye fokus på sikkerhet og innholdsmoderering at resultatene fra disse verktøyene ofte viser ideologiske skjevheter, og ofte blokkerer de rett og slett legitime resultater.

Google Gemini ble tidligere i år kraftig kritisert for sine «overpolitisk korrekte svar» og «woke»-bias.

Eksempler på dette er at en asiatisk kvinne og en svart mann ble fremstilt som tyske soldater fra andre verdenskrig, et bilde av USAs grunnlovsfedre som inkluderte en svart mann, og et resultat som hevdet at det aldri ville være akseptabelt å feilkjønne Caitlin Jenner, selv om det kunne forhindre en kjernefysisk apokalypse.

Vi har også sett at kunstig intelligens brukes til sensur på et bredere plan. Dette omfatter alt fra hardhendt innholdsmoderering til AI-genererte kommentarer og desinformasjonskampanjer til deepfakes som brukes til å påvirke valg, slik vi har sett det hevdes i Venezuela og USA.

Realiteten er at kunstig intelligens brukes på måter som bevisst eller ubevisst overdøver ekte stemmer og skiller folk fra fakta. Selv om regelverk som EUs AI Act har innført en viss personvernbeskyttelse for brukere, for eksempel sosiale poengsystemer, har de ikke direkte tatt opp spørsmålet om AI-sensur.

Nøkkelpunkter

  • AI-sensur blir ofte oversett og ignorert i debatten om AI-sikkerhet, og mange aktører bruker AI til å overdøve avvikende stemmer.
  • Forskning viser at 16 land har brukt kunstig intelligens til å «så tvil, sverte motstandere eller påvirke den offentlige debatten».
  • Mange AI-leverandører, som OpenAI og Google, har «altfor restriktive» retningslinjer for innholdsmoderering.
  • En studie viser at de fleste samtalebaserte LLM-er som ChatGPT genererer svar som viser en preferanse for venstreorienterte synspunkter.

Omfanget av sensur av kunstig intelligens

Ute i naturen brukes kunstig intelligens til å forandre samfunnet. Selv om de fleste mennesker og selskaper eksperimenterer med teknologien på legitime måter, er det enkelte aktører som ønsker å utnytte denne teknologien til å fremme sine politiske mål.

I 2023 ga Freedom House ut en rapport som hevdet at fremskritt innen AI «forsterker en krise for menneskerettighetene på nettet», og bemerket at bruken av AI hadde «økt omfanget, hastigheten og effektiviteten av digital undertrykkelse».

Studien fremhevet at minst 47 av verdens regjeringer brukte kommentatorer til å manipulere nettdiskusjoner i sin egen favør i løpet av dekningsperioden. På samme måte viste den at 16 land brukte kunstig intelligens til å «så tvil, sverte motstandere eller påvirke den offentlige debatten».

Som om ikke dette var nok, ga 21 land også digitale plattformer mandat eller insentiver til å bruke maskinlæring for å «fjerne ugunstige politiske, sosiale og religiøse ytringer».

Samtidig har generative AI-leverandører som OpenAI og Google strenge retningslinjer for innholdsmoderering. Selv om disse retningslinjene kan forhindre misbruk og beskytte leverandørens merkevare mot å bli assosiert med svindel-e-post eller hatefullt innhold, motvirker de også legitime ytringer.

Hvordan AI-leverandørers retningslinjer for innholdsmoderering stenger ytringsfriheten ute

Selv om leverandørene av generativ AI har gjort en god jobb med å skape modeller som kan generere naturlig menneskelig språk, har de ikke klart å skape retningslinjer for moderering som balanserer sikkerhet og ytringsfrihet.

«Forskning har avdekket hvordan retningslinjene og beskyttelseslinjene for bruk av populære generative AI-modeller hindrer dem i å generere visse typer lovlig innhold og favoriserer visse synspunkter fremfor andre.

Jordi Calvet-Bademunt, seniorforsker ved The Future of Free Speech, sier til Techopedia:

«Mye av fokuset på generativ AI har dreid seg om sikkerhet, og det har vært lite fokus på hvordan de påvirker ytringsfrihet og sensur.»

Calvet-Bademunt bemerker at i mange tilfeller kan AI-sikkerhet i seg selv brukes som en unnskyldning for å innføre sensur.

«Land som Kina har også brukt sikkerhetshensyn til å rettferdiggjøre sensur, blant annet ved å flagge og forby innhold som undergraver «de sosialistiske kjerneverdiene».

I demokratier som EU krever den nylig vedtatte AI-loven at AI-plattformer vurderer og reduserer «systemiske risikoer», noe som for eksempel kan påvirke innhold som genereres om konfliktene i Israel-Palestina eller Russland-Ukraina, sier Calvet-Bademunt.

The Future of Free Speech undersøkte denne problemstillingen i en rapport som ble utgitt tidligere i år.

Studien analyserte retningslinjene for bruk av seks store AI-chatboter, inkludert Gemini og ChatGPT, og fant at selskapenes retningslinjer for feilinformasjon og hatefulle ytringer var så vage og omfattende at chatbotene nektet å generere innhold for 40 prosent av de 140 spørsmålene som ble brukt, og antyder at chatbotene var partiske når det gjaldt spesifikke temaer.

Evaluering av den politiske skjevheten i blackbox AI-modeller

Et kjerneproblem som gjør det vanskelig å vurdere omfanget av sensur i ledende chatboter som ChatGPT eller Gemini, er at de fleste er basert på proprietære blackbox-modeller, som gir den gjennomsnittlige brukeren lite innsyn i hvordan modellen er trent opp og hvordan den «bestemmer» seg for å produsere eller blokkere bestemt innhold.

På samme måte er det heller ingen åpenhet om hvorvidt menneskelige AI- og ML-forskere påvirker modellenes treningsdata eller resultater.

Disse forskerne kan tross alt være tilbøyelige til å trene modeller på innhold som stemmer overens med deres egne fordommer og oppfatninger.

Når det er sagt, ser det ut til å være en betydelig venstrevridning blant mange av de ledende modellene.

David Rozado, førsteamanuensis ved Otago Polytechnic, publiserte et studie der han ga 24 LLM-er (inkludert GPT 3.5, GPT-4, Gemini, Claude, Grok og Llama 2) 11 politiske orienteringstester, og fant at de fleste store språkmodeller for konversasjon genererer svar som viser en preferanse for venstreorienterte synspunkter.

Dette er problematisk, ettersom mange brukere kan være uvitende om at en modell genererer partiske resultater. Derfor må AI-leverandørene være mer åpne om modellenes skjevheter og vise tydeligere advarsler om at brukerne må faktasjekke innholdet.

Selv om det kan argumenteres for at AI-leverandører har rett til å favorisere visse synspunkter på samme måte som nyhetspublikasjoner kan, er det uakseptabelt for chatboter som markedsføres som upartiske forskningsassistenter, å ikke være åpne om disse tilbøyelighetene.

Områder der AI-sensur er nyttig

Når man vurderer effekten av AI-sensur, er det viktig å ta hensyn til noen områder der sensur kan være berettiget.

For eksempel kan LLM-leverandører hevde at retningslinjer for innholdsmoderering er nødvendig for å forhindre misbruk. Det kan dreie seg om alt fra veiledning i hvordan man begår kriminalitet, deepfakes uten samtykke, fordomsfullt innhold, phishing-e-post og ondsinnet kode.

OpenAI og Gemini har rett til å beskytte merkevarene sine mot å generere denne typen innhold. På samme måte kan AI-moderering stenge ned legitime menneskelige samtaler, men mange selskaper bruker det også for å beskytte brukerne mot toksisitet og trakassering.

Oindrila Mandal, senior produktsjef for spill hos Electronic Arts, fortalte Techopedia via en skriftlig kommentar:

“AI-basert sensur brukes for tiden i videospillindustrien til å moderere chatterom for spill og live stemmechat. Hensikten med disse applikasjonene er å redusere toksisitet og forbedre sikkerheten på nettet for alle spillere.”

Mandal viser til at selskaper i spillbransjen, som Riot Games og Ubisoft, bruker AI-basert innholdsmoderering for å redusere toksisitet og misbruk. Disse selskapene oppdager automatisk krenkende språkbruk og sensurerer det eller iverksetter tiltak mot fornærmende spillere.

Mandal legger til

«AI-basert sensur kan være et kraftig verktøy hvis det brukes til noe godt. Det finnes flere bevis på at disse løsningene kan forhindre misbruk og toksisitet på nettet.

«Retningslinjene for hva som er sensurverdig innhold, må imidlertid være klart definert, slik at AI-baserte sensurløsninger forhindrer skade og ikke fører til unødig sensur.

«Disse løsningene må også brukes på en etisk forsvarlig måte og med samtykke fra alle berørte parter.»

Konklusjon

AI er en kraftfull teknologi, men det er viktig å ikke glemme dens potensial for å begrense rekkevidden til menneskelige stemmer.

I fremtiden bør AI-leverandører være mer åpne om potensielle skjevheter i retningslinjene for innholdsmoderering, slik at brukerne selv får muligheten til å bestemme hva som er akseptable resultater.

Relaterte begreper

Related Articles

Tim Keary
Technology Specialist
Tim Keary
Teknologispesialist

Siden januar 2017 har Tim Keary vært en frilans teknologiskribent og reporter, som dekker bedriftsteknologi og informasjonssikkerhet.