I en nylig publisert artikkel beskriver Tore Pedersen (Bjørknes Høyskole) og Christian Johansen (Universitetet i Oslo) utfordringen med skjulte algoritmer i Kunstig Intelligens (KI) og forklarer hvordan bias i kunstige intelligente beslutninger kan avdekkes og reduseres ved å bruke psykologiens undersøkelsesmetoder på KIs beslutninger.

Portett av førsteamanuensis ved Bjørknes Høyskole Tore Pedersen
Tore Pedersen er førsteamanuensis ved Bjørknes Høyskole

Hva er kunstig intelligens?

Kunstig intelligens (KI) får stor oppmerksomhet i media så vel som i akademia og næringsliv. KI blir ofte beskrevet enten som den endelige løsningen på alle menneskelige utfordringer eller som den alvorligste trussel mot menneskelig eksistens. I akademia fokuserer informatikere og teknologer på å utvikle intelligente systemer som fungerer, mens filosofier teoretiserer om den virkningen disse systemene kan komme til å få på menneskelig liv.

Men i grenseflaten mellom teknologi og filosofi er det ett sentralt aspekt som ennå ikke er artikulert: Hvordan trekker kunstig intelligente systemer sine slutninger? Tore Pedersen og Christian Johansen lanserer i den nylig publiserte artikkelen begrepet Behavioral Artificial Intelligence som en ny agenda og en ny metodologi for å undersøke Artificial Inference og viser hvordan psykologiens undersøkelsesmetoder kan brukes for å studere kunstig intelligente beslutninger, for derigjennom å avdekke hvordan de kunstig intelligente systemene trekker sine slutninger.

Dette innebærer at vi må foreta systematiske empiriske undersøkelser av kunstig intelligent output for å avdekke kunstig intelligente slutninger – altså må vi bruke psykologiens undersøkelsesmetoder på kunstig intelligente systemer, på samme måte som forskningstradisjonene Heuristics & Biases og Behavioral Economics har brukt de samme undersøkelsesmetodene for å avdekke hvordan mennesker trekker sine slutninger.

Bare ved å gjøre dette kan vi bidra til at de kunstig intelligente og skjulte algoritmene blir mer transparente, noe som igjen vil bidra til økt innsikt i og forståelse av de kunstig intelligente beslutningsprosessene, slik at vi kan oppnå økt tillit til at de beslutningene som de kunstig intelligente systemene hjelper oss med å utføre, er de riktige beslutningene for oss mennesker.

Hvis du vil vite mer om dette kan du lese artikkelen Behavioral Artificial Intelligence: An Agenda for Systematic Empirical Studies of Artificial Inference som nylig er publisert i den internasjonale fagfellevurderte journalen AI & Society: Journal of Knowledge, Culture and Communication.

 

Les mer om Tore Pedersen