Ar dirbtinis intelektas gali pakeisti mūsų mąstymą apie žmonių priimtus sprendimus? Florianas Stoeckelis pristato naujus tyrimus, rodančius, kad kai piliečiai yra raginami galvoti apie AI, jie geriau suvokia sprendimus priimančių žmonių ribotumą.
Didėjant dirbtinio intelekto naudojimui, diskusijos dažnai koncentruojasi į tai, ar tokios sistemos yra šališkos. Tačiau AI atsiradimas taip pat gali pakeisti tai, kaip piliečiai vertina sprendimus priimančius žmones.
Kai dirbtinis intelektas tampa matoma alternatyva, galinčia priimti sprendimus, kuriuos anksčiau sprendė žmonės, žmonės gali pradėti kritiškiau vertinti žmogaus sprendimus. Naujame tyrime pateikiame šio modelio įrodymų viešojo administravimo AI kontekste.
Ar dirbtinis intelektas pakelia kartelę sprendimų priėmėjams?
Galima daryti prielaidą, kad piliečiai priešinsis didesniam viešojo administravimo AI naudojimui. Tačiau, kai dirbtinis intelektas yra alternatyvus sprendimų priėmėjas, piliečiai gali skirti daugiau dėmesio žmonių sprendimų apribojimams ir galimiems šališkumui.
Šis palyginimas gali padidinti susirūpinimą dėl žmogaus sprendimų priėmimo. Savo ruožtu tai gali padidinti visuomenės paklausą dirbtiniu intelektu pagrįstų sprendimų kai kuriose srityse, o ne tiesiog sukelti atsparumą AI.
Mūsų tyrimai rodo, kad AI sistemų ir žmogaus sprendimus priimančių asmenų palyginimas vaidina svarbų vaidmenį formuojant šiuos vertinimus. Konkrečiai, mes pastebime, kad kai žmonės pirmą kartą galvoja apie AI sprendimų priėmimą, jie linkę labiau atkreipti dėmesį į sprendimus priimančių žmonių apribojimus ir galimą šališkumą. Panašu, kad palyginimas su AI pakelia kartelę, kaip piliečiai vertina žmogaus sprendimus.
Suvokiama diskriminacija priimant sprendimus dėl įdarbinimo
Norėdami ištirti šią dinamiką, ištyrėme, kaip žmonės vertina diskriminacijos riziką priimant sprendimus dėl samdymo viešajame sektoriuje. Respondentų paklausėme apie atrankos procesą, kurį atliktų dirbtinis intelektas arba žmonių įdarbintojai. Viešojo sektoriaus samdymas yra naudingas išbandymo pavyzdys: šie sprendimai apima viešuosius išteklius ir daro įtaką paslaugoms, kuriomis pasitiki piliečiai, todėl nediskriminacinis sprendimų priėmimas yra ypač svarbus.
Respondentų buvo paklausta, kiek tikėtina, kad jie susidurs su diskriminacija priimant sprendimus dėl dirbtinio intelekto sistemų arba žmonių įdarbintojų. Atsitiktinai pakeitėme klausimų tvarką. Pusė respondentų pirmiausia įvertino dirbtinį intelektą, o kita pusė pirmiausia įvertino žmonių verbuotojus.
Šis paprastas variantas leido mums ištirti, kaip AI, kaip atskaitos taško, buvimas įtakoja tai, kaip žmonės vertina žmogaus sprendimų priėmimą. Kai respondentai pirmą kartą įvertina dirbtiniu intelektu pagrįstą sprendimų priėmimą, jų susirūpinimas dėl žmonių verbuotojų diskriminacijos didėja. Atrodo, kad galvojant apie algoritminį sprendimų priėmimą žmonės atkreipia dėmesį į galimus sprendimus priimančių žmonių apribojimus ir šališkumą.
AI šešėlis
Mūsų duomenys gauti iš iš anksto užregistruoto tyrimo eksperimento, kuriame dalyvavo daugiau nei 11 000 respondentų aštuoniose Europos šalyse: Austrijoje, Vokietijoje, Vengrijoje, Italijoje, Nyderlanduose, Lenkijoje, Ispanijoje ir Jungtinėje Karalystėje. Apklausą internetu atliko „YouGov“, naudodama pavyzdžius, apytikslius nacionalinius gyventojų skaičius pagal pagrindines demografines charakteristikas.
Visose šalyse susirūpinimas dėl žmonių verbuotojų ir dirbtinio intelekto sistemų diskriminacijos yra iš esmės panašus. Daugumoje mūsų imties šalių piliečiai išreiškia maždaug panašų susirūpinimą dėl abiejų šaltinių kylančios diskriminacijos. Nyderlandai yra išimtis, kur respondentai šiek tiek labiau susirūpinę dirbtiniu intelektu, o Vengrijoje susirūpinimas dėl žmonių verbuotojų yra šiek tiek didesnis.
Tačiau pagrindinė išvada yra ta, kad pats palyginimas yra svarbus. Kai respondentai pirmiausia vertina AI, vėliau jie kritiškiau vertina sprendimus priimančius žmones. Kai dirbtinis intelektas tampa svarbiu atskaitos tašku žmonių svarstymams, atrodo, kad jie atkreipia dėmesį į galimus žmogaus sprendimų priėmimo trūkumus. Šia prasme žmogaus sprendimų priėmimo vertinimai vis dažniau gali vykti AI šešėlyje.
Žmogaus apribojimai
Tyrimas apie tai, ką mokslininkai vadina „algoritminiu įvertinimu“, siūlo vieną galimą paaiškinimą. Kai algoritmai lyginami su netobulais sprendimus priimančiais žmonėmis, dirbtinis intelektas gali atrodyti nuoseklesnis, nešališkesnis ar pagrįstesnis taisyklėmis.
Žmogaus sprendimų priėmimas, priešingai, gali būti siejamas su subjektyviais sprendimais, šališkumu ar nuovargiu. Kai šie žmogiškieji apribojimai išryškėja, algoritminės sistemos gali būti vertinamos palankiau, net jei žmonės vis dar nerimauja dėl algoritminio šališkumo.
Įdomu tai, kad ši perspektyva šiek tiek skiriasi nuo to, kaip ekspertai dažnai diskutuoja apie AI. Diskusijose tarp ekspertų dažniausiai pabrėžiama algoritminio šališkumo rizika. Mūsų išvados rodo, kad daugelis piliečių DI nesikreipia pirmiausia per šį objektyvą. Atrodo, kad požiūris į AI atspindi bendresnes prielaidas apie algoritmus ar kompiuterius, kurios dažnai siejamos su nuoseklumu ir nešališkumu.
Mūsų tyrimas taip pat atskleidžia susijusią palyginimo dinamiką. Kai respondentai pirmą kartą raginami pagalvoti apie galimybę, kad žmonių samdymo vadybininkai gali diskriminuoti, jų susirūpinimas dėl dirbtinio intelekto sistemų diskriminacijos sumažėja. Taigi, kai žmonės atsižvelgia į galimus sprendimus priimančių žmonių šališkumus, dirbtinis intelektas atrodo mažiau problemiškas.
Palyginimo galia
Šie palyginimo efektai turi didelę reikšmę diskusijoms apie piliečių lūkesčius dėl dirbtinio intelekto viešajame administravime. Dirbtiniam intelektui tampant labiau matoma alternatyva, piliečiai gali vis labiau vertinti sprendimus priimančius žmones, palyginti su algoritminėmis sistemomis. Tokiuose palyginimuose žmogaus sprendimai gali atrodyti ne tokie nuoseklūs, lėtesni arba labiau linkę į šališkumą.
Iš pradžių piliečiai gali teikti pirmenybę, kad sprendimus priimtų žmonės, iš dalies dėl to, kad sprendimus priimantys žmonės jau seniai buvo numatytieji ir gali būti vertinami kaip patikimesni. Tačiau ilgas laukimo laikas, administracinės išlaidos mokesčių mokėtojams arba suvokiamas žmonių sprendimų nenuoseklumas gali atkreipti ypatingą dėmesį į esamų sistemų apribojimus. Tokiose situacijose AI kaip alternatyva gali padidinti algoritminių sprendimų priėmimo poreikį.
Svarbu tai, kad ši dinamika rodo platesnę reikšmę. Kai dirbtinis intelektas tampa atskaitos tašku piliečių vertinimuose, jie nebevertina žmonių sprendimų priėmimo atskirai. Viena iš mūsų eksperimento dalių rodo, kad kai AI išryškėja, žmonės gali kritiškiau įvertinti žmogaus sprendimų priėmimo apribojimus.
Praktikoje tai gali sumažinti paramą išimtinai žmonių pagrindu priimamiems sprendimams ir padidinti atvirumą dirbtiniu intelektu pagrįstiems sprendimams. Abipusė mūsų eksperimentų išvada patvirtina šį teiginį: AI gali pasirodyti priimtinesnis, kai žmonės pirmą kartą susimąsto apie žmogaus ribotumą. Abiem atvejais palyginimas perkelia suvokimą ta pačia kryptimi. Todėl algoritminis sprendimų priėmimas gali būti laikomas perspektyvesniu ar net geresniu pasirinkimu, palyginti su žmogaus sprendimų priėmimu.
Neatsakyti klausimai
Mūsų rezultatai gaunami iš specifinio konteksto, ty sprendimų priėmimo įdarbinant viešąjį sektorių. Jei panaši dinamika atsiras kitose politikos srityse, AI plitimas gali sukurti naujų valstybės lūkesčių. Kai kurie piliečiai, užuot skeptiški matę, kad vis dažniau naudojamasi algoritminiais sprendimais, netgi gali tikėtis, kad vyriausybės naudos daugiau dirbtinio intelekto, ypač tose srityse, kuriose jis žada būti ne tik greitesnis ir pigesnis, bet ir priimti nuoseklesnius sprendimus.
Praktikoje viešojo sektoriaus sprendimų priėmimas greičiausiai derins žmogiškąjį ir algoritminį indėlį, o įvairiose šalyse, regionuose ir valdžios lygmenyse bus daug skirtumų. Politikos formuotojams ir tyrėjams tai kelia keletą svarbių klausimų.
Kuriose srityse piliečiai galėtų pritarti didesniam AI vaidmeniui, o kur DI naudojimas gali susidurti su dideliu pasipriešinimu? Kiek piliečių požiūriai priklauso nuo jų pačių požiūrio ir patirties, o kiek nuo naudojamų AI sistemų savybių? Ir kaip hibridines sprendimų sistemas, kuriose derinamas žmogiškasis ir algoritminis sprendimų priėmimas, galima sukurti skaidriai, atskaitingai ir demokratiškai teisėtai?
Florianas Stoeckelis yra knygos „The Power of the Crowd“ (Cambridge University Press, 2025) autorius.
Pastaba: šiame straipsnyje pateikiamos autoriaus nuomonės, o ne LSE Europos politikos ar Londono ekonomikos mokyklos pozicija.
Vaizdo kreditas: „Shutterstock“ pateikiami „fizkes“.