Organizatat që përdorin AI për të monitoruar sjelljen dhe produktivitetin e punonjësve mund të presin që ata të ankohen më shumë, të jenë më pak produktivë dhe të dëshirojnë të largohen më shumë—përveç nëse teknologjia mund të prezantohet si mbështetje për zhvillimin e tyre, zbulon kërkimi i Cornell.
Mjetet e survejimit, të cilat po përdoren gjithnjë e më shumë për të ndjekur dhe analizuar aktivitetin fizik, shprehjet e fytyrës, tonin e zërit dhe komunikimin verbal dhe të shkruar, shkaktojnë që njerëzit të ndjejnë një humbje më të madhe të autonomisë sesa mbikëqyrja nga njerëzit, sipas kërkimit.
Bizneset dhe organizatat e tjera që përdorin teknologjitë e ndryshueshme me shpejtësi për të vlerësuar nëse njerëzit po dështojnë, trajtojnë klientët mirë ose potencialisht angazhohen në mashtrime apo sjellje të tjera të këqija duhet të konsiderojnë pasojat e tyre të padëshiruara, të cilat mund të nxisin rezistencë dhe të dëmtojnë performancën, thonë studiuesit. Ata gjithashtu sugjerojnë një mundësi për të fituar mbështetje, nëse subjektet e survejimit ndjejnë se mjetet janë aty për të ndihmuar në vend që të gjykojnë performancën e tyre—vlerësime që ata kanë frikë se do të mungojnë në kontekst dhe saktësi.
“Kur inteligjenca artificiale dhe teknologjitë e tjera të avancuara implementohen për qëllime zhvillimore, njerëzit pëlqejnë që ata mund të mësojnë nga ajo dhe të përmirësojnë performancën e tyre,” tha Emily Zitek, profesoreshë e asociuar e sjelljes organizative në Shkollën ILR. “Problemi ndodh kur ata ndjejnë se një vlerësim po bëhet automatikisht, drejt nga të dhënat, dhe ata nuk janë në gjendje ta kontekstualizojnë atë në asnjë mënyrë.”
Zitek është bashkëautore e “Survejimi Algoritmik Kundrejt Njerëzor Shkakton Perceptime më të Ulëta të Autonomisë dhe Rrit Rezistencën,” publikuar më 6 qershor në Communications Psychology. Rachel Schlund, Ph.D. ’24, është autorja e parë.
Survejimi algoritmik ka shkaktuar tashmë reagime negative. Në vitin 2020, një bankë investimesh hoqi menjëherë një program pilot që testonte softuerin e produktivitetit për të monitoruar aktivitetin e punonjësve, përfshirë alarmimin e tyre nëse merrnin shumë pushime. Monitorimi i shkollave gjatë testeve virtuale gjatë pandemisë shkaktoi protesta dhe padive, me studentët që thoshin se kishin frikë se çdo lëvizje do të interpretohej si mashtrim.
Nga ana tjetër, njerëzit mund t’i shohin algoritmet si më efikase dhe objektive. Dhe kërkimi ka gjetur se njerëzit janë më pranues ndaj sistemeve të ndjekjes së sjelljes si badget e zgjuara ose orët e zgjuara kur ato ofrojnë feedback direkt, në vend që përmes dikujt që mund të formojë gjykime negative për të dhënat.
Në katër eksperimente që përfshinin gati 1,200 pjesëmarrës në total, Schlund dhe Zitek hetuan nëse ka rëndësi nëse njerëzit ose AI dhe teknologjitë e lidhura kryejnë survejimin, dhe nëse konteksti në të cilin përdoret—për të vlerësuar performancën ose për të mbështetur zhvillimin—ndikon në perceptimet.
Në një studim të parë, kur iu kërkua të kujtonin dhe të shkruanin për herë kur ishin monitoruar dhe vlerësuar nga secili tip survejimi, pjesëmarrësit raportuan se ndjenin më pak autonomi nën AI dhe ishin më të prirur të angazhoheshin në “sjellje rezistence.”
Më pas, duke simuluar survejimin real, një palë studimesh kërkoi që pjesëmarrësit të punonin si një grup për të menduar ide për një park tematik, pastaj të gjeneronin individualisht ide për një segment të parkut. Ata u thanë se puna e tyre do të monitorohej nga një asistent kërkimi ose AI, ky i fundit i përfaqësuar në videokonferencat Zoom si “Feed Teknologjik AI.”
Pas disa minutash, ose asistenti njerëzor ose “AI” transmetoi mesazhe se pjesëmarrësit nuk po vinin me mjaft ide dhe duhet të përpiqeshin më shumë. Në anketat pas një studimi, më shumë se 30% e pjesëmarrësve kritikuan survejimin e AI krahasuar me rreth 7% që ishin kritik ndaj monitorimit njerëzor.
“Reforcimi nga AI e bëri situatën thjesht më stresuese dhe më pak krijuese,” shkroi një pjesëmarrës.
Përtej ankesave dhe kritikave, studiuesit gjetën se ata që mendonin se po monitoroheshin nga AI gjeneruan më pak ide—duke treguar performancë më të dobët.
“Edhe pse pjesëmarrësit morën të njëjtin mesazh në të dyja rastet që ata duhet të gjeneronin më shumë ide, ata e perceptuan atë ndryshe kur vinte nga AI në vend të asistentit kërkimor,” tha Zitek. “Survejimi i AI shkaktoi që ata të performonin më keq në disa studime.”
Në një studim të katërt, pjesëmarrësit duke imagjinuar se punonin në një qendër telefonatash u thanë se njerëzit ose AI do të analizojnë një mostër të thirrjeve të tyre. Për disa, analiza do të përdorej për të vlerësuar performancën e tyre; për të tjerët, për të ofruar feedback zhvillimor. Në skenarin zhvillimor, pjesëmarrësit nuk e perceptuan më survejimin algoritmik si ndërhyrje më të madhe në autonominë e tyre dhe nuk raportuan një qëllim më të madh për të dhënë dorëheqjen.
Rezultatet tregojnë një mundësi për organizatat që të implementojnë survejimin algoritmik në mënyra që mund të fitojnë besimin e subjekteve në vend që të inspirojnë rezistencë.
“Organizatat që përpiqen të implementojnë këtë lloj survejimi duhet të njohin pro dhe kundrat,” tha Zitek. “Ata duhet të bëjnë çmos për ta bërë atë më shumë zhvillimor ose të sigurojnë që njerëzit të mund të shtojnë kontekstualizimin. Nëse njerëzit ndjejnë se nuk kanë autonomi, ata nuk do të jenë të lumtur.”
Më shumë informacione: Rachel Schlund et al, Algorithmic versus human surveillance leads to lower perceptions of autonomy and increased resistance, Communications Psychology (2024). DOI: 10.1038/s44271-024-00102-8
Zhurnali ku u botua: Communications Psychology