Një studim i ri i kryer nga studiues nga universitetet amerikane Stanford dhe Yale tërheq vëmendjen për besueshmërinë e mjeteve të inteligjencës artificiale (AI) të përdorura për kërkime në fushën ligjore, me avokatët që këshillohen të jenë të kujdesshëm në lidhje me rezultatet e ofruara nga AI, raporton Xinhua.
Studimi, i titulluar “Pa halucinacione? Vlerësimi i besueshmërisë së mjeteve kryesore të kërkimit ligjor të AI”, shqyrtoi mjete të ndryshme të bazuara në AI që përdorin avokatët në aktivitetet kërkimore në fushën ligjore, në mënyrë që të vlerësojnë potencialin e gjenerimit të informacionit të rremë, të njohur si “halucinacione”.
Avokatët po përdorin gjithnjë e më shumë mjete të bazuara në AI për t’i ndihmuar ata në praktikën e tyre ligjore. Megjithatë, modelet e mëdha gjuhësore të përdorura në këto mjete janë të prirura për “halucinacione” dhe kështu paraqesin rreziqe në punën e tyre, thanë autorët e studimit të publikuar në faqen e internetit të Universitetit Stanford.
Disa kompani që prodhojnë këto mjete të bazuara në AI pretendojnë se e kanë zgjidhur këtë problem, por studiuesit i konsiderojnë pretendimet e tyre “të ekzagjeruara”.
Studimi testoi mjete të njohura nga LexisNexis dhe Thomson Reuters dhe zbuloi se ata bënë 17%-33% gabime.
Sipas studimit, disa “halucinacione” ndodhin kur mjetet e bazuara në AI citojnë norma ligjore joekzistente ose keqinterpretojnë precedentë gjyqësorë.
Studimi, i cili citon hulumtimet e mëparshme, zbuloi se që nga janari 2024, të paktën 41 nga 100 firmat më të mëdha ligjore në Shtetet e Bashkuara kanë filluar të përdorin AI në praktikën e tyre.
Autorët u bënë thirrje avokatëve që të monitorojnë dhe verifikojnë rezultatet e gjeneruara nga AI, ndërsa u bëjnë thirrje ofruesve të mjeteve të bazuara në AI që të jenë të sinqertë në lidhje me saktësinë e produkteve të tyre dhe të ofrojnë prova për t’i mbështetur ato.