AktualitetOp-EdTë fundit

A duhet që Chatbot-et e Inteligjencës Artificiale të Ofrojnë Shërbime Qeveritare?

Agjentët e Inteligjencës Artificiale po zëvendësojnë njerëzit si nëpunës publikë. Kjo ngre pyetje serioze ligjore dhe praktike.

 

Nga Clara Riedenstein

Vendi i vogël ballkanik Shqipëria njoftoi së fundmi një iniciativë të guximshme të inteligjencës artificiale: po ndërton një chatbot të mundësuar nga Inteligjenca Artificiale të quajtur Diella për të shërbyer si Ministër i Prokurimit Publik i vendit.

Që tani e tutje, agjenti artificial do të menaxhojë të gjitha ofertat për kontratat dhe blerjet qeveritare, nga punimet rrugore deri te shërbimet shëndetësore publike. Diella do ta bëjë Shqipërinë “një vend ku tenderët publikë janë 100% të lirë nga korrupsioni”, thotë kryeministri Edi Rama.

Agjentët e Inteligjencës Artificiale po zëvendësojnë ekspertët njerëzorë në politikë, ligj dhe mjekësi. Qeveria estoneze po teston përdorimin e gjyqtarëve të Inteligjencës Artificiale në mosmarrëveshjet civile. Nuk janë vetëm qeveritë – përdoruesit po ndjekin trendin. Një raport i kohëve të fundit zbuloi se më shumë se 10 milionë britanikë po përdorin chatbot për të menaxhuar dhe vetë-diagnostikuar gjendjet e shëndetit mendor.

Këto përpjekje duken të arsyeshme – madje një zgjidhje e mirë për çështjet urgjente. Njerëzit kanë të meta. Ata janë të korruptueshëm, të ngadaltë dhe shpesh bëjnë gabime. Pra, është e logjikshme që ata mund të zëvendësohen me qenie në dukje të pagabueshme. Megjithatë, ndërsa agjentët që zëvendësojnë ekspertët njerëzorë mund të duken fillimisht tërheqës, mbështetja në IA ngre pyetje serioze dhe ende pa përgjigje në lidhje me përgjegjësinë dhe efektivitetin.

Motivimet për t’iu drejtuar chatbot-eve të IA-së variojnë nga rritja e transparencës deri te rritja e furnizimit me shërbime publike. Shqipëria vuan nga një problem i përhapur i korrupsionit. Raporti më i fundit nga Departamenti i Shtetit i SHBA-së mbi vendin arriti në përfundimin se korrupsioni ishte i pranishëm në të gjitha degët e qeverisë, “përfshirë përmes prokurimit publik dhe partneriteteve publik-private”. Kjo po pengon pranimin e vendit në Bashkimin Evropian, një qëllim që Kryeministri Rama synon ta arrijë deri në vitin 2030.

Vende të tjera po synojnë zgjidhje me IA për akumulimin e tyre burokratik. Në Estoni, numri i gjyqtarëve në dy dekadat e fundit ka mbetur konstant, ndërsa numri i çështjeve është afërsisht dyfishuar. Në Mbretërinë e Bashkuar, Gjykata e Kurorës kishte një rekord prej 67,000 çështjesh të pazgjidhura në fund të vitit 2024.

Ekziston një nevojë në rritje për shërbime të shëndetit mendor. Që nga mesi i vitit 2025, mbi një milion njerëz janë në listën e pritjes së Shërbimit Shëndetësor Kombëtar të Mbretërisë së Bashkuar për të marrë mbështetje.

Ndërsa tërheqëse, kjo zhvendosje nga njerëzit në ekspertë të IA-së vjen me rreziqe serioze. Ndërsa chatbot-et janë mbresëlënëse të besueshme dhe autonome, ato janë të gabueshme. Problemi është se kur IA bën një gabim, është e paqartë se kush është përgjegjës.

Modelet e mëdha gjuhësore si ChatGPT ose Diella posedojnë një sistem rrjeti nervor të modeluar në trurin e njeriut. Ato ushqehen me sasi të mëdha të dhënash, të cilat nga ana tjetër u lejojnë atyre të bëjnë shoqërime midis pikave të të dhënave. Ndërsa kjo i bën ato të mira në bërjen e parashikimeve autonome dhe ofrimin e përgjigjeve të besueshme, është e natyrshme për sisteme të tilla (siç është për trurin tonë) që ato ndonjëherë do të japin përgjigjen e gabuar.

Kur ekspertët njerëzorë bëjnë gabime, ata mund të mbahen përgjegjës. Për mjekët dhe avokatët, ligji i keqpërdorimit ndërhyn për të mbrojtur qytetarët kur ekspertët njerëzorë veprojnë në mënyrë neglizhente ose shkaktojnë dëme të parandalueshme. Kur ministrat dhe gjyqtarët bëjnë gabime, reagimi publik mund të ushtrojë presion mbi qeveritë që t’i detyrojnë ata të japin dorëheqjen.

Nuk ekziston një përgjegjësi e tillë me IA-në. Nëse një agjent i IA-së bën një gabim, është e vështirë ta mbash atë përgjegjës. Çështjet ligjore po shtohen. Një klient i Air Canada kohët e fundit paditi kompaninë pasi chatbot-i i saj i dha atij informacion të rremë në lidhje me politikën e linjës ajrore të transportuesit. Në përgjigje, kompania argumentoi se nuk mund të mbahej përgjegjëse për këshillat e dhëna nga chatbot-i, sepse ishte një “entitet i veçantë ligjor që është përgjegjës për zgjedhjet e veta”.

Edhe pse linja ajrore humbi çështjen dhe iu desh të kompensonte klientin, pyetja më e madhe se si të menaxhohen përgjigjet mashtruese ose të rreme nga chatbot-et mbetet pa përgjigje. Chatbot-et e IA-së shpesh quhen “kuti të zeza” etike sepse, ndryshe nga njerëzit, ata nuk mund të shpjegojnë vendimmarrjen e tyre. Nëse ministrja shqiptare e IA-së, Diella, merr një vendim për prokurim publik që rezulton të shkaktojë dëm të madh, ai nuk do të jetë në gjendje të shpjegojë arsyetimin e tij. Kjo është një pyetje urgjente pasi agjentët e IA-së zëvendësojnë ekspertët nga të cilët qytetarët kërkojnë gjykime dhe shpjegime të menduara.

Zyrtarët qeveritarë të mundësuar nga IA-ja paraqesin gjithashtu probleme praktike. Siç tha vetë Kryeministri Rama në njoftimin e tij, “Diella është anëtari i parë i kabinetit që nuk është fizikisht i pranishëm”. Nuk mund të ulet në tryezë gjatë mbledhjeve të kabinetit dhe nuk mund të mbyllet nëse shkel ligjin.

Kur ekspertët njerëzorë bëjnë gabime, ata mund të mbahen përgjegjës. Për mjekët dhe avokatët, ligji i keqpërdorimit të profesionit ndërhyn për të mbrojtur qytetarët kur ekspertët njerëzorë veprojnë neglizhencë ose shkaktojnë dëme të parandalueshme. Kur ministrat dhe gjyqtarët bëjnë gabime, reagimi publik mund të ushtrojë presion mbi qeveritë që t’i bëjnë ata të japin dorëheqjen.

Nuk ekziston një përgjegjësi e tillë me IA-në. Nëse një agjent i IA-së bën një gabim, është sfiduese ta mbash atë përgjegjës. Çështjet ligjore po shtohen. Një klient i Air Canada kohët e fundit paditi kompaninë pasi chatbot-i i saj i dha atij informacion të rremë në lidhje me politikën e linjës ajrore të transportuesit. Në përgjigje, kompania argumentoi se nuk mund të mbahej përgjegjëse për këshillat e dhëna nga chatbot-i, sepse ishte një “entitet i veçantë ligjor që është përgjegjës për zgjedhjet e veta”.

Edhe pse linja ajrore humbi çështjen dhe iu desh të kompensonte klientin, pyetja më e madhe se si të menaxhohen përgjigjet mashtruese ose të rreme nga chatbot-et mbetet pa përgjigje. Chatbot-et e IA-së shpesh quhen “kuti të zeza” etike sepse, ndryshe nga njerëzit, ata nuk mund të shpjegojnë vendimmarrjen e tyre. Nëse ministrja e inteligjencës artificiale, Diella, merr një vendim për prokurim publik që rezulton të shkaktojë dëm të madh, ai nuk do të jetë në gjendje të shpjegojë arsyetimin e tij. Kjo është një pyetje urgjente, pasi agjentët e inteligjencës artificiale zëvendësojnë ekspertët nga të cilët qytetarët kërkojnë gjykime dhe shpjegime të menduara mirë.

Zyrtarët qeveritarë të mundësuar nga inteligjenca artificiale paraqesin gjithashtu probleme praktike. Siç tha vetë kryeministri Rama në njoftimin e tij, “Diella është anëtari i parë i kabinetit që nuk është fizikisht i pranishëm”. Nuk mund të ulet në tryezë gjatë mbledhjeve të kabinetit dhe nuk mund të mbyllet nëse shkel ligjin.

Ndërsa ka rreziqe në zëvendësimin e burokratëve me agjentë të inteligjencës artificiale, teknologjia mund të rrisë produktivitetin e tyre. Në Gjermani, inteligjenca artificiale po provohet për të ndihmuar në vend që të zëvendësojë avokatët dhe gjyqtarët. Kjo u lejon gjyqtarëve të përqendrohen në pyetjet komplekse në punët e tyre – ku kërkohet gjykim njerëzor – dhe t’ia lënë detyrat administrative inteligjencës artificiale. Shërbimi Kombëtar Shëndetësor i Mbretërisë së Bashkuar po eksperimenton me përdorimin e chatbot-eve për të triazhuar njerëzit që kërkojnë mbështetje për shëndetin mendor, në mënyrë që ata që kanë nevojë të mund të gjejnë një specialist njerëzor sa më shpejt të jetë e mundur.

Emërimi i një ministri të inteligjencës artificiale nga Shqipëria nxiti tituj – për arsye të mira. Rreziqet e sistemeve të inteligjencës artificiale që fitojnë përgjegjësi më të madhe janë reale. Por mundësitë që kjo teknologji të përmirësojë shërbimet publike janë gjithashtu reale.

Shënim: Clara Riedenstein është një analiste dhe shkrimshkruese e politikave të teknologjisë, puna e së cilës shqyrton se si teknologjitë në zhvillim formësojnë institucionet ekzistuese politike, ligjore dhe shoqërore. Hulumtimi i saj është botuar në Bandwidth, Tech Policy Press dhe European View. Clara ka një diplomë Master në Kërkime të Teorisë Politike nga Universiteti i Oksfordit, ku studioi si Bursante C. Douglas Dillon dhe u përqendrua në implikimet e modeleve të mëdha gjuhësore për teoritë e shtetit dhe juridiksionit.

Bandwidth është revista online e CEPA-s e dedikuar për avancimin e bashkëpunimit transatlantik në politikat e teknologjisë. Të gjitha mendimet e shprehura mbi Bandwidth janë vetëm ato të autores dhe mund të mos përfaqësojnë ato të institucioneve që përfaqësojnë ose të Qendrës për Analizën e Politikave Evropiane. CEPA mban një politikë të rreptë të pavarësisë intelektuale në të gjitha projektet dhe botimet e saj.

 

Fraksion.com

Social Media Auto Publish Powered By : XYZScripts.com