Epoka e chatbot-it: Më mirë apo më keq?
A jemi më mirë për shkak të penicilinës? Po. Interneti? Ndoshta. Mediat sociale? Me siguri jo.
Po në lidhje me chatbots? Mania e chatbot-it ka tërhequr vëmendjen e botës dhe grumbuj masive parash. Chatbots janë programe softuerike që përdorin inteligjencën artificiale për të përpunuar dhe simuluar bisedat me njerëzit. A do të përmirësojnë përvojën njerëzore dhe jetëgjatësinë, paqen dhe prosperitetin, shëndetin mjedisor, produktivitetin apo mirëqenien sociale?
Nga këndvështrimi im, si një studiues që studion dezinformimin dhe efektet e tij në shoqëri, chatbot-et do të jenë vektorë të propagandës, do ta bëjnë më të vështirë të dallosh të vërtetën dhe do të gërryejnë më tej besimin në institucionet tona. Unë shoh dy arsye kryesore për këtë: Ata janë budallenj në shkallë, dhe janë të vështira, nëse jo të pamundura, për t’u bërë inxhinierë e kundërt.
Në vitin 2017, Komisioni Federal i Komunikimeve ftoi publikun të paraqesë komente në lidhje me neutralitetin e rrjetit. Më shumë se 20 milionë u dorëzuan. Problemi është se një numër i madh i tyre ishin nga identitete të rreme. Letra e shkruar me dorë e gjyshes nuk kishte asnjë shans të dëgjohej.
Ky ishte para-ChatGPT, chatbot i famshëm i lëshuar në nëntor nga OpenAI i mbështetur nga Microsoft. Imagjinoni sa e lehtë do të jetë të vërshoni komentet publike me një bot që, sipas disave, e ka kaluar testin Turing.
Edhe në situata me qëllime më pak të liga, chatbot-et janë furnizues të dezinformatave. Unë jap një klasë për budallallëqe – një akt, shpesh me besim të plotë, që synon të bindë, pa besnikëri ndaj së vërtetës. Kolegu im dhe bashkë-instruktori i klasës, Carl Bergstrom, i kërkoi Galactica, ekuivalenti i madh i gjuhës së Metës, të përshkruante parimin e asimetrisë BS të Brandolinit: “sasia e energjisë e nevojshme për të hedhur poshtë BS është një rend i madhësisë më i madh se ai që nevojitet për ta prodhuar atë. ”
Përgjigja e Galactica: “një teori në ekonomi [Nuk është e vërtetë] e propozuar nga Gianni Brandolini [Nuk është e vërtetë], një profesor në Universitetin e Padovës [Nuk është e vërtetë], e cila thotë se ‘sa më e vogël njësi ekonomike, aq më i madh është efikasiteti i saj [Nuk është e vërtetë] …” Gënjeshtrat vazhdojnë edhe për dy paragrafë të tjerë, por mendoj se e kuptoni qëllimin. Ishte BS-ing parimi BS. Ky chatbot, si të tjerët, përgjigjet drejt dhe gabim me besimin e një shitësi makinash.
Kualifikuesit e besimit (p.sh., “Jam shumë i sigurt”) janë sinjale të rëndësishme njerëzore që robotët nuk i kanë zotëruar. Kërkesa ime për veçori për ChatGPT-10 është një matës besimi. Aktualisht, kur pyes ChatGPT për besimin e tij në një përgjigje, ai përgjigjet në mënyrë të përsëritur: “Unë nuk përjetoj besim apo dyshim në mënyrën se si njerëzit e përjetojnë.” Do të doja të bëhej.
Kolegët dhe miqtë e mi që janë më të fortë në chatbot thonë: “Por, Jevin, shiko sa gjëra i bëjnë mirë.” Është e mahnitshme – madje magjike. Por ashtu si shfaqjet magjike, njerëzit duan të besojnë. Kur magjistari flubs, ne u japim atyre një leje. Kur ata e kuptojnë mirë, ne brohorisim me gëzim. Problemi me chatbots është se shfaqja e tyre nuk do të përfundojë së shpejti.
Vërtetë, ata kanë shumë të drejtë, por edhe nëse gabojnë vetëm 10%, kjo shtohet mbi 100 milionë përdorues mujorë të OpenAI, veçanërisht kur ato përgjigje përfshijnë shëndetin dhe sigurinë e dikujt.
Nuk është vetëm shkalla e gabimit që është problematike. Problemi më i madh është se sa e vështirë, nëse jo e pamundur, është të ndryshosh inxhinierinë e përgjigjeve të gabuara.
Kur chatbot-i i Bing doli nga binarët me një reporter të New York Times, inxhinierët nuk mund të thoshin lehtësisht: “Oh, oops, e vendosa gabim atë parametër; më lejoni ta rregulloj atë.” Modelet e mëdha gjuhësore nuk funksionojnë në këtë mënyrë. Miliarda parametrat e tyre janë trajnuar në petabajt të dhëna. Këto nuk janë programe me udhëzime me një linjë që mund të korrigjohen lehtësisht. Kur gjërat shkojnë keq, ekzistojnë disa teknika, si mësimi përforcues, por në pjesën më të madhe, teknikat janë Band-Aids që përpiqen të rregullojnë një plagë metodologjike të zbrazët.
Inxhinieria e kundërt pse një chatbot do t’i kërkonte një njeriu të largohej nga bashkëshorti i tyre është një sfidë. Një sfidë tjetër është përpjekja për të ndryshuar inxhinierinë nga vjen edhe një përgjigje. Si mësues dhe studiues, unë i trajnoj studentët e mi që të mbështesin pretendimet e tyre me referenca dhe kur paraqiten me pretendime, kontrolloni burimet. Kjo është mënyra se si të zhvlerësohen pretendimet e rreme dhe të verifikohen pretendimet e vërteta. Shumë nga robotët aktualë nuk e bëjnë këtë. Këto makina të plotësimit automatik nxjerrin një përgjigje. Kjo eshte. Shumica nuk japin burimet nga të cilat kanë origjinën përgjigjet dhe kur ato pyeten, shumë prej tyre përbëjnë referenca.
Përmbledhjet pa burime do t’i ngjisin më gjatë motorët e kërkimit dhe reklamat e tyre, por nuk do t’i ndihmojnë verifikuesit e fakteve të zhvlerësojnë pretendimet ose t’u ofrojnë burime financiare krijuesve të përmbajtjes mbi të cilat janë trajnuar këta robotë.
Ekzistojnë probleme të tjera – kostoja mjedisore për trajnimin e këtyre modeleve të mëdha gjuhësore, ndikimi në lidhjen njerëzore, reagimet e rrezikshme nga trajnimi i robotëve në prodhimin e tyre, etj. – por është ndikimi që këto robotë mund të kenë në shëndetin dhe integritetin e mjediset tona të informacionit që më shqetësojnë më shumë.
Shpresoj që e ardhmja të më dëshmojë se kam gabuar, të demonstrojë mënyrat e panumërta të mënyrave që chatbot-ët reduktojnë përhapjen e dezinformatave dhe dezinformatave të dëmshme dhe të tregojë pse bota është më mirë. Megjithatë, jam “shumë i sigurt” se robotët nuk janë antidoti që kemi kërkuar.
Jevin West është një profesor i asociuar në Shkollën e Informacionit të Universitetit të Uashingtonit dhe bashkëthemelues i Qendrës për një Publik të Informuar.
Fraksion.com