DeepFakes po përdoren gjithnjë e më shumë. Dhe janë pasqyrë e botës sonë seksiste
Deputetja viktoriane Georgie Purcell kohët e fundit foli kundër një imazhi të redaktuar në mënyrë dixhitale në mediat e lajmeve, që kishte ndryshuar trupin dhe kishte hequr pjesërisht disa nga veshjet e saj.
“Durova jo pak dje.
Por bërja e trupit dhe veshjes sime me fotoshop nga një media nuk ishte ndër letrat e bingos për mua.
Vini re gjinjtë e zmadhuar dhe veshjen, për t’u bërë më zbuluese.
Nuk mund ta imagjinoj që kjo të ndodhë me një deputet mashkull.”
Pavarësisht nëse redaktimi u ndihmua apo jo nga inteligjenca artificiale (AI), përvoja e saj tregon dëmet e mundshme seksiste, diskriminuese dhe me bazë gjinore që mund të ndodhin kur këto teknologji përdoren të pakontrolluara.
Përvoja e Purcell pasqyron gjithashtu një prirje shqetësuese në të cilën imazhet, veçanërisht të grave dhe vajzave, seksualizohen, “fajësohen” dhe “nudifikohen” pa dijeninë ose pëlqimin e vetë personit.
Çfarë lidhje ka AI?
Termi AI mund të përfshijë një gamë të gjerë softuerësh kompjuterikë dhe aplikacionesh për smartphone që përdorin një nivel të caktuar të përpunimit të automatizuar.
Edhe pse historitë fantastiko shkencore mund të na bëjnë të mendojmë ndryshe, pjesa më e madhe e përdorimit të përditshëm të mjeteve të asistuara nga AI është relativisht e thjeshtë. Ne i mësojmë një programi kompjuterik ose një aplikacioni smartphone se çfarë duam të bëjë, ai mëson nga të dhënat që ne i ushqejmë dhe e zbaton këtë mësim, për të kryer detyrën në mënyra të ndryshme.
Një problem me redaktimin e imazhit nga AI është se këto mjete mbështeten në informacionin që shoqëria jonë njerëzore ka gjeneruar. Nuk është rastësi që udhëzimi i një mjeti për të redaktuar një fotografi të një gruaje mund të rezultojë në atë që ajo të duket më e ri, më e hollë dhe/ose më me forma dhe akoma më pak e veshur. Një kërkim i thjeshtë në internet për “gratë” do të zbulojë shpejt se këto janë cilësitë që shoqëria jonë mbështet.
Probleme të ngjashme janë shfaqur në mjetet e njohjes së fytyrës të inteligjencës artificiale, që kanë keqidentifikuar të dyshuarit në hetimet penale për shkak të paragjykimeve racore dhe gjinore që kanë softuerët. Fantazmat e seksizmit dhe racizmit, me sa duket, janë të pranishme në makina.
Teknologjia reflekton tek ne mungesën e respektit, pabarazinë, diskriminimin dhe – në trajtimin e Purcell – seksizmit të hapur që vetë kemi krijuar dhe qarkulluar tashmë.
“Deepfake” të seksualizuara
Edhe pse çdokush mund të jetë viktimë e abuzimit të bazuar në imazhe të krijuara nga AI, ose falsifikimeve të seksualizuara, nuk është sekret se ka pabarazi gjinore në imazhet pornografike që gjenden në internet.
Sensity AI (dikur Deeptrace Labs) ka raportuar për video të rrejshme në internet që nga dhjetori 2018 dhe ka gjetur vazhdimisht se 90–95% e tyre janë pornografi jo konsensuale. Rreth 90% e tyre janë femra.
Gratë e reja, fëmijët dhe adoleshentët në të gjithë globin po i nënshtrohen krijimit dhe ndarjes jo konsensuale të imazheve të gënjeshtërta, të seksualizuara dhe nudifikuara. Raportet e fundit të imazheve seksuale të falsifikuara të vajzave adoleshente kanë dalë nga një shkollë e mesme e Nju Xhersit në Shtetet e Bashkuara dhe një shkollë tjetër e mesme në Almendralejo, Spanjë. Një rast i tretë u raportua në një shkollë të mesme në Londër, e cila kontribuoi në vetëvrasjen e një vajze 14-vjeçare.
Gratë e famshme janë gjithashtu një objekt i imazheve të gënjeshtërta seksuale. Vetëm muajin e kaluar, falsifikimet e seksualizuara të Taylor Swift u shpërndanë hapur në një sërë platformash dhe uebsajtesh dixhitale.
Ndërsa të dhënat kërkimore mbi normat më të gjera të viktimizimit dhe kryerjes së këtij lloji redaktimi dhe shpërndarjes së imazheve janë të pakta, sondazhi i vitit 2019 në Mbretërinë e Bashkuar, Australi dhe Zelandën e Re zbuloi se 14.1% e të anketuarve të moshës 16 deri në 84 vjeç kishin përjetuar situatën ku dikush krijonte, shpërndante ose kërcënonte se do të shpërndante një imazh të ndryshuar në mënyrë dixhitale, që i përfaqëson ato në një mënyrë të seksualizuar.
Studimi i Conversation hodhi dritë edhe mbi dëmet e kësaj forme abuzimi. Viktimat raportuan se kishin përjetuar trauma psikologjike, sociale, fizike, ekonomike dhe ekzistenciale, të ngjashme me dëmtimet e identifikuara nga viktimat e formave të tjera të dhunës seksuale dhe abuzimit të bazuar në imazhe.
Si mund t’i japim fund abuzimit të lehtësuar nga AI?
Abuzimi i Swift-it në një forum të tillë publik ka rindezur një thirrje për ligje federale dhe rregullore të platformave, moderim dhe standarde të komunitetit për të parandaluar dhe bllokuar shpërndarjen e falsifikimeve seksuale.
Fokusimi në shtete individuale nuk është i mjaftueshëm për të trajtuar këtë problem global. Deepfakes seksuale dhe përmbajtjet e krijuara nga AI kryhen ndërkombëtarisht, duke theksuar nevojën për veprim kolektiv global.
Ka disa shpresa se ne mund të mësojmë të zbulojmë më mirë përmbajtjen e krijuar nga AI përmes udhëzimeve për zbulimin e falsifikimeve. Por realiteti është se teknologjitë po përmirësohen vazhdimisht, kështu që aftësitë tona për të dalluar “të vërtetën” nga “e falsifikuara” dixhitale janë gjithnjë e më të kufizuara.
Përparimet në teknologji janë të shoqëruara nga disponueshmëria në rritje e aplikacioneve “nudify” ose “hiq veshjet”, në platforma të ndryshme dhe dyqane virtuale aplikacionesh, të cilat zakonisht reklamohen në internet. Aplikacione të tilla normalizojnë më tej trajtimin dhe objektivizimin seksist të grave, pa marrë parasysh se si mund të ndihen vetë viktimat për këtë.
Por do të ishte gabim të fajësohej vetëm teknologjia për dëmet, ose seksizmin, mosrespektimin dhe abuzimin që rrjedh prej saj. Teknologjia është moralisht neutrale. Nuk mund të marrë as merita, as faje.
Në vend të kësaj, ka një përgjegjësi të qartë për zhvilluesit e teknologjisë, platformat dixhitale dhe faqet e internetit për të qenë më proaktivë duke ndërtuar sigurinë sipas projektimit. Me fjalë të tjera, vendosja e sigurisë dhe e të drejtave të përdoruesve përpara dhe në qendër në hartimin dhe zhvillimit të produkteve dhe shërbimeve online. Platformat, aplikacionet dhe faqet e internetit gjithashtu duhet të bëhen përgjegjëse për parandalimin, ndërprerjen dhe heqjen në mënyrë proaktive të përmbajtjeve dhe teknologjive jo konsensuale që mund të krijojnë një përmbajtje të tillë.
Nevojitet veprim dhe bashkëpunim i mëtejshëm global nëse me të vërtetë duam të trajtojmë dhe parandalojmë dëmet e falsifikimeve të seksualizuara jo-konsensuale. / TruthHub, Bota.al
Fraksion.com