Në pranverën e vitit 2024, kur Rachael Sawyer, një shkrimtare teknike nga Teksasi, mori një mesazh në LinkedIn nga një rekrutues që e ftonte për një punë me titull të paqartë “analiste shkrimi”, ajo mendoi se do të ishte diçka e ngjashme me punët e saj të mëparshme në krijim përmbajtjeje. Por në ditën e parë kuptoi që nuk ishte aspak kështu. Detyra e saj ishte të vlerësonte dhe moderonte përmbajtjen e krijuar nga inteligjenca artificiale e Google.
Fillimisht, ajo merrej me shqyrtimin e shënimeve të takimeve dhe bisedave që Gemini (IA e Google-s) i përmbledhte, dhe herë pas here shikonte video të shkurtra të prodhuara nga IA. Shumicën e rasteve punonte me tekste, por më vonë iu desh të merrej pothuajse vetëm me përmbajtje të rënda: materiale të dhunshme ose me përmbajtje seksuale eksplicite. “U trondita kur kuptova se puna ime ishte kjo. Nuk më kishin thënë asgjë gjatë punësimit dhe nuk kisha nënshkruar ndonjë formular miratimi,” tha Sawyer, e cila prej marsit 2024 punon si “vlerësuese e përgjithshme” për produktet e Google. Presioni për të përfunduar dhjetëra detyra çdo ditë, brenda vetëm 10 minutash për secilën, e ka çuar atë në ankth dhe kriza paniku dhe pa asnjë mbështetje psikologjike nga punëdhënësi.
Sawyer është një nga mijëra punëtorët e kontraktuar nga Google përmes kompanisë GlobalLogic (pjesë e Hitachi), që vlerësojnë dhe filtrojnë përgjigjet e produkteve të IA të Google, si Gemini apo “IA Overviews” (përmbledhjet automatike të rezultateve të kërkimit). Shumë prej tyre janë ish-mësues, shkrimtarë apo profesionistë me arsim të lartë. Ata ndahen në “vlerësues të përgjithshëm” dhe “super vlerësues” ku këta të fundit me njohuri të specializuara në fusha të caktuara. Në SHBA, pagat fillojnë nga 16 dollarë në orë për të parët dhe 21 dollarë për super vlerësuesit, shumë më pak se inxhinierët e Google që krijojnë vetë modelet.
Këta punëtorë ndihen të padukshëm, megjithëse puna e tyre është thelbësore për t’i dhënë IA-së “inteligjencë”. “IA nuk është magji, por një piramidë pune njerëzore,” shpjegon një studiues gjerman. “Vlerësuesit janë hallka e mesme: të padukshëm, të domosdoshëm, por të zëvendësueshëm.”
Presion i madh, pak informacion
Raterët shpesh marrin një pyetje dhe dy përgjigje nga modeli, pastaj duhet të zgjedhin cila është më e saktë dhe më e sigurt. Ata kontrollojnë nëse përgjigjet janë të sakta, të bazuara në burime dhe pa shkelje etike. Por udhëzimet ndryshojnë shpesh, janë të paqarta dhe afatet vazhdojnë të shkurtohen. Një punëtore tregon se koha për një detyrë u ul nga 30 minuta në vetëm 15 edhe kur duhej të kontrollonte qindra fjalë dhe fakte.
Në disa raste, ata përballen me pyetje shumë delikate si: “Kur është korrupsioni i mirë?” ose “Cilat janë përfitimet e ushtarëve fëmijë me detyrim?” të cilat e rëndojnë edhe më shumë punën.
Dobësimi i rregullave të sigurisë
Në vitin 2024, pas disa gafave të bujshme të IA Overviews (p.sh. kur këshillonte të hidhje ngjitës në brumin e picës), Google i kërkoi raterëve të rrisnin cilësinë. Por shumë shpejt prioriteti u bë sërish shpejtësia.
Në prill 2025, u shpërndanë udhëzime të reja ku tolerohej përsëritja e gjuhës fyese apo përmbajtjes seksuale, nëse këto vinin nga përdoruesit dhe jo të gjeneruara vetë nga IA. Pra, modeli mund të riprodhonte sharje raciste apo seksiste, por jo t’i krijonte vetë. Punëtorët thonë se kjo i ekspozon ata ndaj përmbajtjeve edhe më të rënda, pa mbrojtje të mjaftueshme.
Pasiguri në punë
Megjithëse industria e IA po fiton miliarda, vetë raterët nuk gëzojnë siguri pune. Që nga fillimi i vitit 2025, GlobalLogic ka bërë shkurtime, duke ulur numrin e punëtorëve në rreth 1,500. Shumë prej tyre, pasi kanë parë nga afër si “ndërtohet” IA, kanë humbur besimin dhe nuk përdorin më shërbimet e saj, madje këshillojnë edhe familjen që të mos i përdorin,
“Dua që njerëzit të kuptojnë se IA shitet si diçka magjike, ndaj edhe ka një simbol shkëlqimi pranë çdo përgjigjeje. Por nuk është magji. Është ndërtuar mbi kurrizin e njerëzve të mbingarkuar e të keqpaguar,” tha Sawyer.