“Hej, @Grok, a është e vërtetë kjo?” Që kur xAI i Elon Musk lançoi chatbot-in e tij të inteligjencës artificiale gjeneruese, Grok, në nëntor 2023, dhe veçanërisht që kur u lançua për të gjithë përdoruesit jo-premium në dhjetor 2024, mijëra përdorues të X (ish-Twitter) e kanë bërë këtë pyetje për të kryer verifikime të shpejta faktesh mbi informacionin që shohin në platformë.
Një anketë e kohëve të fundit e kryer nga një botim britanik i teknologjisë online, TechRadar, zbuloi se 27% e amerikanëve kishin përdorur mjete të inteligjencës artificiale si ChatGPT i OpenAI , Meta AI i Meta-s, Gemini i Google-it, Copilot i Microsoft-it ose aplikacione si Perplexity në vend të motorëve tradicionalë të kërkimit si Google ose Yahoo.
Por sa të sakta dhe të besueshme janë përgjigjet e chatbot-eve? Shumë njerëz ia kanë bërë vetes këtë pyetje përballë deklaratave të fundit të Grok-ut në lidhje me “gjenocidin e të bardhëve” në Afrikën e Jugut. Përveç qëndrimit problematik të Grok-ut mbi këtë temë, përdoruesit e X u irrituan edhe për faktin se boti filloi të fliste për këtë çështje kur u pyet për tema krejtësisht të ndryshme, si në shembullin e mëposhtëm:

Sjellje e pazakontë: Një përdorues i X pyeti Grok-un për HBO-në dhe mori pa dashje informacion në lidhje me “gjenocidin e të bardhëve” në Afrikën e Jugut.
Diskutimi rreth të ashtuquajturit “gjenocid të bardhë” lindi pasi administrata Trump solli afrikano-jugorë të bardhë në Shtetet e Bashkuara si refugjatë . Trump tha se ata po përballeshin me një “gjenocid” në atdheun e tyre – një akuzë që nuk ka asnjë provë dhe që shumë e shohin si të lidhur me mitin racist të konspiracionit të “Zëvendësimit të Madh” .
xAI fajësoi një “modifikim të paautorizuar” për obsesionin e Grok me temën e “gjenocidit të bardhë” dhe tha se kishte “kryer një hetim të plotë”. Por, a ndodhin rregullisht të meta të tilla? Sa të sigurt mund të jenë përdoruesit për të marrë informacion të besueshëm kur duan të verifikojnë faktet e diçkaje me IA?
Studimi tregon gabime faktike dhe citate të ndryshuara
Dy studime të kryera këtë vit nga transmetuesi publik britanik BBC dhe Qendra Tow për Gazetari Dixhitale në Shtetet e Bashkuara zbuluan mangësi të konsiderueshme kur bëhet fjalë për aftësinë e chatbot-eve të inteligjencës artificiale gjeneruese për të përcjellë me saktësi raportimin e lajmeve.
Në shkurt, studimi i BBC-së zbuloi se “përgjigjet e prodhuara nga asistentët e inteligjencës artificiale përmbanin pasaktësi të konsiderueshme dhe përmbajtje të shtrembëruar” të prodhuar nga organizata.
Kur u kërkoi ChatGPT, Copilot, Gemini dhe Perplexity t’u përgjigjeshin pyetjeve në lidhje me lajmet aktuale duke përdorur artikujt e BBC si burime, zbuloi se 51% e përgjigjeve të chatbot-eve kishin “probleme të rëndësishme të një lloji”.
Nëntëmbëdhjetë përqind e përgjigjeve u zbulua se kishin shtuar gabimet e tyre faktike, ndërsa 13% e citimeve ose ishin ndryshuar ose nuk ishin të pranishme fare në artikujt e cituar.
“Aktualisht nuk mund të mbështetemi te asistentët e inteligjencës artificiale për të ofruar lajme të sakta dhe ata rrezikojnë të mashtrojnë audiencën”, tha Pete Archer, drejtor i Programit të Inteligjencës Artificiale Gjenerative të BBC-së.
Inteligjenca Artificiale ofron përgjigje të pasakta me ‘besim alarmues’
Në mënyrë të ngjashme, një hulumtim nga Qendra Tow për Gazetari Dixhitale, i botuar në Columbia Journalism Review (CJR) në mars, zbuloi se tetë mjete kërkimi gjeneruese të inteligjencës artificiale nuk ishin në gjendje të identifikonin saktë prejardhjen e fragmenteve të artikujve në 60% të rasteve.
Perplexity performoi më mirë me një shkallë dështimi prej “vetëm” 37%, ndërsa Grok iu përgjigj gabimisht 94% të pyetjeve.
CJR tha se ishte veçanërisht i shqetësuar nga “besimi alarmues” me të cilin mjetet e inteligjencës artificiale paraqitën përgjigje të pasakta. “ChatGPT, për shembull, identifikoi gabimisht 134 artikuj, por sinjalizoi mungesë besimi vetëm pesëmbëdhjetë herë nga dyqind përgjigjet e saj [gjithsej] dhe kurrë nuk refuzoi të jepte një përgjigje”, tha raporti.
Në përgjithësi, studimi zbuloi se chatbot-et ishin “në përgjithësi të këqij në refuzimin e përgjigjes së pyetjeve të cilave nuk mund t’u përgjigjeshin me saktësi, duke ofruar në vend të kësaj përgjigje të pasakta ose spekulative” dhe se mjetet e kërkimit të inteligjencës artificiale “fabrikonin lidhje dhe citonin versione të sindikuara dhe të kopjuara të artikujve”.
Chatbot-et me inteligjencë artificiale janë aq të mirë sa “dieta” e tyre
Dhe nga e merr vetë inteligjenca artificiale informacionin e saj? Ajo ushqehet nga burime të ndryshme si baza të dhënash të gjera dhe kërkime në internet. Në varësi të mënyrës se si trajnohen dhe programohen chatbot-et e inteligjencës artificiale, cilësia dhe saktësia e përgjigjeve të tyre mund të ndryshojnë.
” Një çështje që doli në pah së fundmi është ndotja e LLM-ve [Modele të Mëdha Gjuhësore — Shënim i Redaktorit] nga dezinformimi dhe propaganda ruse . Pra, është e qartë se ekziston një problem me ‘dietën’ e LLM-ve”, tha Tommaso Canetta. Ai është zëvendësdrejtor i projektit italian të verifikimit të fakteve Pagella Politica dhe koordinator i verifikimit të fakteve në Observatorin Evropian të Medias Dixhitale .
“Nëse burimet nuk janë të besueshme dhe cilësore, përgjigjet ka shumë të ngjarë të jenë të të njëjtit lloj”, shpjegoi Canetta. Ai tha se has rregullisht përgjigje që janë “të paplota, jo të sakta, mashtruese ose edhe të rreme”.
Në rastin e xAI dhe Grok, pronari i të cilave, Elon Musk, është një mbështetës i flaktë i Presidentit të SHBA-së Donald Trump , ekziston një rrezik i qartë që “dieta” të kontrollohet politikisht, shtoi ai.

Kur IA i gabon në gjithçka
Në prill të vitit 2024, Meta AI thuhet se postoi në një grup prindërish në Facebook në Nju Jork se kishte një fëmijë me aftësi të kufizuara, por të talentuar akademikisht, dhe ofroi këshilla për shkollimin special.
Përfundimisht, chatbot kërkoi falje dhe pranoi se nuk kishte “përvoja personale apo fëmijë”, siç i tha Meta 404media , e cila raportoi për incidentin:
“Kjo është teknologji e re dhe mund të mos kthejë gjithmonë përgjigjen që synojmë, e cila është e njëjtë për të gjitha sistemet gjeneruese të IA-së. Që kur e lançuam, ne kemi publikuar vazhdimisht përditësime dhe përmirësime për modelet tona dhe po vazhdojmë të punojmë për t’i përmirësuar ato”, tha një zëdhënës në një deklaratë.
Në të njëjtin muaj, Grok keqinterpretoi një shaka virale në lidhje me një basketbollist me performancë të dobët dhe u tha përdoruesve në seksionin e trendeve se ai ishte nën hetim nga policia pasi u akuzua për vandalizim të shtëpive me tulla në Sacramento të Kalifornisë.
Grok e kishte keqkuptuar shprehjen e zakonshme të basketbollit, sipas së cilës një lojtar që nuk ka arritur të godasë asnjë nga gjuajtjet e tij në shënjestër thuhet se ka “hedhur tulla”.
Gabime të tjera kanë qenë më pak qesharake. Në gusht të vitit 2024, Grok përhapi dezinformata në lidhje me afatin e fundit për kandidatët presidencialë të SHBA-së që duhet të shtoheshin në fletët e votimit në nëntë shtete federale pas tërheqjes së ish-Presidentit Joe Biden nga gara.
Në një letër publike drejtuar Musk , sekretari i shtetit për Minesotën, Steve Simon, shkroi se, brenda pak orësh nga njoftimi i Bidenit, Grok kishte gjeneruar tituj të rremë se zëvendëspresidentja Kamala Harris nuk do të ishte e kualifikuar për t’u paraqitur në fletëvotim në shumë shtete – informacion i pavërtetë.
Grok i cakton të njëjtën imazh të IA-së ngjarjeve të ndryshme reale.
Nuk është vetëm lajm që chatbot-et e inteligjencës artificiale duket se kanë vështirësi; ato shfaqin edhe kufizime të mëdha kur bëhet fjalë për identifikimin e imazheve të gjeneruara nga inteligjenca artificiale.
Në një eksperiment të shpejtë, Grok-ut iu kërkua të identifikonte datën, vendndodhjen dhe origjinën e një imazhi të gjeneruar nga inteligjenca artificiale të një zjarri në një hangar avionësh të shkatërruar, të marrë nga një video në TikTok. Në përgjigjen dhe shpjegimet e tij, Grok pretendoi se imazhi tregonte disa incidente të ndryshme në disa vende të ndryshme, duke filluar nga një aeroport i vogël në Salisbury në Angli, deri te Aeroporti Ndërkombëtar i Denverit në Kolorado, deri te Aeroporti Ndërkombëtar Tan Son Nhat në Ho Chi Minh City, Vietnam.

Vërtet ka pasur aksidente dhe zjarre në këto vende vitet e fundit, por imazhi në fjalë nuk tregonte asnjë prej tyre. DW beson fuqimisht se është gjeneruar nga inteligjenca artificiale, të cilën Grok dukej se nuk ishte në gjendje ta njihte, pavarësisht gabimeve dhe mospërputhjeve të qarta në imazh – duke përfshirë pendët e bishtit të përmbysur në aeroplanë dhe rrjedhjet e palogjikshme të ujit nga tubat e zjarrfikësve.
Edhe më shqetësuese është se Grok njohu një pjesë të filigranit “TikTok” të dukshëm në cep të imazhit dhe sugjeroi që kjo “mbështeste autenticitetin e tij”. Anasjelltas, nën skedën “Më shumë detaje”, Grok deklaroi se TikTok ishte “një platformë e përdorur shpesh për shpërndarjen e shpejtë të përmbajtjes virale, e cila mund të çojë në dezinformata nëse nuk verifikohet siç duhet”.

Në mënyrë të ngjashme, vetëm këtë javë, Grok informoi përdoruesit e X ( në portugalisht ) se një video virale që pretendonte të tregonte një anakondë gjigante në Amazonë, me një gjatësi prej disa qindra metrash (mbi 500 këmbë), ishte e vërtetë – pavarësisht se ishte gjeneruar qartë nga inteligjenca artificiale, dhe Grok madje njihte një filigran ChatGPT.

Chatbot-et e inteligjencës artificiale ‘nuk duhen parë si mjete për verifikimin e fakteve’
Chatbot-et e inteligjencës artificiale mund të duken si një entitet i gjithëdijshëm, por nuk janë të tillë . Ata bëjnë gabime, keqkuptojnë gjërat dhe madje mund të manipulohen. Felix Simon, bashkëpunëtor kërkimor postdoktoral në IA dhe bashkëpunëtor kërkimor dhe lajme dixhitale në Institutin e Internetit të Oksfordit (OII) , përfundon: “Sistemet e IA-së si Grok, Meta AI ose ChatGPT nuk duhet të shihen si mjete për verifikimin e fakteve. Ndërsa ato mund të përdoren për këtë qëllim me një farë suksesi, është e paqartë se sa mirë dhe në mënyrë të qëndrueshme e kryejnë këtë detyrë, veçanërisht për rastet e vështira.”
Për Canettën te Pagella Politica, chatbot-et e inteligjencës artificiale mund të jenë të dobishëm për verifikime shumë të thjeshta të fakteve. Por ai gjithashtu këshillon njerëzit të mos u besojnë plotësisht atyre. Të dy ekspertët theksuan se përdoruesit duhet t’i verifikojnë gjithmonë përgjigjet me burime të tjera.