Nëse AI është e dobishme, apo e dëmshme do të jetë sfida kryesore me të cilën përballen bizneset në vitin 2025. Shumica e lajmeve rreth inteligjencës artificiale përqendrohen në çështjet teknologjike, të tilla si si të ndërtohen kompjuterë më të shpejtë, t’i bëjmë programet e AI të funksionojnë në mënyrë më efikase dhe të vihen në punë mjetet e reja të AI me teknologji të vjetër. Megjithatë, nëse nuk e përdorim teknologjinë për qëllime të mira dhe nuk ruhemi nga abuzimi, nuk ka rëndësi se sa e sofistikuar teknikisht bëhet AI. Dëmet do të lënë në hije përparimet.
Në vijim analizohen tre sfida etike që AI ngre për bizneset në mbarë botën, gjithashtu dhe se si disa biznese i trajtojnë këto sfida dhe çfarë do të thotë e gjithë kjo për organizatën dhe punonjësit.
1. Shpëtimi i jetëve, parandalimi i fatkeqësive: Pse siguria e AI duhet të jetë e para
Parimi më themelor etik nga të gjithë është “Mos bëj dëm”. Ai zbatohet jo vetëm për mjekët dhe punonjësit e tjerë të kujdesit shëndetësor, por për drejtuesit në hapësirën e AI dhe të gjithë të tjerët. Siguria e AI nuk është opsionale. Është një domosdoshmëri urgjente. Duke folur në Samitin e Sigurisë së AI në nëntor 2023, Dario Amodei, CEO i Anthropic, theksoi rëndësinë e vlerësimit dhe reagimit të vazhdueshëm të rrezikut. “Ne kemi nevojë për një mënyrë për të monitoruar shpesh këto rreziqe në zhvillim dhe një protokoll për t’iu përgjigjur në mënyrë të përshtatshme kur ato ndodhin”, tha ai. Megjithëse samiti u zhvillua në vitin 2023, njohuritë e Amodei mbeten kritike për vitin 2025. Sfidat që ai përshkroi, krijimi i vlerësimeve rigoroze dhe mekanizmave të reagimit proaktiv, janë parime themelore për menaxhimin e rreziqeve të AI që vazhdojnë të rriten.
Shembuj të dëmit të shkaktuar nga AI
Disa nga dëmet e rënda që mund të shkaktojë AI përfshijnë:
- Paragjykimi dhe diskriminimi, në të cilin modelet e AI përjetësojnë praktika të padrejta në punësimin, huadhënien dhe zbatimin e ligjit, për të përmendur disa fusha shqetësuese
- Shkeljet e privatësisë, pasi sistemet e mbikëqyrjes me AI mund të rrezikojnë sigurinë individuale
- Armët autonome, ku inteligjenca artificiale merr vendime për jetë a vdekje pa mbikëqyrjen njerëzore
Manipulimi dhe keqinformimi nëpërmjet falsifikimit të thellë dhe gënjeshtrave të tjera të gjeneruara nga AI, të cilat mund të gërryejnë besimin dhe të nxisin trazira politike ose sociale.
Si po e menaxhojnë kompanitë këtë sfidë etike
Kompania Anthropic, e cituar më sipër, përdor procesin e quajtur “bashkim i kuq” për të testuar sistemet e tyre të AI. Kjo nënkupton simulimin e sulmeve kundërshtare për të identifikuar dobësitë si rezultatet e njëanshme, ose sjelljet e dëmshme. Skuadra e kuqe ndihmon për të siguruar që modelet e AI janë të sigurta, të besueshme dhe elastike përpara se një kompani t’i përdorë ato. Duke i dhënë përparësi sigurisë mbi shpejtësinë, duke vonuar lançimin e produkteve kur është e nevojshme dhe duke bashkëpunuar me rregullatorët për të vendosur standarde sigurie në mbarë industrinë, kompanitë si Anthropic demonstrojnë se si testimi rigoroz mund të krijojë besim dhe të parandalojë rezultate të dëmshme.
2. Luftimi i kaosit: A do të arrijnë rregulloret në kohë?
Një instruktor, profesori i drejtësisë Forest “Jack” Bowman, është shprehur: “Nëse nuk e menaxhoni kohën tuaj, dikush tjetër do ta menaxhojë”.
Kjo thënie e mençur mund të përditësohet në: “Nëse nuk i menaxhoni sistemet tuaja të AI, dikush tjetër duhet”.
Në një konferencë të organizuar nga Reuters, Elizabeth Kelly, drejtore e Institutit të Sigurisë së Inteligjencës Artificiale në SHBA, diskutoi sfidat që përballojnë politikëbërësit në krijimin e masave mbrojtëse për Inteligjencën Artificiale (AI). Sipas Kelly, zhvillimi i shpejtë i kësaj teknologjie e bën të vështirë hartimin e rregulloreve efektive. Kelly theksoi se në fusha si siguria kibernetike, shpesh është e thjeshtë të shmangen masat e sigurisë të AI përmes metodave të njohura si “jailbreaks,” të cilat mund të zbatohen lehtësisht nga individë me aftësi teknologjike.
Bashkimi Evropian është ndër rajonet që ka ndërmarrë hapa konkretë për rregullimin e teknologjisë AI. Akti i Inteligjencës Artificiale (AI Act), i cili hyri në fuqi më 1 gusht 2024, përfshin ndalimin e aplikacioneve të AI me rreziqe të papranueshme, siç është vlerësimi social. Ky sistem vlerëson individët bazuar në sjelljen dhe vendimet e tyre, duke krijuar mundësi për diskriminim dhe kufizime të padrejta në aksesin ndaj shërbimeve financiare, arsimit, strehimit, përfitimeve publike dhe më shumë. Ndërhyrja e Bashkimit Evropian tregon një përpjekje të rëndësishme për të balancuar përfitimet e AI me nevojën për të mbrojtur të drejtat e individëve.
Si po e menaxhojnë kompanitë këtë sfidë etike
IBM ka ndërmarrë tashmë hapa proaktivë për të adresuar shqetësimet e legjislacionit të BE-së përmes iniciativave të tilla si Politika e saj e Rregullores së Përpiktë. Kjo politikë trajton tre komponentë të etikës së AI: 1) llogaridhënien 2) transparencën dhe 3) drejtësinë.
3. Inteligjenca artificiale dhe e ardhmja e punës: a do të na lërë teknologjia pas?
Parimi etik “Mos bëj dëm” që kemi shqyrtuar më parë në kontekstin e sigurisë, është po aq i rëndësishëm kur bëhet fjalë për punësimin. Pavarësisht se çfarë termash përdoren, si “reduktim i fuqisë punëtore” apo “ristrukturim”, efekti mbetet i njëjtë: largimi i punonjësve të përkushtuar dhe të aftë shkakton dëme të ndjeshme edhe nëse ky veprim mund të sjellë përfitime financiare për kompanitë.
Si po e menaxhojnë kompanitë këtë sfidë etike
Në përgjigje të këtyre shqetësimeve, disa kompani po krijojnë marrëdhënie reciproke të dobishme me organizatat jofitimprurëse. “Ofrimet jofitimprurëse shpesh mund të lidhin bizneset me talent të nënpërfaqësuar në fuqinë punëtore të njohurive. Forumi i Menaxhimit të Lartë të IT-së është një nga shumë organizata jofitimprurëse që udhëheqin rrugën në këtë fushë.
forbes.com