OpenAI ruajti njoftimin e tij më të madh për ditën e fundit të ngjarjes së saj 12-ditore “shipmas” .
Të premten, kompania zbuloi o3, pasardhësin e modelit të “arsyetimit” o1 që lëshoi në fillim të vitit. o3 është një familje model, për të qenë më të saktë, siç ishte rasti me o1. Ka o3 dhe o3-mini, një model më i vogël, i distiluar i rregulluar mirë për detyra të veçanta.
OpenAI bën pretendimin e jashtëzakonshëm se o3, të paktën në kushte të caktuara, i afrohet AGI, me paralajmërime të rëndësishme. OpenAI thotë se po përdor një teknikë të re, “radhitje deliberative”, për të lidhur modele si o3 me parimet e saj të sigurisë. Kompania ka detajuar punën e saj në një studim të ri.
Hapat e arsyetimit
Ndryshe nga shumica e inteligjencës artificiale, modelet e arsyetimit të tilla si o3 kontrollojnë në mënyrë efektive veten e tyre, gjë që i ndihmon ata të shmangin disa nga grackat që zakonisht pengojnë modelet.
Ky proces i kontrollit të fakteve shkakton njëfarë vonese. o3, si o1 më parë, kërkon pak më shumë, zakonisht sekonda deri në minuta më shumë, për të arritur në zgjidhje në krahasim me një model tipik jo-arsyetimi. Ai tenton të jetë më i besueshëm në fusha të tilla si fizika, shkenca dhe matematika.
o3 u trajnua për të “menduar” përpara se të përgjigjej nëpërmjet asaj që OpenAI e quan “zinxhiri privat i mendimit”. Modeli mund të arsyetojë përmes një detyre dhe të planifikojë përpara, duke kryer një sërë veprimesh për një periudhë të zgjatur që e ndihmojnë atë të gjejë një zgjidhje. Në praktikë, kur jepet një nxitje, o3 ndalon përpara se të përgjigjet, duke marrë parasysh një sërë kërkesash të lidhura dhe duke “shpjeguar” arsyetimin e tij gjatë rrugës. Pas një kohe, modeli përmbledh atë që e konsideron si përgjigjen më të saktë.
E re me o3 është aftësia për të “rregulluar” kohën e arsyetimit. Modelet mund të vendosen në llogaritje të ulët, të mesme ose të lartë (dmth. koha e të menduarit). Sa më i lartë të jetë llogaritja, aq më mirë o3 performon në detyra.
Standardet dhe AGI
Një pyetje e madhe ishte nëse OpenAI mund të pretendonte se modelet e tij më të reja po i afrohen AGI.
AGI, shkurt për “inteligjencën e përgjithshme artificiale”, i referohet gjerësisht AI që mund të kryejë çdo detyrë që mundet një njeri. OpenAI ka përkufizimin e vet: “sisteme shumë autonome që i tejkalojnë njerëzit në punën më të vlefshme ekonomikisht”.
Arritja e AGI do të ishte një deklaratë e guximshme. Sipas kushteve të marrëveshjes me partnerin dhe investitorin e ngushtë Microsoft, sapo OpenAI të arrijë AGI, nuk është më i detyruar t’i japë Microsoft-it akses në teknologjitë e tij më të avancuara (ato që plotësojnë përkufizimin AGI të OpenAI-t, domethënë).
Duke shkuar me një pikë referimi, OpenAI po afrohet ngadalë me AGI. Në ARC-AGI, një test i krijuar për të vlerësuar nëse një sistem AI mund të përvetësojë me efikasitet aftësi të reja jashtë të dhënave mbi të cilat është trajnuar, o3 arriti një rezultat 87.5% në cilësimin e lartë të llogaritjes. Në rastin më të keq (në cilësimin e llogaritjes së ulët), modeli trefishoi performancën e o1.
Kuptohet, cilësimi i lartë i llogaritjes ishte jashtëzakonisht i shtrenjtë – në rendin e mijëra dollarëve për detyrë, sipas bashkëkrijuesit të ARC-AGI, Francois Chollet.
Rastësisht, OpenAI thotë se do të bashkëpunojë me fondacionin pas ARC-AGI për të ndërtuar gjeneratën e ardhshme të standardit të saj. Sigurisht, ARC-AGI ka kufizimet e veta dhe përkufizimi i tij për AGI është vetëm një nga shumë.
Në standardet e tjera, o3 e largon konkurrencën.
Modeli e tejkalon o1 me 22,8 pikë përqindje në SWE-Bench Verified, një pikë referimi e fokusuar në detyrat e programimit dhe arrin një vlerësim të Codeforces – një masë tjetër e aftësive të kodimit – prej 2727.
Në vazhdën e publikimit të serisë së parë të modeleve të arsyetimit të OpenAI, ka pasur një shpërthim modelesh arsyetimi nga kompanitë rivale të AI – përfshirë Google.
Jo të gjithë janë të bindur se modelet e arsyetimit janë rruga më e mirë përpara. Ato priren të jenë të shtrenjta, falë sasisë së madhe të fuqisë kompjuterike të nevojshme për t’i ekzekutuar ato. Dhe ndërsa ato kanë performuar mirë në standardet deri më tani, nuk është e qartë nëse modelet e arsyetimit mund të ruajnë këtë shkallë përparimi.
Lancimi i o3 vjen pasi një nga shkencëtarët më të arrirë të OpenAI largohet. Alec Radford, autori kryesor i punimit akademik që filloi “serinë GPT” të OpenAI të modeleve gjeneruese të AI (d.m.th., GPT-3, GPT-4, e kështu me radhë), njoftoi këtë javë se ai do të largohet për të ndjekur kërkime të pavarura.