Si do ta përcaktojë OpenAI se sa të fuqishëm janë sistemet e tij të IA
OpenAI ka krijuar një sistem për të përcaktuar sa inteligjente janë sistemet e tij të IA, duke nisur nga Niveli 1 te Niveli 5
OpenAI ka krijuar një shkallë të brendshme për të monitoruar progresin që po bëjnë modelet e mëdha gjuhësore drejt Inteligjencës Artificiale të përgjithshme, ose IA me inteligjencë të ngjashme me atë të njeriut, deklaroi një zëdhënës për Bloomberg.
Chatbot-ët e sotëm, si ChatGPT, janë të nivelit 1.
OpenAI thotë se është afër nivelit 2, i përkufizuar si një sistem, i cili mund të zgjidhë probleme bazë në nivelin e një personi me doktoratë.
Niveli 3 u referohet agjentëve IA, të aftë të ndërmarrin veprime në emër të një përdoruesi.
Niveli 4 lidhet me IA, që mund të krijojë inovacione të reja.
Niveli 5, hapi i fundit për të arritur AGI (Artificial General Intelligence – Inteligjencë Artificiale e përgjithshme), është IA që mund të kryejë punën e organizatave të tëra me njerëz.
OpenAI e ka përkufizuar AGI si “një sistem shumë autonom, që ua kalon njerëzve në pjesën më të madhe të detyrave me vlerë ekonomike”.
Struktura unike e OpenAI fokusohet te misioni për të realizuar AGI dhe mënyra se si OpenAI e përkufizon AGI është e rëndësishme.
Kompania deklaroi që “nëse një projekt i orientuar nga vlerat dhe i kujdesshëm ndaj sigurisë i afrohet ndërtimit të AGI”, para se ta bëjë OpenAI, ajo angazhohet të mos konkurrojë me projektin dhe të heqë dorë nga gjithçka për ta ndihmuar.
Në këtë pikë, formulimi i statusit të OpenAI është i paqartë dhe i lë hapësirë gjykimit të entitetit me qëllim fitimprurës (i qeverisur nga organizatë jofitimprurëse), por një shkallë ku OpenAI mund të vërë veten në provë dhe konkurrentët e saj mund të ndihmojë në përcaktimin se kur mund të arrihet AGI në terma më të qartë.
Megjithatë, AGI është ende shumë larg – do të duhen miliarda e miliarda dollarë fuqi kompjuterike për të arritur AGI – nëse do të arrihet ndonjëherë. Parashikimet e ekspertëve, madje edhe të atyre të OpenAI, janë të ndryshme.
Në tetor 2023, Sam Altman, CEO i OpenAI, deklaroi se do të duhen “pesë vjet ose më pak” për të arritur AGI.
Kjo shkallë e re vlerësimi, edhe pse në fazë zhvillimi, u prezantua një ditë pasi OpenAI njoftoi bashkëpunimin me Los Alamos National Laboratory, që synon të eksplorojë se si modelet e avancuara të IA si GPT-4o mund të ndihmojnë në mënyrë të sigurt kërkimin bioshkencor.
Një menaxher i programit të Los Alamos, përgjegjës i portofolit të biologjisë për sigurinë kombëtare dhe vendimtar në sigurimin e bashkëpunimit me OpenAI, deklaroi për “The Verge” se synimi është testimi i aftësive të GPT-4o dhe vendosja e një sërë kritereve për sigurinë apo të llojeve të tjera për qeverinë amerikane.
Në fund, modelet publike ose private mund të testohen në bazë të këtyre parametrave për të vlerësuar modelet e tyre.
Në maj, OpenAI e mbylli departamentin e sigurisë, pasi drejtuesi i grupit, bashkëthemeluesi i OpenAI, Ilya Sutskever, u largua nga kompania.
Jan Leike, kërkues kyç në OpenAI, dha dorëheqjen pak kohë më pas, duke thënë në një postim se “kultura dhe proceset e sigurisë kanë kaluar në plan të dytë krahasuar me produktet e bujshme” të kompanisë.
Edhe pse OpenAI e ka mohuar këtë gjë, disa janë të shqetësuar për pasojat që mund të sjellë kjo, nëse kompania e arrin në fakt AGI.
OpenAI nuk ka dhënë detaje se si i cakton modelet në këto nivele të brendshme (dhe e refuzoi kërkesën për koment të “The Verge”).
Megjithatë, drejtuesit e kompanisë paraqitën një projekt kërkimor që përdor modelet e Inteligjencës Artificiale GPT-4 në një takim të javës së kaluar. Ata besojnë se ky projekt shfaq disa aftësi të reja që tregojnë një arsyetim të ngjashëm me atë të njeriut, sipas Bloomberg.
Kjo shkallë mund të ndihmojë në formulimin e një përkufizimi të rreptë të progresit, në vend që ta lërë atë për interpretim.
Për shembull, Mira Murati, CTO i OpenAI, deklaroi në një intervistë në qershor, se modelet në laborator nuk janë shumë më të mira se ato që ka tashmë publiku. Ndërkohë, Sam Altman, CEO i OpenAI, tha në fund të vitit të kaluar se kompania e la pas “vellon e injorancës”, që do të thotë se modelet janë jashtëzakonisht më inteligjente.
Tags :
Ky është artikull ekskluziv i Revistës Monitor, që gëzon të drejtën e autorësisë sipas Ligjit Nr. 35/2016, “Për të drejtat e autorit dhe të drejtat e lidhura me to”.
Artikulli mund të ripublikohet nga mediat e tjera vetëm duke cituar “Revista Monitor” shoqëruar me linkun e artikullit origjinal.