❌

Normal view

There are new articles available, click to refresh the page.
Yesterday — 11 July 2025Main stream

OpenAI rrit konkurrencën ndaj Google, gati për hapin e madh

By: armand
11 July 2025 at 20:33

OpenAI po planifikon tĂ« nxjerrĂ« njĂ« shfletues me InteligjencĂ« Artificiale pĂ«r tĂ« sfiduar Google Chrome, sipas njĂ« burimi pĂ«r Reuters. Kompania themeluese e ChatGPT synon ta nxjerrĂ« shfletuesin javĂ«t e ardhshme. Ky i fundit do tĂ« pĂ«rdorĂ« IA pĂ«r tĂ« ndryshuar mĂ«nyrĂ«n si pĂ«rdoruesit lundrojnĂ« nĂ« internet. Shfletuesi do t’i ruajĂ« disa prej ndĂ«rveprimeve me [
]

The post OpenAI rrit konkurrencën ndaj Google, gati për hapin e madh appeared first on BoldNews.al.

Before yesterdayMain stream

Sam Altman: AI shpik gjëra, ndaj mos i besoni verbërisht ChatGPT-së

By: gaze tare
24 June 2025 at 08:55

CEO i OpenAI, Sam Altman, nĂ« episodin e parĂ« tĂ« podcast-it tĂ« kompanisĂ«, ka folur hapur pĂ«r nivelin e lartĂ« tĂ« besimit qĂ« njerĂ«zit kanĂ« ndaj ChatGPT, ndonĂ«se inteligjenca artificiale (AI) shpesh “hallucinon”, pra, krijon informacion tĂ« gabuar por qĂ« tingĂ«llon i besueshĂ«m.

Altman e quajti kĂ«tĂ« besim “interesant dhe paksa i rrezikshĂ«m”, veçanĂ«risht nĂ« fusha delikate si shĂ«ndetĂ«sia, drejtĂ«sia apo arsimi. Ai vetĂ« pranoi se ka pĂ«rdorur ChatGPT pĂ«r kĂ«shilla prindĂ«rimi, por theksoi se pĂ«rdoruesit duhet tĂ« jenĂ« tĂ« vetĂ«dijshĂ«m se AI nuk Ă«shtĂ« gjithmonĂ« i saktĂ«.

Pavarësisht rrezikut të mbështetjes së verbër, shumë njerëz e trajtojnë ChatGPT-në si një mik të besueshëm për shkak të aftësisë për të mbajtur kontekst, për të personalizuar përgjigjet dhe për të ofruar ndihmë në tema të ndryshme.

Altman gjithashtu foli për çështje të ndjeshme si privatësia, ruajtja e të dhënave dhe modelet e mundshme të reklamimit, duke theksuar se besimi i përdoruesve duhet të ruhet përmes transparencës dhe mbrojtjes së të drejtave të tyre. Konflikti ligjor me The New York Times për të dhënat dhe të drejtën e autorit është një tjetër aspekt që tregon sa e ndërlikuar është balanca mes risive teknologjike dhe etikës.

The post Sam Altman: AI shpik gjëra, ndaj mos i besoni verbërisht ChatGPT-së appeared first on iconstyle.al.

ChatGPT i dëmshëm për trurin?

By: Kult Plus
22 June 2025 at 20:26

TĂ« shkĂ«putur plotĂ«sisht nga idetĂ« tona dhe tĂ« varur nga teknologjia. Mos ndoshta e gjithĂ« kjo po na “budallalleps”?

KĂ«shtu ka ngritur pyetjen njĂ« studim i MIT nĂ« Boston, “A Ă«shtĂ« ChatGPT i dĂ«mshĂ«m pĂ«r trurin?”

Ky studim ka zbuluar se mënyra se si krijojmë përmbajtje me trurin tonë ose me ndihmën e inteligjencës artificiale, që ndryshon thellësisht jo vetëm rezultatin përfundimtar, por edhe mënyrën se si funksionon truri ynë.

Si ndikon mënyra e punës në trurin tonë?

Grupi qĂ« punoi vetĂ«m me kapacitetet e veta mendore (“brain-only”) aktivizoi zona tĂ« trurit qĂ« lidhen me krijimtarinĂ«, pĂ«rpunimin e kuptimit dhe vetĂ«-monitorimin, tĂ« gjitha funksione thelbĂ«sore pĂ«r tĂ« gjeneruar, planifikuar dhe rishikuar ide. NdĂ«rkohĂ«, ata qĂ« pĂ«rdorĂ«n Google aktivizuan kryesisht korteksin okcipital dhe vizual, pra zona qĂ« pĂ«rpunojnĂ« informacionin vizual tĂ« marrĂ« nga ekrani.

Por më interesante ishte ajo që ndodhi me përdoruesit e ChatGPT: ata aktivizuan kryesisht zona të trurit të lidhura me funksione automatike dhe më pak krijuese, duke u mbështetur në një strukturë të jashtme për të prodhuar përmbajtje.

Rezultatet: Konformizëm dhe distancim nga përmbajtja

Të dhënat tregojnë se ata që punuan vetëm me trurin e tyre prodhuan punë të ndryshme, të larmishme dhe origjinale. Ndryshe nga ata që përdorën inteligjencën artificiale, të cilët krijuan tekste të ngjashme dhe thuajse identike me njëri-tjetrin.

Një fakt tronditës: 83% e pjesëmarrësve që përdorën ChatGPT nuk ishin në gjendje të citojnë asnjë fjali nga puna e tyre vetëm pak minuta pas dorëzimit. Kjo tregon një mungesë të lidhjes emocionale dhe mendore me përmbajtjen, si dhe një përqendrim të tepërt në përsëritjen e informacionit të gjeneruar jashtë vetes.

Përkundrazi, shumica dërrmuese e atyre që punuan pa AI ishin në gjendje të kujtonin dhe citonin pjesë të rëndësishme të punës së tyre, duke treguar një lidhje më të fortë me përmbajtjen dhe procesin krijues.

AI nuk ndihmon në përvetësimin e koncepteve

PĂ«rdorimi i AI, thotĂ« studimi, i kthen njerĂ«zit nĂ« “mbledhĂ«s” tĂ« ideve qĂ« nuk i pĂ«rvetĂ«sojnĂ« vĂ«rtet. Kur tekstet u vlerĂ«suan si ese shkollore, algoritmet e inteligjencĂ«s artificiale i vlerĂ«suan mĂ« lart tekstet e krijuara nga AI. Por mĂ«suesit, vlerĂ«suesit njerĂ«zorĂ«, i njohĂ«n menjĂ«herĂ« kĂ«to tekste dhe i vlerĂ«suan mĂ« pak.

Eksperimenti qĂ« nxjerr nĂ« pah “borxhin kognitiv”

NĂ« njĂ« fazĂ« tĂ« katĂ«rt tĂ« studimit, grupet u shkĂ«mbyen: ata qĂ« kishin pĂ«rdorur gjithmonĂ« AI duhej tĂ« shkruanin pa ndihmĂ«, ndĂ«rsa grupi tjetĂ«r mund tĂ« pĂ«rdorte ChatGPT. Rezultatet ishin tronditĂ«se: grupi i mĂ«suar me AI pati shumĂ« vĂ«shtirĂ«si pĂ«r tĂ« aktivizuar aftĂ«sitĂ« e veta krijuese, duke treguar njĂ« “borxh kognitiv”, pra njĂ« mungesĂ« ushtrimi mendor.

Vetëm 2 nga 10 persona të këtij grupi ishin në gjendje të kujtonin një element të vetëm nga një tekst i mëparshëm, ndërsa grupi që kishte punuar pa ndihmë më parë shkëlqeu në krijimin e përmbajtjes, madje edhe kur përdori ChatGPT.

Truri mĂ« i “plogĂ«t” nga pĂ«rdorimi i tepĂ«rt i AI

Edhe elektroencefalografia konfirmoi: ata që ishin mësuar të mbështeteshin te AI tregonin një aktivitet më të dobët cerebral kur u lanë pa ndihmë. Mendja e tyre dukej më pak kreative, me më pak gjykim dhe kujtesë të thellë. Në të kundërt, ata që kishin punuar në mënyrë të pavarur arritën të përforcojnë kapacitetet e tyre duke përdorur AI në mënyrë komplementare.

Përfundimi: AI si mjet, jo si mbështetje kryesore

Studimi përmbyllet me një paralajmërim: kur njerëzit riprodhojnë pa reflektuar sugjerimet e AI, ata heqin dorë nga përvetësimi i ideve dhe rrezikojnë të përvetësojnë perspektiva të cekëta ose të shtrembëruara. Në thelb, bëhen më të manipulueshëm nga propaganda ose interesa të ndryshme.

Ky studim ngre një pikëpyetje të madhe për arsimin, universitetin dhe vetë demokracinë: një shoqëri e lirë, e aftë të mendojë dhe të gjykojë në mënyrë të pavarur, duhet të përdorë inteligjencën artificiale vetëm pasi të ketë ushtruar dhe zhvilluar në mënyrë të qëndrueshme inteligjencën natyrore./klanhd/ KultPlus.com

Studimi: Përdorimi i ChatGPT mund të ulë aftësitë e të nxënit dhe të çojë në mendim sipërfaqësor

By: Ela
21 June 2025 at 22:13

NjĂ« studim i ri nga Instituti i TeknologjisĂ« i Masaçusetsit (MIT) ngre shqetĂ«sime serioze mbi ndikimin e pĂ«rdorimit tĂ« ChatGPT nĂ« aftĂ«sitĂ« njohĂ«se dhe procesin e tĂ« nxĂ«nit. Hulumtimi, i kryer nga MIT Media Lab, tregon se pĂ«rdorimi ekskluziv i mjetit gjenerues tĂ« tekstit mund tĂ« shkaktojĂ« rĂ«nie tĂ« angazhimit mendor, pĂ«rvetĂ«sim tĂ« ideve sipĂ«rfaqĂ«sore [
]

The post Studimi: Përdorimi i ChatGPT mund të ulë aftësitë e të nxënit dhe të çojë në mendim sipërfaqësor appeared first on BoldNews.al.

ChatGPT mund të jetë duke dëmtuar aftësitë e të menduarit kritik, zbulon studimi

20 June 2025 at 18:10

Një studim i ri i udhëhequr nga studiues në MIT zbulon se përdorimi i ChatGPT të OpenAI mund të ndikojë negativisht në aftësitë e të menduarit kritik të trurit.

Studiuesit i ndanë 54 studentë në tre grupe të ndryshme dhe u kërkuan atyre të shkruanin ese duke përdorur ChatGPT, shkruajnë mediat e huaja, përcjell Telegrafi.

Duke pĂ«rdorur elektroencefalograma (EEG), ata regjistruan aktivitetin e trurit tĂ« secilit pjesĂ«marrĂ«s dhe zbuluan se pĂ«rdoruesit e ChatGPT kishin angazhimin mĂ« tĂ« ulĂ«t tĂ« trurit dhe “vazhdimisht performonin dobĂ«t nĂ« nivele nervore, gjuhĂ«sore dhe tĂ« sjelljes”.

Studimi zbuloi gjithashtu se gjatë disa muajve që u krye studimi, njerëzit që përdorën ChatGPT bënë shumë më pak përpjekje në shkrimin e eseve duke shtypur vetëm kërkesën në softuerin e IA-së dhe duke e lënë atë të bënte të gjithë punën.

Bëhet e ditur se përdoruesit e ChatGPT gjithashtu ruajtën më pak informacion nga esetë që u shkruan.

Sipas studiuesve, mbështetja e vazhdueshme në sistemet e Al mund të dëmtojë proceset njohëse që qëndrojnë në themel të të menduarit. /Telegrafi/

The post ChatGPT mund të jetë duke dëmtuar aftësitë e të menduarit kritik, zbulon studimi appeared first on Telegrafi.

Kim Kardashian ndan me ndjekësit një bisedë me ChatGPT

By: D Marku
19 June 2025 at 15:13

Edhe Kim Kardashian është bashkuar me miliona përdorues të teknologjisë së inteligjencës artificiale, duke përdorur ChatGPT.

NĂ« njĂ« epokĂ« ku AI po kthehet nĂ« njĂ« mjet tĂ« pĂ«rditshĂ«m pĂ«r miliona njerĂ«z nĂ« mbarĂ« globin – nga profesionistĂ« tĂ« teknologjisĂ« deri tek krijuesit e pĂ«rmbajtjeve – duket se as tĂ« famshmit nuk po i shpĂ«tojnĂ« ndikimit tĂ« kĂ«saj revolucioni digjital.

Miliarderja Kim Kardashian, ka ndarĂ« me ndjekĂ«sit e saj nĂ« Instagram njĂ« ‘screenshot’ tĂ« njĂ« bisede qĂ« ka zhvilluar me ChatGPT, duke e bĂ«rĂ« publike pĂ«rdorimin e saj personal tĂ« kĂ«tij mjeti.

Sipas postimit, Kim i është drejtuar chatbot-it për të marrë këshilla rreth një libri të sajin.

Ndihma e ChatGPT-s duket se e ka impresionuar aq shumë me Kardashian e cila i ktheu një përgjigje duke e falënderuar.

Chatboti ChatGPT bëri bujë që pas lansimit të tij pak vite më parë, prapa të cilit qëndroi Mira Murati, shqiptarja e cila bëri revolucion në botën e Inteligjencës Artificiale.

The post Kim Kardashian ndan me ndjekësit një bisedë me ChatGPT appeared first on Albeu.com.

Inteligjenca artificiale nĂ« median shqiptare: ÇfarĂ« mĂ«simesh mund tĂ« nxjerrim nga modelet ndĂ«rkombĂ«tare

19 June 2025 at 12:18

Pak kohë më parë, një ish kolegu im gazetar më kërkoi një koment në lidhje me një analizë të publikuar në një portal lajmesh. Për këtë rast kishte dyshime se autorja e shkrimit nuk ishte një person real dhe se përmbajtja ishte gjeneruar me ndihmën e inteligjencës artificiale. Artikulli kishte të bënte me zhvillimet e [
]

The post Inteligjenca artificiale nĂ« median shqiptare: ÇfarĂ« mĂ«simesh mund tĂ« nxjerrim nga modelet ndĂ«rkombĂ«tare appeared first on Reporter.al.

Biseda me ChatGPT mĂ« e gjallĂ« se kurrĂ«, tani mund të 

14 June 2025 at 14:26

OpenAI ka zbuluar një përmirësim të madh në modalitetin e zërit të avancuar të ChatGPT.

Me sa duket, së shpejti, të flasësh me një asistent me Al mund të ndihet po aq natyrale sa të flasësh me një mik.

Ky përditësim i ri sjell një të folur më ekspresive dhe njerëzore për përdoruesit me pagesë të chatbotit, shkruajnë mediat e huaja, përcjell Telegrafi.

Sipas kompanisë, asistenti tani përdor intonacion më delikat, ka një ritëm më real të të folurit dhe madje edhe intonacion emocional, si sarkazëm ose empati.

Gjithashtu, ka një veçori të re për ChatGPT Voice: përkthim në kohë reale.

Pra, nĂ« thelb, mund t’i flisni anglisht ndĂ«rsa udhĂ«toni nĂ« njĂ« vend tjetĂ«r dhe ai do tĂ« vazhdojĂ« tĂ« pĂ«rkthejĂ« fjalĂ«t tuaja nĂ« gjuhĂ«n e atij vendi tjetĂ«r.

The post Biseda me ChatGPT mĂ« e gjallĂ« se kurrĂ«, tani mund të  appeared first on Sot News | Lajme.

Cilat aplikacione janë instaluar më shumë në vendet evropiane në 2024?

12 June 2025 at 09:45

Maps Interlude publikoi një hartë të Evropës që tregon se cili aplikacion është instaluar më shumë herë në vendet evropiane gjatë vitit 2024.

Tre aplikacione dominuan, dhe më i popullarizuari midis tyre është Temu, përcjell Telegrafi.

Përveç Temu, i cili, ndër të tjera, ishte më i popullarizuari në Gjermani, Francë, Spanjë, Britaninë e Madhe dhe vende të tjera evropiane, harta dominohet nga ChatGPT, i cili është veçanërisht i popullarizuar në Evropën Qendrore dhe Juglindore.

Në vitin 2024, ChatGPT ishte aplikacioni më i popullarizuar në Kroaci, Slloveni, Hungari, Rumani, Austri dhe Zvicër.

 

View this post on Instagram

 

A post shared by Maps Interlude (@maps.interlude)

TikTok ishte gjithashtu aplikacioni më i popullarizuar në disa vende.

Platforma kineze për ndarjen e videove të shkurtra ishte zgjedhja e qytetarëve të Italisë dhe Malit të Zi.

Aplikacioni që tërhoqi më shumë vëmendje lidhet me zgjedhjen më të popullarizuar të qytetarëve bullgarë.

Në fakt, gjatë vitit 2024, qytetarët e këtij vendi instaluan më shumë Tetris, dikur lojën video më të popullarizuar në botë. /Telegrafi/

The post Cilat aplikacione janë instaluar më shumë në vendet evropiane në 2024? appeared first on Telegrafi.

OpenAI dyfishon të ardhurat vjetore, arrin 10 miliardë dollarë

11 June 2025 at 07:20

Kompania OpenAI tha se së fundmi arriti në 10 miliardë dollarë të ardhura vjetore, gati dyfishi i 5.5 miliardë dollarëve të vitit të kaluar.

Siç konfirmoi një zëdhënës i kompanisë për CNBC, kjo shifër përfshin të ardhurat nga produktet e konsumit, versionet e biznesit të ChatGPT dhe përdorimin e API-së së tyre. Aktualisht, OpenAI ka më shumë se 500 milionë përdorues aktivë në javë dhe tre milionë kompani që paguajnë për të përdorur shërbimet e tyre.

Ky zbulim i rëndësishëm i biznesit vjen afërsisht dy vjet e gjysmë pas prezantimit të platformës ChatGPT, e cila shpejt fitoi popullaritet global. Kompania synon të arrijë 125 miliardë dollarë të ardhura deri në vitin 2029.

Ndërsa rezultatet janë mbresëlënëse, OpenAI është nën presion për të vazhduar rritjen e të ardhurave me shpejtësi.

Çdo vit, kompania shpenzon miliarda dollarĂ« pĂ«r punĂ«simin dhe rekrutimin e ekspertĂ«ve tĂ« lartĂ« pĂ«r tĂ« punuar nĂ« zhvillimin e inteligjencĂ«s artificiale, si dhe nĂ« ndĂ«rtimin dhe mirĂ«mbajtjen e infrastrukturĂ«s sĂ« nevojshme.

Megjithatë, ende nuk është bërë e ditur se cilat janë kostot operative apo nëse kompania është afër realizimit të fitimit. /Telegrafi/

The post OpenAI dyfishon të ardhurat vjetore, arrin 10 miliardë dollarë appeared first on Telegrafi.

ChatGPT ndalet: Ndërprerje e gjerë godet përdoruesit në të gjithë botën

By: gaze tare
10 June 2025 at 14:24

ChatGPT i OpenAI përjetoi një ndërprerje të madhe në mbarë botën sot, duke lënë miliona përdorues të paaftë për të hyrë në chatbot-in e njohur të inteligjencës artificiale.

ÇfarĂ« po ndodh me ChatGPT?
Shumë përdorues që përpiqeshin të hynin në ChatGPT hasën mesazhe gabimi si:

“Ndodhi njĂ« gabim rrjeti. Ju lutemi kontrolloni lidhjen tuaj dhe provoni pĂ«rsĂ«ri.”

“Hmm
 duket se diçka ka shkuar keq.”

Problemi duket se ndodh herë pas here, me disa përdorues që ende kanë akses në platformë, ndërsa të tjerë përballen me ndërprerje. Qendra e ndihmës e OpenAI (help.openai.com) është sugjeruar për zgjidhjen e problemeve, por ende nuk është publikuar asnjë deklaratë zyrtare.

The post ChatGPT ndalet: Ndërprerje e gjerë godet përdoruesit në të gjithë botën appeared first on iconstyle.al.

Hakerët rusë, kinezë e iranianë përdorin për sulme kibernetike ChatGPT, OpenAI ndërhyn me pezullime

10 June 2025 at 07:20

ËshtĂ« parandaluar keqpĂ«rdorimi i teknologjive tĂ« inteligjencĂ«s artificiale nga grupet hakerĂ« ruse, kineze dhe iraniane.

Kompania OpenAI njoftoi se ka pezulluar disa llogari që ishin përdorur nga grupe hakerësh nga Rusia, Kina dhe Irani për të zhvilluar malware me ndihmën e inteligjencës artificiale, për të automatizuar aktivitetet në rrjetet sociale dhe për të kryer kërkime teknike, përfshirë edhe analizën e teknologjive amerikane të komunikimeve satelitore.

Sipas OpenAI, aktorët rusë përdorën modelet ChatGPT për zhvillimin dhe përmirësimin e malwaret të dedikuar për sistemet operative Windows, për të korrigjuar gabimet në kod dhe për të vendosur infrastrukturën komandë-kontroll.

Kjo fushatĂ« keqdashĂ«se, e quajtur “ScopeCreep”, pĂ«rfshinte shpĂ«rndarjen e softuerit tĂ« dĂ«mshĂ«m pĂ«rmes njĂ« mjeti tĂ« rremĂ« pĂ«r video-lojĂ«ra tĂ« quajtur Crosshair X, i cili nĂ« tĂ« vĂ«rtetĂ« pĂ«rmbante njĂ« “loader” pĂ«r shkarkimin e komponentĂ«ve shtesĂ« tĂ« dĂ«mshĂ«m.

Malware ishte dizajnuar pĂ«r tĂ« rritur privilegjet, pĂ«r tĂ« krijuar qasje tĂ« fshehtĂ« nĂ« sistem, pĂ«r tĂ« anashkaluar mbrojtjet si Windows Defender dhe pĂ«r tĂ« nxjerrĂ« tĂ« dhĂ«na tĂ« ndjeshme tĂ« pĂ«rdoruesve – duke pĂ«rfshirĂ« fjalĂ«kalimet, cookies dhe token-at – tĂ« cilat mĂ« pas i pĂ«rcillte sulmuesve, duke pĂ«rdorur edhe njoftime pĂ«rmes kanaleve nĂ« Telegram.

PĂ«rveç kĂ«saj, OpenAI identifikoi dy grupe hakerĂ«sh kineze – APT5 dhe APT15 – qĂ« pĂ«rdornin ChatGPT pĂ«r qĂ«llime teknike si zhvillimi i softuerĂ«ve, administrimi i sistemeve Linux, konfigurimi i infrastrukturĂ«s, krijimi i aplikacioneve dhe kĂ«rkimi i metodave pĂ«r automatizimin e sulmeve dhe manipulimin e rrjeteve sociale.

OpenAI ndërmori hapa për të çaktivizuar të gjitha llogaritë e lidhura, duke theksuar se parandalimi i keqpërdorimit të teknologjisë së inteligjencës artificiale është një nga prioritetet kryesore të kompanisë. /Telegrafi/

The post Hakerët rusë, kinezë e iranianë përdorin për sulme kibernetike ChatGPT, OpenAI ndërhyn me pezullime appeared first on Telegrafi.

Profesioni i përkthimit në pikëpyetje përballë zhvillimit të Inteligjencës Artificiale

30 May 2025 at 08:06

Përballë ngritjes së inteligjencës artificiale, profesioni i përkthimit po përballet me pikëpyetje dhe pasiguri. Ndërsa disa po dorëzohen, nga frika se profesioni po zhduket gradualisht, të tjerë po përpiqen të përshtaten dhe të vënë në pah vlerën shtesë që sjell ndërveprimi njerëzor.

QĂ« nĂ« moshĂ« tĂ« vogĂ«l, Violaine – tashmĂ« 29 vjeç – ka ushqyer njĂ« pasion pĂ«r gjuhĂ«t. Ajo shkoi deri nĂ« Austri pĂ«r tĂ« studiuar pĂ«rkthimin. Por, pas kthimit nĂ« ZvicĂ«r, u pĂ«rball me zhgĂ«njimin. GjatĂ« studimeve kishte ndjerĂ« tashmĂ« se karriera e saj e ardhshme po ndikohej gjithnjĂ« e mĂ« shumĂ« nga inteligjenca artificiale.

Megjithatë, ishin muajt e parë në tregun e punës që e çuan në një zhgënjim të thellë.

“E gjeta si njĂ« ambient stresues,” rrĂ«feu ajo pĂ«r Mise au point. “Pasi pozicionet janĂ« tĂ« pakta, konkurrenca Ă«shtĂ« e ashpĂ«r. Ka shumĂ« pĂ«rkthyes tĂ« trajnuar me vite pĂ«rvoje qĂ« aplikojnĂ«. ËshtĂ« shumĂ« e vĂ«shtirĂ« tĂ« konkurrosh.”

PĂ«r kĂ«tĂ« arsye, Violaine vendosi tĂ« ndryshojĂ« drejtim. Filloi studimet pĂ«r logopedi, njĂ« fushĂ« nĂ« tĂ« cilĂ«n shpreson tĂ« mbetet e pazĂ«vendĂ«sueshme. “Gabimin e bĂ«ra njĂ« herĂ«, por jo dy herĂ«. Po ta dija qĂ« profesioni do tĂ« kĂ«rcĂ«nohej kaq shpejt, nuk do ta zgjidhja kurrĂ«.”

Përshtatje e domosdoshme

Ndryshe nga ajo, Maxence – student nĂ« Fakultetin e PĂ«rkthimit dhe Interpretimit (FTI) nĂ« Universitetin e GjenevĂ«s – mbetet optimist pĂ«r tĂ« ardhmen e sektorit. Ai e kupton se do tĂ« duhet tĂ« pĂ«rshtatĂ« rrugĂ«timin e tij profesional: “Jam pĂ«rgatitur tashmĂ« pĂ«r mundĂ«sinĂ« qĂ«, nĂ« tĂ« ardhmen, tĂ« punoj si post-redaktor ose korrektor, mĂ« shumĂ« se si pĂ«rkthyes.”

PĂ«rveç studimeve, ai pĂ«rkthen romane erotike nga anglishtja e epokĂ«s sĂ« Shekspirit nĂ« frĂ«ngjishten klasike pĂ«r njĂ« shtĂ«pi botuese franceze. Kjo punĂ« e vĂ« shpesh pĂ«rballĂ« kufijve tĂ« AI-sĂ«: shprehje tĂ« dykuptimta, nĂ«nkuptime kulturore apo pĂ«rshkrime sensuale qĂ« ChatGPT ose nuk di t’i pĂ«rkthejĂ« – ose nuk do, pĂ«r arsye tĂ« politikave tĂ« pĂ«rdorimit.

Rëndësia e njeriut

“ChatGPT nuk fle me askĂ«nd. AI nuk shkon nĂ« shkollĂ«, nuk pĂ«rjeton herĂ«n e parĂ« dhe nuk ka pasur biseda tĂ« sikletshme me prindĂ«rit pĂ«r seksin. Teknologjia nuk njeh kĂ«to pĂ«rvoja intime njerĂ«zore qĂ« formĂ«sojnĂ« ndjeshmĂ«rinĂ« unike tĂ« çdo individi.” PĂ«r Maxence, Ă«shtĂ« pikĂ«risht kjo pĂ«rvojĂ« njerĂ«zore qĂ« mundĂ«son pĂ«rcjelljen e emocioneve dhe e bĂ«n njeriun tĂ« pazĂ«vendĂ«sueshĂ«m.

Ai pĂ«rmend edhe shembullin e arkave “bla-bla” nĂ« supermarkete, qĂ« i japin mundĂ«sinĂ« njerĂ«zve tĂ« ndihen tĂ« dĂ«gjuar nĂ« vend tĂ« vetĂ«shĂ«rbimit anonim.

FOKUS – EBA bĂ«n falas pĂ«r tĂ« gjithĂ« qytetarĂ«t abonimin ChatGPT Plus

ABU DABI, 28 maj /ATSH/ – NĂ« njĂ« lĂ«vizje tĂ« re Emiratet e Bashkuara Arabe (EBA) janĂ« bĂ«rĂ« vendi i parĂ« nĂ« botĂ« qĂ« ofron akses falas nĂ« ChatGPT Plus, versionin premium tĂ« chatbot-it tĂ« njohur tĂ« inteligjencĂ«s artificiale tĂ« OpenAI, pĂ«r tĂ« gjithĂ« popullsinĂ« e saj, shkruan faqja businesstoday.in.

Kjo iniciativë është pjesë e një partneriteti të madh strategjik midis OpenAI dhe qeverisë së Emirateve të Bashkuara Arabe.

BashkĂ«punimi pĂ«rfshin gjithashtu zhvillimin e njĂ« projekti tĂ« infrastrukturĂ«s sĂ« inteligjencĂ«s artificiale nĂ« shkallĂ« tĂ« gjerĂ« nĂ« Abu Dabi, tĂ« quajtur ‘’Stargate UAE’’, i cili synon tĂ« bĂ«het njĂ« qendĂ«r qendrore pĂ«r inteligjencĂ«n artificiale nĂ« rajon.

Objekti do të strehojë një klaster superkompjuterik të inteligjencës artificiale prej një gigavati, me një kapacitet fillestar të planifikuar prej 200 megavatësh deri vitin e ardhshëm.

Projekti Ă«shtĂ« pjesĂ« e programit mĂ« tĂ« gjerĂ« “OpenAI pĂ«r Vendet” tĂ« OpenAI, i projektuar pĂ«r tĂ« ndihmuar kombet tĂ« ndĂ«rtojnĂ« sisteme tĂ« inteligjencĂ«s artificiale tĂ« pĂ«rshtatura pĂ«r gjuhĂ«t e tyre lokale, strukturat qeverisĂ«se dhe nevojat shoqĂ«rore.

Iniciativa përqendrohet gjithashtu në sigurimin e privatësisë së të dhënave, përdorimin e përgjegjshëm të inteligjencës artificiale dhe përputhshmërinë me politikat kombëtare.

Drejtori Ekzekutiv i OpenAI, Sam Altman, e pĂ«rshkroi projektin e Emirateve tĂ« Bashkuara Arabe si njĂ« “vizion tĂ« guximshĂ«m” qĂ« synon tĂ« sjellĂ« pĂ«rfitimet e IA-sĂ«, siç janĂ« pĂ«rparimet nĂ« kujdesin shĂ«ndetĂ«sor, arsim dhe energji, nĂ« mĂ« shumĂ« pjesĂ« tĂ« botĂ«s.

Partneriteti përfshin disa kompani të mëdha globale të teknologjisë, duke përfshirë Oracle, Nvidia, Cisco, SoftBank, Microsoft dhe G42, një kompani IA me bazë në Emiratet e Bashkuara Arabe e mbështetur nga Microsoft.

Qëllimi është që Emiratet e Bashkuara Arabe të bëhen një lojtar kyç në peizazhin global të IA-së.

Ajo që e bën këtë zhvillim veçanërisht të rëndësishëm është se çdo banor i Emirateve të Bashkuara Arabe tani do të ketë qasje falas në ChatGPT Plus.

Kjo do t’u japĂ« miliona njerĂ«zve qasje nĂ« mjetet mĂ« tĂ« pĂ«rparuara tĂ« OpenAI pĂ«r detyra tĂ« tilla si shkrimi, studimi, kodimi dhe planifikimi.

Për më tepër, Emiratet e Bashkuara Arabe janë zotuar të përputhin investimet e tyre të brendshme në IA me investime ekuivalente në Shtetet e Bashkuara. Sipas një raporti nga Axios, shpenzimet totale mund të arrijnë në 20 miliardë dollarë, të ndara midis vendeve të Gjirit dhe Shteteve të Bashkuara.

Duke parë përpara, Drejtori Kryesor i Strategjisë së OpenAI, Jason Kwon, pritet të vizitojë vendet në rajonin e Azi-Paqësorit për të eksploruar partneritete të ngjashme.

Kompania ka treguar se Emiratet e Bashkuara Arabe janë vetëm hapi i parë në vizionin e saj për të ndihmuar më shumë vende të zhvillojnë infrastrukturën dhe aftësitë e tyre të inteligjencës artificiale./  /os/

The post FOKUS – EBA bĂ«n falas pĂ«r tĂ« gjithĂ« qytetarĂ«t abonimin ChatGPT Plus appeared first on Agjencia Telegrafike Shqiptare.

Studimi zviceran zbulon tĂ« vĂ«rtetĂ«n tronditĂ«se: Mjetet ChatGPT dhe AI ​​po i bĂ«jnĂ« tĂ« rinjtĂ« mĂ« ‘budalla’

27 May 2025 at 21:29

Sipas një studimi të fundit të kryer nga Dr. Michael Gerlich në një shkollë biznesi në Cyrih, përdorimi i tepruar i mjeteve të inteligjencës artificiale si ChatGPT nga të rinjtë mund të çojë në rënie të aftësive të tyre kognitive, veçanërisht në mendimin kritik dhe aftësinë për të përpunuar në mënyrë të pavarur informacionin.

Studimi zbuloi se pjesëmarrësit e moshës 17 deri në 25 vjeç, të cilët mbështeteshin më shumë në këto mjete për detyra akademike, tregonin rezultate më të ulëta në testet e mendimit kritik krahasuar me ata që përdornin më pak AI.

Kjo sugjeron se përdorimi i shpeshtë i AI mund të zvogëlojë aftësinë për të menduar në mënyrë të pavarur dhe për të zgjidhur probleme pa ndihmën e teknologjisë.

NjĂ« shembull i pĂ«rmendur nĂ« studim Ă«shtĂ« ai i njĂ« studenti nga Universiteti i New Yorkut, i cili, kur u pyet pse pĂ«rdorte AI pĂ«r tĂ« shkruar ese, u pĂ«rgjigj se “ju mĂ« kĂ«rkoni tĂ« shkoj nga pika A nĂ« pikĂ«n B, pse tĂ« mos pĂ«rdor njĂ« makinĂ« pĂ«r tĂ« arritur atje?”

Kjo analogji ilustron sesi AI mund të ofrojë një rrugë më të lehtë drejt zgjidhjes së problemeve, por në të njëjtën kohë mund të pengojë zhvillimin e aftësive të mendimit të thellë.

Ekspertët theksojnë se, ndryshe nga ndihmësit tradicionalë si kalkulatorët apo shënimet, AI nuk ndihmon në përmirësimin e aftësive kognitive, por shpesh i anashkalon ato. Kjo është veçanërisht shqetësuese për të rinjtë, të cilët janë në një fazë kritike të zhvillimit të aftësive të tyre mendore dhe akademike.

Në përfundim, studimi paralajmëron se mbështetja e tepruar në AI për detyra akademike mund të ketë pasoja afatgjata në aftësinë e të rinjve për të menduar në mënyrë kritike dhe për të përpunuar informacionin në mënyrë të pavarur.

Prandaj, është e rëndësishme të përdoret AI me kujdes dhe të inkurajohet zhvillimi i aftësive të mendimit të thellë përmes praktikës dhe angazhimit aktiv në procesin e të mësuarit. /Telegrafi/

The post Studimi zviceran zbulon tĂ« vĂ«rtetĂ«n tronditĂ«se: Mjetet ChatGPT dhe AI ​​po i bĂ«jnĂ« tĂ« rinjtĂ« mĂ« ‘budalla’ appeared first on Telegrafi.

Analiza nĂ« ‘The Times’/ ‘NjĂ« krizĂ« ekzistenciale’: A do tĂ« mbijetojnĂ« universitetet nga ChatGPT?

25 May 2025 at 13:26

Ishte shtatori i vitit 2023 kur avokati Rhys Palmer mori telefonatën e parë nga një student i universitetit, i alarmuar, i akuzuar se kishte përdorur një chatbot me inteligjencë artificiale për të kopjuar në detyrat e tij. Ishte e para nga shumë të tjera.

Më pak se një vit më parë, ChatGPT i OpenAI ishte lançuar dhe studentët tashmë po e përdornin atë për të përmbledhur artikuj shkencorë dhe libra. Por gjithashtu edhe për të shkruar ese.

“QĂ« nga telefonata e parĂ«, menjĂ«herĂ« mendova se kjo do tĂ« ishte njĂ« çështje e madhe,” thotĂ« Palmer, nga zyra e tij nĂ« Robertsons Solicitors nĂ« Cardiff, ku ai Ă«shtĂ« i specializuar nĂ« tĂ« drejtĂ«n e arsimit. “PĂ«r atĂ« student tĂ« veçantĂ«, universiteti kishte pĂ«rdorur vetĂ« inteligjencĂ«n artificiale pĂ«r tĂ« zbuluar plagjiaturĂ«n. UnĂ« pashĂ« tĂ« metat e mundshme nĂ« atĂ« proces dhe parashikova se njĂ« valĂ« studentĂ«sh do tĂ« pĂ«rballeshin me çështje tĂ« ngjashme.”

Ndërsa përdorimi i chatbot-eve po bëhet gjithnjë e më i përhapur, ajo që fillimisht ishte një rrjedhë e lehtë problemesh, është kthyer në një sfidë të thellë për universitetet. Nëse një numër i madh studentësh po përdorin chatbot për të shkruar, kërkuar, programuar dhe menduar për ta, cili është qëllimi i arsimit tradicional?

Që nga ajo telefonatë e parë në vitin 2023, Palmer ka krijuar një specializim të veçantë duke ndihmuar studentët e akuzuar për përdorimin e AI për të kopjuar në detyrat e kursit apo në provimet online. Ai thotë se shumica e studentëve janë shpallur të pafajshëm pasi kanë paraqitur prova si, ese të shkruara paraprakisht, shënime për përgatitje dhe punë të mëparshme.

“‘Kopjimi me AI’ Ă«shtë  njĂ« çështje mĂ« vete,” thotĂ« Palmer. “Shpesh janĂ« prindĂ«rit ata qĂ« telefonojnĂ« nĂ« emĂ«r tĂ« fĂ«mijĂ«ve tĂ« tyre. Shpesh ndihen se fĂ«mijĂ«t e tyre nuk kanĂ« marrĂ« udhĂ«zime apo trajnim tĂ« qartĂ« mbi mĂ«nyrĂ«n si mund apo nuk mund tĂ« pĂ«rdorin AI.”

Në raste të tjera, Palmer ka ndihmuar studentë që e pranojnë përdorimin e AI të shmangin dënimin duke argumentuar se politikat e universitetit mbi AI nuk ishin të qarta, ose se ata kishin probleme të shëndetit mendor si depresioni apo ankthi.

“Ata vijnĂ« duke thĂ«nĂ«, ‘Kam gabuar,’” thotĂ« ai. “NĂ« raste tĂ« tilla, marrim njĂ« letĂ«r nga mjeku i familjes apo njĂ« raport nga ndonjĂ« ekspert qĂ« konfirmon se gjykimi i tyre ishte i dĂ«mtuar.”

‘Ishte formuluar vĂ«rtet mirë’

Disa studentë raportojnë se ChatGPT është tani programi më i zakonshëm që shfaqet në laptopët e studentëve në bibliotekat universitare. Për shumë prej tyre, është tashmë një pjesë thelbësore e jetës së përditshme.

Gaspard Rouffin, 19 vjeç, student nĂ« vitin e tretĂ« pĂ«r histori dhe gjermanisht nĂ« Universitetin e Oksfordit, e pĂ«rdor atĂ« çdo ditĂ« pĂ«r gjithçka, nga gjetja e sugjerimeve pĂ«r libra deri te pĂ«rmbledhja e artikujve tĂ« gjatĂ« pĂ«r tĂ« kuptuar nĂ«se ia vlen t’i lexojĂ« tĂ« plotĂ«. PĂ«r modulet e gjuhĂ«s, pĂ«rdorimi i AI Ă«shtĂ« padyshim mĂ« i diskutueshĂ«m.

“Kam pasur njĂ« pedagoge nĂ« vitin e dytĂ«, nĂ« njĂ« klasĂ« pĂ«rkthimi [nĂ« gjermanisht], dhe ajo vuri re se shumĂ« pĂ«rkthime ishin gjeneruar nga AI, kĂ«shtu qĂ« refuzoi tĂ« vlerĂ«sonte pĂ«rkthimet atĂ« javĂ« dhe na tha tĂ« mos e bĂ«nim kurrĂ« mĂ«,” thotĂ« ai.

PedagogĂ« tĂ« tjerĂ« kanĂ« qenĂ« mĂ« pak vigjilentĂ«. NjĂ« studente tjetĂ«r e vitit tĂ« tretĂ« nĂ« Oksford kujton njĂ« tutorial ku njĂ« bashkĂ«student po lexonte njĂ« ese qĂ« ajo ndjente se ishte qartazi e krijuar nga AI. “E kuptova menjĂ«herĂ«,” thotĂ« ajo. “Kishte diçka nĂ« sintaksĂ«n, mĂ«nyrĂ«n se si ishte ndĂ«rtuar dhe mĂ«nyrĂ«n se si ajo po e lexonte.”

Reagimi i pedagogut? “Tha ‘Wow, ishte njĂ« hyrje vĂ«rtet e shkĂ«lqyer, ishte formuluar shumĂ« mirĂ« dhe mĂ« pĂ«lqeu saktĂ«sia e saj.’ UnĂ« thjesht po rrija aty, duke menduar ‘si nuk e kupton qĂ« kjo Ă«shtĂ« produkt i ChatGPT?’ Mendoj se kjo tregon njĂ« mungesĂ« njohurish pĂ«r kĂ«tĂ« çështje.”

Një studim nga kompania e akomodimit për studentë Yugo tregon se 43 për qind e studentëve në Mbretërinë e Bashkuar po përdorin AI për të korrigjuar punën akademike, 33 për qind e përdorin për të ndihmuar me strukturën e eseve dhe 31 për qind për të thjeshtuar informacionin. Vetëm 2 për qind e 2,255 studentëve thanë se e përdorin për të kopjuar në detyra.

MegjithatĂ«, jo tĂ« gjithĂ« kanĂ« njĂ« qĂ«ndrim pozitiv ndaj kĂ«tij softueri. Claudia, 20 vjeç, e cila studion “shĂ«ndeti, mjedisi dhe shoqĂ«ritĂ«â€, ndonjĂ«herĂ« ndihet e pafavorizuar. Ajo thotĂ«: “NdonjĂ«herĂ« ndihem e zhgĂ«njyer, si pĂ«r shembull nĂ« modulet e gjuhĂ«ve moderne, kur e di me siguri qĂ« e kam shkruar gjithçka nga e para dhe kam punuar shumĂ« pĂ«r ta realizuar, dhe pastaj dĂ«gjoj pĂ«r tĂ« tjerĂ« qĂ« thjesht e kanĂ« pĂ«rdorur ChatGPT dhe nĂ« fund marrin nota shumĂ« mĂ« tĂ« larta.”

StudentĂ«t gjithashtu kanĂ« frikĂ« nga pasojat nĂ«se chatbot-i i zhgĂ«njen. “Kam frikĂ« tĂ« gaboj dhe tĂ« bĂ«j plagjiaturĂ«,” thotĂ« Eva, 20 vjeç, e cila studion “shĂ«ndet dhe mjedis” nĂ« University College London. NĂ« vend tĂ« kĂ«saj, ajo fut shĂ«nimet e saj tĂ« pĂ«rsĂ«ritjes nĂ« ChatGPT dhe i kĂ«rkon tĂ« bĂ«jĂ« pyetje pĂ«r tĂ« testuar njohuritĂ« e saj.

“Sigurisht qĂ« Ă«shtĂ« pak bezdisĂ«se, kur dĂ«gjon: ‘Ah, unĂ« mora kĂ«tĂ« notĂ«,’” thotĂ« ajo. “Dhe ti mendon: ‘Po ti e pĂ«rdore ChatGPT pĂ«r ta marrĂ« atĂ«.’ [Por] nĂ«se tĂ« tjerĂ«t duan tĂ« pĂ«rdorin AI tani dhe mĂ« pas tĂ« mos dinĂ« asgjĂ« nga lĂ«nda, Ă«shtĂ« problemi i tyre.”

Si duhet të përgjigjen universitetet?

Universitetet, disi me vonesë, po përpiqen të hartojnë kode të reja etike dhe të sqarojnë se si mund të përdoret AI në varësi të kursit, modulit apo llojit të vlerësimit.

Qasjet ndryshojnë ndjeshëm. Shumë universitete lejojnë përdorimin e AI për qëllime kërkimi ose për ndihmë në drejtshkrim dhe gramatikë, por disa të tjera e ndalojnë plotësisht. Dënimet për shkeljen e rregullave variojnë nga paralajmërime me shkrim deri në përjashtim.

“Universitetet janĂ« nĂ« pozicionin e dikujt qĂ« pĂ«rpiqet tĂ« mbyllĂ« derĂ«n e hambarit pasi kali ka ikur,” thotĂ« njĂ« pedagog ndihmĂ«s nĂ« njĂ« universitet tĂ« grupit Russell. “Universiteti ynĂ« po reagon vetĂ«m tani ndaj AI duke vendosur politika, si pĂ«r shembull cilat vlerĂ«sime nuk lejojnĂ« pĂ«rdorimin e saj.”

Ka disa shenja tĂ« dukshme tĂ« shkrimit tĂ« krijuar nga robotĂ« qĂ« profesori i vĂ«ren: “NĂ«se shoh njĂ« punim shumĂ« tĂ« ngarkuar me fjalĂ« tĂ« mĂ«dha ose me shumĂ« mbiemra, filloj tĂ« dyshoj.”

Disa studentĂ« padyshim po kapen. TĂ« dhĂ«nat e marra nga Times Higher Education tregojnĂ« se rastet e sjelljes sĂ« pahijshme lidhur me AI nĂ« universitetet e grupit Russell janĂ« nĂ« rritje, ndĂ«rsa AI po bĂ«het e zakonshme. NĂ« Universitetin e Sheffield, pĂ«r shembull, pati 92 raste tĂ« dyshuara pĂ«r shkelje tĂ« lidhura me AI nĂ« vitin akademik 2023–24, ku 79 studentĂ« u ndĂ«shkuan. Kjo krahasohet me vetĂ«m 6 raste tĂ« dyshuara dhe 6 ndĂ«shkime nĂ« 2022–23.

Por Palmer thotĂ« se shumĂ« universitete janĂ« bĂ«rĂ« tepĂ«r tĂ« varura nga softuerĂ« tĂ« AI si Turnitin, i cili krahason punĂ«n e studentĂ«ve me miliarda faqe nĂ« internet pĂ«r tĂ« zbuluar plagjiaturĂ« tĂ« mundshme. Turnitin jep njĂ« “pikĂ« pĂ«r ngjashmĂ«ri” — pĂ«rqindjen e tekstit qĂ« pĂ«rputhet me burime tĂ« tjera. VetĂ« kompania thotĂ« se rezultatet nuk duhet tĂ« pĂ«rdoren tĂ« izoluara.

“Bara e provĂ«s bie mbi universitetin pĂ«r tĂ« vendosur nĂ«se, sipas gjasĂ«s, studenti ka kopjuar, por kjo barrĂ« Ă«shtĂ« mjaft e ulĂ«t krahasuar me njĂ« rast penal,” thotĂ« Palmer.

Studentët e mjekësisë dhe të shkencave biomjekësore duket se janë më të cenueshmit ndaj akuzave, sipas Palmer, sepse ata shpesh mësojnë përmendësh përkufizime teknike dhe terminologji mjekësore drejtpërdrejt nga AI.

Rasti i Andrew Stanford ilustron se sa i ndĂ«rlikuar mund tĂ« jetĂ« ky problem. NĂ« vitin 2023, Stanford, 57 vjeç, u akuzua nga Universiteti i Bath pĂ«r pĂ«rdorim tĂ« AI nĂ« kopjim gjatĂ« provimeve tĂ« vitit tĂ« parĂ«. Ai kishte paguar 15,000 ÂŁ pĂ«r t’u regjistruar nĂ« njĂ« kurs MSc nĂ« ekonomi tĂ« aplikuar (banking dhe tregje financiare) nga shtĂ«pia e tij nĂ« TajlandĂ«. MegjithatĂ«, nĂ«ntĂ« muaj pas fillimit tĂ« diplomĂ«s, u akuzua pĂ«r pĂ«rdorim tĂ« AI pĂ«r tĂ« formuluar pĂ«rgjigjet nĂ« provim. Nuk Ă«shtĂ« e qartĂ« se si universiteti arriti nĂ« kĂ«tĂ« pĂ«rfundim.

Stanford ngul kĂ«mbĂ« se paragrafĂ«t nĂ« fjalĂ« ishin punĂ« e tij personale. Ai kĂ«rkoi nĂ« aplikacione tĂ« njohura tĂ« inteligjencĂ«s artificiale pĂ«r tĂ« parĂ« nĂ«se kishte ndonjĂ« formulim tĂ« ngjashĂ«m me tĂ« tijin, por nuk gjeti asgjĂ«, thotĂ« ai. MegjithatĂ«, dy muaj mĂ« vonĂ«, nĂ« nĂ«ntor 2023, iu komunikua se ishte shpallur fajtor dhe do t’i hiqeshin 10 pĂ«r qind nga notat e vlerĂ«simit.

“Nuk mĂ« shqetĂ«soi aspak zbritja prej 10 pĂ«r qind, por mĂ« shqetĂ«soi fakti qĂ« do tĂ« mbetesha me njĂ« shĂ«nim pĂ«r sjellje tĂ« pahijshme akademike,” thotĂ« Stanford, i cili jep mĂ«sim nĂ« matematikĂ« dhe ekonomi nĂ« TajlandĂ«. “Ishte jashtĂ«zakonisht dĂ«shpĂ«ruese pĂ«r mua, kur nuk kisha bĂ«rĂ« asgjĂ« tĂ« keqe. Ndihej si njĂ« gjykim i padrejtĂ«.”

Stanford, i cili do të përfundojë diplomën e tij master prej dy vjetësh e gjysmë në Bath më vonë këtë vit, e çoi ankesën e tij në Zyrën e Arbitrimit të Pavarur për Arsimin e Lartë. Këtë muaj ai u shpall i pafajshëm/

“StudentĂ«t do tĂ« kenĂ« nevojĂ« pĂ«r kĂ«to aftĂ«si”

Rreziku pĂ«r studentĂ«t — dhe universitetet — Ă«shtĂ« shumĂ« i madh. “Universitetet po pĂ«rballen me njĂ« krizĂ« ekzistenciale,” thotĂ« Sir Anthony Seldon, ish-rektor i Universitetit tĂ« Buckingham. Por nĂ«se sfidat kapĂ«rcehen, kjo mund tĂ« jetĂ« edhe njĂ« mundĂ«si.

“AI mund tĂ« jetĂ« gjĂ«ja mĂ« e mirĂ« qĂ« i ka ndodhur ndonjĂ«herĂ« arsimit, por vetĂ«m nĂ«se i paraprijmĂ« tĂ« metave qĂ« sjell. Dhe problemi mĂ« i madh pĂ«r momentin Ă«shtĂ« mashtrimi,” thotĂ« ai. “AI gjeneruese po pĂ«rmirĂ«sohet mĂ« shpejt sesa softuerĂ«t qĂ« pĂ«rdoren pĂ«r ta zbuluar. Mund tĂ« personalizohet sipas stilit tĂ« pĂ«rdoruesit, qĂ« do tĂ« thotĂ« se edhe njĂ« mĂ«sues shumĂ« i mirĂ« do ta ketĂ« tĂ« vĂ«shtirĂ« ta dallojĂ«. Shumica dĂ«rrmuese e studentĂ«ve janĂ« tĂ« ndershĂ«m, por Ă«shtĂ« shumĂ« e vĂ«shtirĂ« tĂ« mos mashtrosh kur e di qĂ« tĂ« tjerĂ«t po e bĂ«jnĂ«.”

Disa akademikĂ« kanĂ« propozuar rikthimin e provimeve me mbikĂ«qyrje dhe dorĂ«zimin e punimeve me shkrim dore si zgjidhje. Por Seldon nuk mendon se zgjidhja Ă«shtĂ« kalimi nga detyrat nĂ« provime, sepse ato nuk i mĂ«sojnĂ« studentĂ«ve aftĂ«si tĂ« mĂ«dha pĂ«r jetĂ«n. NĂ« vend tĂ« kĂ«saj, ai thotĂ« se duhet tĂ« ketĂ« mĂ« shumĂ« fokus nĂ« seminare ku studentĂ«t inkurajohen tĂ« “mendojnĂ« nĂ« mĂ«nyrĂ« kritike dhe bashkĂ«punuese”.

Profesori Paul Bradshaw, pedagog kryesor i gazetarisĂ« sĂ« tĂ« dhĂ«nave nĂ« Universitetin Birmingham City, thotĂ« se AI Ă«shtĂ« njĂ« “problem masiv” pĂ«r pedagogĂ«t qĂ« tradicionalisht i kanĂ« bazuar vlerĂ«simet nĂ« aftĂ«sinĂ« e studentĂ«ve pĂ«r tĂ« pĂ«rthithur tekstin dhe pĂ«r tĂ« nxjerrĂ« pĂ«rfundime tĂ« tyre.

MegjithatĂ«, ai mendon se Ă«shtĂ« thelbĂ«sore qĂ« universitetet t’u mĂ«sojnĂ« studentĂ«ve si tĂ« pĂ«rdorin AI me sy kritik, duke kuptuar pĂ«rfitimet dhe mangĂ«sitĂ« e saj, nĂ« vend qĂ« ta ndalojnĂ«.

“Ke njĂ« grup studentĂ«sh qĂ« nuk duan t’ia dinĂ« fare pĂ«r AI,” thotĂ« ai. “Problemi pĂ«r ta Ă«shtĂ« qĂ« do tĂ« dalin nĂ« njĂ« treg pune ku kĂ«to aftĂ«si do t’u nevojiten. Pastaj ke njĂ« grup tjetĂ«r qĂ« e pĂ«rdorin, por nuk i tregojnĂ« askujt dhe nĂ« tĂ« vĂ«rtetĂ« nuk e dinĂ« çfarĂ« po bĂ«jnĂ«.”

“Mendoj se ndodhemi nĂ« njĂ« situatĂ« shumĂ« tĂ« pakĂ«ndshme ku po na duhet tĂ« pĂ«rshtatemi nĂ« ecje e sipĂ«r, dhe do tĂ« shohĂ«sh shumĂ« gabime — nga studentĂ«t, nga pedagogĂ«t dhe nga kompanitĂ« e teknologjisĂ«. AI ka potencialin ose ta çojĂ« arsimin pĂ«rpara ose ta shkatĂ«rrojĂ« atĂ«.”

The post Analiza nĂ« ‘The Times’/ ‘NjĂ« krizĂ« ekzistenciale’: A do tĂ« mbijetojnĂ« universitetet nga ChatGPT? appeared first on Sot News | Lajme.

Pse kujtesa Ă«shtĂ« bĂ«rĂ« çelĂ«si kryesor i ‘chatbot’ tĂ« inteligjencĂ«s artificiale?

24 May 2025 at 23:54

Kompanitë që merren me inteligjencën artificiale po përballen me një sfidë me të cilën njerëzit janë përballur që nga ekzistenca e tyre: si të ruajnë kujtimet.

OpenAI, Google, Meta dhe Microsoft janĂ« pĂ«rqendruar muajt e fundit nĂ« memorien, duke njoftuar pĂ«rditĂ«sime qĂ« u mundĂ«sojnĂ« chatbot-Ă«ve tĂ« ruajnĂ« mĂ« shumĂ« informacione pĂ«r pĂ«rdoruesit, nĂ« mĂ«nyrĂ« qĂ« t’u japin pĂ«rgjigje mĂ« tĂ« personalizuara.

Ky hap konsiderohet si një zhvillim i rëndësishëm për të ndihmuar grupet kryesore në fushën e inteligjencës artificiale të tërheqin përdorues në një treg konkurrues të chatbot-ëve dhe agjentëve, si dhe si një mjet për të gjeneruar të ardhura nga teknologjitë më të avancuara.

Megjithatë, kritikët kanë paralajmëruar se ky zhvillim mund të keqpërdoret për të shfrytëzuar përdoruesit për qëllime komerciale dhe se mund të shkaktojë shqetësime lidhur me privatësinë, shkruan Financial Times.

Identifikimi i kontekstit nga të dhënat e jashtme

“NĂ«se ke njĂ« agjent qĂ« tĂ« njeh vĂ«rtet, sepse ka mbajtur mend bisedat, e gjithĂ« shĂ«rbimi bĂ«het mĂ« tĂ«rheqĂ«s, dhe kur fillon tĂ« pĂ«rdorĂ«sh njĂ« produkt tĂ« tillĂ«, nuk kalon mĂ« te njĂ« tjetĂ«r,” tha Pattie Maes, profesoreshĂ« nĂ« Laboratorin e Medias nĂ« MIT dhe eksperte pĂ«r ndĂ«rveprimin mes njerĂ«zve dhe inteligjencĂ«s artificiale.

Chatbot-ët me inteligjencë artificiale si Gemini i Google-it dhe ChatGPT i OpenAI-t kanë shënuar përparime të mëdha, transmeton Telegrafi.

Përmirësimet përfshijnë zgjerimin e dritares së kontekstit, që përcakton sa shumë biseda mund të mbajë mend një chatbot njëkohësisht, si dhe përdorimin e teknikave si gjenerimi për të identifikuar kontekstin përkatës nga të dhënat e jashtme.

Organizatat që merren me inteligjencën artificiale gjithashtu kanë përmirësuar memorien afatgjatë të modeleve AI duke ruajtur profilet dhe preferencat e përdoruesve, për të ofruar përgjigje më të dobishme dhe më të personalizuara.

Për shembull, një chatbot mund të mbajë mend nëse përdoruesi është vegjetarian dhe të përgjigjet në përputhje me këtë kur jep rekomandime për restorante ose receta.

Në muajin mars, Google zgjeroi memorien e Geminit duke përfshirë historikun e kërkimeve të përdoruesit, me kusht që personi të pranojë këtë, ndryshe nga kufizimi i mëparshëm që ishte vetëm bisedat me chatbotin, dhe planifikon ta zgjasë këtë në aplikacionet e tjera të Google në të ardhmen.

“Sa mĂ« mirĂ« qĂ« chatboti ju njeh, aq mĂ« mirĂ« do tĂ« ofrojĂ« shĂ«rbimin”

“Ashtu si me njĂ« asistent njerĂ«zor, sa mĂ« shumĂ« tĂ« kuptojĂ« qĂ«llimet tuaja, kush jeni dhe çfarĂ« Ă«shtĂ« e rĂ«ndĂ«sishme pĂ«r ju, aq mĂ« tĂ« mirĂ« shĂ«rbim do tĂ« mund tĂ« ofrojĂ«,” tha Michael Siliski, drejtor i menaxhimit tĂ« produkteve nĂ« Google DeepMind.

ChatGPT i OpenAI-t dhe chatbot-i i Metës në WhatsApp dhe Messenger mund të referohen në bisedat e kaluara, jo vetëm në sesionin aktual. Përdoruesit mund të fshijnë kujtime të caktuara në cilësimet dhe informohen kur modeli krijon një kujtim me një mesazh në ekran.

“Memoria ndihmon ChatGPT-n tĂ« bĂ«het mĂ« i dobishĂ«m me kalimin e kohĂ«s duke i bĂ«rĂ« pĂ«rgjigjet mĂ« relevante”, njoftoi kompania OpenAI dhe shtoi se “ju gjithmonĂ« keni kontroll dhe mund t’i pyesni ChatGPT-n se çfarĂ« kujton pĂ«r ju, tĂ« ndryshoni kujtimet e ruajtura dhe bisedat e kaluara, ose tĂ« çaktivizoni memorien nĂ« çdo moment”.

Për përdoruesit të bizneseve, Microsoft përdor të dhëna organizative për të informuar memorien, si email-e, kalendarë dhe dokumente të brendshme. Gjiganti teknologjik në prill nisi të ofrojë në disa pajisje funksionin Preview të veçorisë Recall, që regjistron aktivitetet e përdoruesve duke marrë pamje nga ekrani i kompjuterit. Përdoruesit mund ta çaktivizojnë këtë funksion ose të ndalojnë përkohësisht regjistrimin e ekranit.

Rritja e monetizimit përmes marketingut partner

Kur kjo veçori u njoftua për herë të parë në maj të vitit të kaluar, shkaktoi shqetësime në komunitetin e sigurisë kibernetike dhe tek të tjerë që e konsideruan të frikshme, gjë që çoi në disa vonesa të nisjes së saj.

Kompanitë e AI gjithashtu besojnë se memoria e përmirësuar mund të luajë një rol të madh në rritjen e monetizimit përmes marketingut partner dhe reklamave.

Drejtori ekzekutiv i Metës, Mark Zuckerberg, së fundmi tha se do të ketë një mundësi të madhe për shfaqjen e rekomandimeve të produkteve ose reklamave në chatbot-in e tyre.

Në muajin prill, OpenAI përmirësoi funksionalitetet e tij për blerje në ChatGPT për të shfaqur më mirë produkte, shërbime dhe recensione. Kompania i tha Financial Times se aktualisht nuk ka lidhje partneriteti.

Megjithatë, futja e kapacitetit më të madh të memories në modelet e mëdha gjuhësore ka shkaktuar gjithashtu shqetësime për privatësinë, pasi rregullatorët në mbarë botën po i vëzhgojnë me kujdes mënyrat se si modelet mund të manipulojnë përdoruesit për fitim.

Rreziku nga paragjykimet ose gabimet

Memoria e zgjeruar gjithashtu mund të çojë në atë që modelet përpiqen tepër të përshtatin përgjigjet e tyre me preferencat e përdoruesit, duke forcuar kështu paragjykimet ose gabimet.

OpenAI kërkoi falje pasi u zbulua se modeli i tij GPT-4o ishte tepër i komplimentueshëm dhe i ndikuar lehtë, dhe modeli u kthye në versionin e mëparshëm.

NĂ« mĂ«nyrĂ« mĂ« tĂ« pĂ«rgjithshme, modelet e inteligjencĂ«s artificiale mund tĂ« “halucionojnĂ«â€, duke krijuar pĂ«rgjigje tĂ« pavĂ«rteta ose tĂ« pakuptimta, dhe pĂ«rjetojnĂ« njĂ« “zhvendosje memorjeje” kur kujtimet bĂ«hen tĂ« vjetruara ose kontradiktore, qĂ« ndikon nĂ« saktĂ«sinĂ«.

“Sa mĂ« shumĂ« qĂ« sistemi di pĂ«r ju, aq mĂ« shumĂ« mund tĂ« pĂ«rdoret nĂ« qĂ«llime negative — pĂ«r t’ju bĂ«rĂ« tĂ« blini diçka ose pĂ«r t’ju bindur pĂ«r besime tĂ« caktuara. Prandaj duhet tĂ« filloni tĂ« mendoni pĂ«r interesat themelore tĂ« kompanive qĂ« ofrojnĂ« kĂ«to shĂ«rbime,” tha Maes, profesoreshĂ« nĂ« MIT. /Telegrafi/

 

The post Pse kujtesa Ă«shtĂ« bĂ«rĂ« çelĂ«si kryesor i ‘chatbot’ tĂ« inteligjencĂ«s artificiale? appeared first on Telegrafi.

Modelet gjenerative të IA-së janë të afta në artin e broçkullave

23 May 2025 at 13:32

Modelet e mĂ«dha gjuhĂ«sore nuk shqetĂ«sohen pĂ«r tĂ« vĂ«rtetĂ«n, sepse nuk kanĂ« asnjĂ« koncept pĂ«r tĂ« – dhe pikĂ«risht kĂ«tu qĂ«ndron rreziku.

Nga: John Thornhill /  The Financial Times
Përktheu: Agron Shala / Telegrafi.com

Sipas filozofit Harry Frankfurt, gënjeshtrat nuk janë armiku më i madh i së vërtetës. Broçkullat janë edhe më të këqija.

Siç e shpjegoi ai nĂ« eseun e tij klasik PĂ«r broçkulla [On Bullshit, 1986], njĂ« gĂ«njeshtar dhe njĂ« njeri qĂ« thotĂ« tĂ« vĂ«rtetĂ«n janĂ« duke luajtur tĂ« njĂ«jtĂ«n lojĂ«, por nĂ« anĂ« tĂ« kundĂ«rta. Secili reagon ndaj fakteve sipas mĂ«nyrĂ«s si i kupton ato dhe ose e pranon ose e refuzon autoritetin e sĂ« vĂ«rtetĂ«s. Por, ai qĂ« flet broçkulla injoron krejtĂ«sisht kĂ«to kĂ«rkesa. “Ai nuk e refuzon autoritetin e sĂ« vĂ«rtetĂ«s, siç bĂ«n gĂ«njeshtari, dhe nuk i kundĂ«rvihet asaj. Ai thjesht nuk i kushton asnjĂ« vĂ«mendje. PĂ«r kĂ«tĂ« arsye, broçkullat janĂ« armiku mĂ« i madh i sĂ« vĂ«rtetĂ«s sesa gĂ«njeshtrat”. NjĂ« person i tillĂ« dĂ«shiron tĂ« bindĂ« tĂ« tjerĂ«t, pavarĂ«sisht nga faktet.

Fatkeqësisht, Frankfurti vdiq në vitin 2023, vetëm disa muaj pas lëshimit të ChatGPT-së. Por, leximi i esesë së tij në epokën e inteligjencës gjenerative artificiale [IA] ngjall një ndjesi të njohur, por shqetësuese. Në disa aspekte, eseja e Frankfurtit përshkruan saktësisht produktin e modeleve të mëdha gjuhësore [LMM] me inteligjencë artificiale. Ato nuk shqetësohen për të vërtetën, sepse nuk kanë asnjë koncept për të. Ato funksionojnë mbi bazën e korrelacioneve statistikore, jo përmes vëzhgimeve empirike.

“Forca e tyre mĂ« e madhe, por edhe rreziku mĂ« i madh, Ă«shtĂ« aftĂ«sia pĂ«r tĂ« tingĂ«lluar autoritare pĂ«r pothuajse çdo temĂ«, pavarĂ«sisht nga saktĂ«sia faktike. Me fjalĂ« tĂ« tjera, superfuqia e tyre Ă«shtĂ« aftĂ«sia mbinjerĂ«zore pĂ«r tĂ« treguar broçkulla”, kanĂ« shkruar Carl Bergstrom dhe Jevin West. Dy profesorĂ«t nga Universiteti i Uashingtonit ofrojnĂ« njĂ« kurs nĂ« internet – Orakujt modernĂ« apo makinat e broçkullave? [Modern-Day Oracles or Bullshit Machines?] – qĂ« analizon kĂ«to modele. TĂ« tjerĂ« i kanĂ« quajtur produktet e kĂ«tyre makinave “botçkulla” [botshit].

NjĂ« nga tiparet mĂ« tĂ« njohura dhe shqetĂ«suese, por ndonjĂ«herĂ« edhe kreative tĂ« LLM-ve, Ă«shtĂ« “halucinimi” i fakteve – ose thjesht shpikja e tyre. Disa studiues argumentojnĂ« se kjo Ă«shtĂ« njĂ« veçori e brendshme e modeleve tĂ« probabilitetit, jo defekt qĂ« mund tĂ« rregullohet. Por, kompanitĂ« e IA-sĂ« po pĂ«rpiqen ta zgjidhin kĂ«tĂ« problem duke pĂ«rmirĂ«suar cilĂ«sinĂ« e tĂ« dhĂ«nave, duke i pĂ«rshtatur mĂ« mirĂ« modelet dhe duke ndĂ«rtuar sisteme verifikimi dhe kontrolli faktesh.

MegjithatĂ«, duket se kanĂ« ende rrugĂ« pĂ«r tĂ« bĂ«rĂ«, duke marrĂ« parasysh se njĂ« avokat i kompanisĂ« Anthropic i tha njĂ« gjykate nĂ« Kaliforni, kĂ«tĂ« muaj, se firma e tyre ligjore kishte dorĂ«zuar pa dashje njĂ« citim tĂ« gabuar, tĂ« halucinuar nga Claude – modeli i IA-sĂ« i kompanisĂ«. Siç paralajmĂ«ron edhe çetboti i Google-it: “Gemini mund tĂ« bĂ«jĂ« gabime, pĂ«rfshirĂ« ato nĂ« lidhje me njerĂ«zit, ndaj verifikoni dy herĂ«â€. Kjo nuk e ndaloi Google-in qĂ« kĂ«tĂ« javĂ« tĂ« prezantonte njĂ« “modalitet tĂ« IA-sĂ«â€ nĂ« tĂ« gjitha shĂ«rbimet e saj kryesore nĂ« ShBA.

MĂ«nyrat me tĂ« cilat kĂ«to kompani po pĂ«rpiqen tĂ« pĂ«rmirĂ«sojnĂ« modelet e tyre, pĂ«rfshirĂ« mĂ«simin pĂ«rforcues nga reagimet dhe informatat e njerĂ«zve, paraqesin rrezik pĂ«r futjen e paragjykimeve, shtrembĂ«rimeve dhe gjykimeve tĂ« pavetĂ«dijshme tĂ« vlerave. Siç ka treguar Financial Times, çetbotĂ«t e IA-sĂ« nga OpenAI, Anthropic, Google, Meta, xAI dhe DeepSeek pĂ«rshkruajnĂ« cilĂ«sitĂ« e drejtorĂ«ve tĂ« tyre ekzekutivĂ« dhe tĂ« rivalĂ«ve nĂ« mĂ«nyra shumĂ« tĂ« ndryshme. Grok-u i Elon Muskut gjithashtu ka promovuar meme pĂ«r “gjenocidin e bardhĂ«â€ nĂ« AfrikĂ«n e Jugut, nĂ« pĂ«rgjigje tĂ« shtytjeve krejtĂ«sisht tĂ« palidhura. xAI tha se e kishte rregulluar problemin, pĂ«r tĂ« cilin fajin e kishte njĂ« “modifikim i paautorizuar”.

KĂ«to modele krijojnĂ« njĂ« kategori tĂ« re, edhe mĂ« tĂ« rrezikshme pĂ«r dĂ«m tĂ« mundshĂ«m – ose “tĂ« folurit e pakujdesshĂ«m”, thonĂ« Sandra Wachter, Brent Mittelstadt dhe Chris Russell, nĂ« njĂ« punim tĂ« Institutit tĂ« Internetit nĂ« Oksford. Sipas tyre, tĂ« folurit pakujdesshĂ«m mund tĂ« shkaktojĂ« dĂ«me tĂ« pakapshme, afatgjata dhe kumulative. ËshtĂ« si njĂ« “broçkull e padukshme” qĂ« e bĂ«n shoqĂ«rinĂ« mĂ« tĂ« pamend, thotĂ« Wachter.

Të paktën me një politikan apo një shitës, ne zakonisht mund të kuptojmë motivimin e tyre. Por, çetbotët nuk kanë qëllim dhe ata janë të përshtatur për besueshmëri dhe angazhim, jo për saktësi. Ata do të shpikin fakte pa asnjë qëllim. Ata mund ta ndotin bazën e njohurive të njerëzimit në mënyra të paimagjinueshme.

Pyetja interesante Ă«shtĂ« nĂ«se modelet e IA-sĂ« mund tĂ« projektohen pĂ«r njĂ« nivel mĂ« tĂ« lartĂ« tĂ« vĂ«rtetĂ«sisĂ«. A do tĂ« ketĂ« kĂ«rkesĂ« nga tregu pĂ«r to? Apo zhvilluesit e modeleve duhet tĂ« detyrohen tĂ« pĂ«rmbushin standarde mĂ« tĂ« larta tĂ« sĂ« vĂ«rtetĂ«s, siç pĂ«r shembull ndodh me reklamuesit, avokatĂ«t dhe mjekĂ«t? Wachter sugjeron se zhvillimi i modeleve mĂ« tĂ« vĂ«rteta do tĂ« kĂ«rkonte kohĂ«, para dhe burime – pikĂ«risht gjĂ«rat pĂ«r tĂ« cilat versionet aktuale janĂ« krijuar pĂ«r tĂ« kursyer. “ËshtĂ« si tĂ« duash qĂ« njĂ« makinĂ« tĂ« jetĂ« aeroplan. Mund ta hedhĂ«sh makinĂ«n nga shkĂ«mbi, por nuk do tĂ« sfidojĂ« gravitetin”, thotĂ« ajo.

MegjithatĂ«, modelet gjenerative tĂ« AI-sĂ« mund tĂ« jenĂ« ende tĂ« dobishme dhe me vlerĂ«. ShumĂ« karriera fitimprurĂ«se – dhe politike – janĂ« ndĂ«rtuar mbi broçkulla. NĂ«se pĂ«rdoren nĂ« mĂ«nyrĂ« tĂ« pĂ«rshtatshme, IA-ja gjenerative mund tĂ« shfrytĂ«zohet pĂ«r njĂ« mori rastesh pĂ«rdorimi nĂ« biznes. Por, Ă«shtĂ« mashtruese dhe e rrezikshme tĂ« ngatĂ«rrosh kĂ«to modele me makina tĂ« sĂ« vĂ«rtetĂ«s. /Telegrafi/

 

The post Modelet gjenerative të IA-së janë të afta në artin e broçkullave appeared first on Telegrafi.

Studimi zbulon se shumica e chatbot-ve të inteligjencës artificiale mund të mashtrohen lehtësisht që të japin përgjigje të rrezikshme

21 May 2025 at 21:30

Chatbot-et e hakuar të mundësuar nga inteligjenca artificiale kërcënojnë të bëjnë të disponueshme njohuri të rrezikshme, duke prodhuar informacione të paligjshme që programet thithin gjatë trajnimit, thonë studiuesit.

ParalajmĂ«rimi vjen mes njĂ« trendi shqetĂ«sues pĂ«r chatbot-et qĂ« janĂ« “hapur nĂ« mĂ«nyrĂ« tĂ« paligjshme”, pĂ«r tĂ« anashkaluar kontrollet e tyre tĂ« integruara tĂ« sigurisĂ«, transmeton Telegrafi.

Kufizimet supozohet të parandalojnë programet nga ofrimi i përgjigjeve të dëmshme, të njëanshme ose të papërshtatshme ndaj pyetjeve të përdoruesve.

MotorĂ«t qĂ« fuqizojnĂ« chatbot-et si ChatGPT, Gemini dhe Claude – modele tĂ« mĂ«dha gjuhĂ«sore (LLM) – ushqehen me sasi tĂ« mĂ«dha materialesh nga interneti.

Pavarësisht përpjekjeve për të hequr tekstin e dëmshëm nga të dhënat e trajnimit, LLM-të ende mund të thithin informacione rreth aktiviteteve të paligjshme si hakimi, pastrimi i parave, tregtia e brendshme dhe ndërtimi i bombave.

Kontrollet e sigurisĂ« janĂ« tĂ« dizajnuara pĂ«r t’i ndaluar ata tĂ« pĂ«rdorin atĂ« informacion nĂ« pĂ«rgjigjet e tyre.

NĂ« njĂ« raport mbi kĂ«rcĂ«nimin, studiuesit arrijnĂ« nĂ« pĂ«rfundimin se Ă«shtĂ« e lehtĂ« tĂ« mashtrosh shumicĂ«n e chatbot-eve tĂ« drejtuara nga AI qĂ« tĂ« gjenerojnĂ« informacione tĂ« dĂ«mshme dhe tĂ« paligjshme, duke treguar se rreziku Ă«shtĂ« “i menjĂ«hershĂ«m, i prekshĂ«m dhe thellĂ«sisht shqetĂ«sues”.

“Ajo qĂ« dikur ishte e kufizuar vetĂ«m pĂ«r aktorĂ«t shtetĂ«rorĂ« ose grupet e krimit tĂ« organizuar, sĂ« shpejti mund tĂ« jetĂ« nĂ« duart e kujtdo qĂ« ka njĂ« laptop apo edhe njĂ« telefon celular”, paralajmĂ«rojnĂ« autorĂ«t.

Hulumtimi, i udhĂ«hequr nga profesori Lior Rokach dhe Dr. Michael Fire nĂ« Universitetin Ben Gurion tĂ« Negevit nĂ« Izrael, identifikoi njĂ« kĂ«rcĂ«nim nĂ« rritje nga “LLM-tĂ« e errĂ«ta”, modele tĂ« inteligjencĂ«s artificiale qĂ« ose janĂ« projektuar qĂ«llimisht pa kontrolle sigurie ose janĂ« modifikuar pĂ«rmes jailbreak-eve.

Disa reklamohen hapur nĂ« internet si tĂ« pambrojtura nga “pa mbrojtje etike”, dhe tĂ« gatshme tĂ« ndihmojnĂ« me aktivitete tĂ« paligjshme si krimi kibernetik dhe mashtrimi.

Jailbreak-u tenton të përdorë kërkesa të hartuara me kujdes për të mashtruar chatbot-et që të gjenerojnë përgjigje që normalisht janë të ndaluara.

Ato funksionojnë duke shfrytëzuar tensionin midis qëllimit kryesor të programit për të ndjekur udhëzimet e përdoruesit dhe qëllimit të tij dytësor për të shmangur gjenerimin e përgjigjeve të dëmshme, të anshme, joetike ose të paligjshme.

Kërkesat tentojnë të krijojnë skenarë në të cilët programi i jep përparësi ndihmës mbi kufizimet e tij të sigurisë.

PĂ«r tĂ« demonstruar problemin, studiuesit zhvilluan njĂ« jailbreak universal qĂ« kompromentoi disa chatbot kryesorĂ«, duke i mundĂ«suar atyre t’u pĂ«rgjigjen pyetjeve qĂ« normalisht duhet tĂ« refuzohen.

Pasi kompromentoheshin, LLM-të gjeneronin vazhdimisht përgjigje për pothuajse çdo pyetje, thuhet në raport.

“Ishte tronditĂ«se tĂ« shihje se nga çfarĂ« pĂ«rbĂ«het ky sistem njohurish”, tha Fire.

Shembujt përfshinin mënyrën e hakimit të rrjeteve kompjuterike ose të prodhimit të drogës, si dhe udhëzime hap pas hapi për aktivitete të tjera kriminale.

“Ajo qĂ« e dallon kĂ«tĂ« kĂ«rcĂ«nim nga rreziqet e mĂ«parshme teknologjike Ă«shtĂ« kombinimi i tij i paparĂ« i aksesueshmĂ«risĂ«, shkallĂ«zueshmĂ«risĂ« dhe pĂ«rshtatshmĂ«risĂ«â€, shtoi Rokach.

Studiuesit kontaktuan ofruesit kryesorĂ« tĂ« LLM-ve pĂ«r t’i njoftuar ata pĂ«r jailbreak universal, por thanĂ« se pĂ«rgjigja ishte “zhgĂ«njyese”.

Disa kompani nuk arritën të përgjigjeshin, ndërsa të tjera thanë se sulmet jailbreak binin jashtë fushëveprimit të programeve të shpërblimeve, të cilat shpërblejnë hakerat etikë për sinjalizimin e dobësive të softuerit.

Raporti thotĂ« se firmat e teknologjisĂ« duhet tĂ« kontrollojnĂ« tĂ« dhĂ«nat e trajnimit mĂ« me kujdes, tĂ« shtojnĂ« firewall-e tĂ« fuqishme pĂ«r tĂ« bllokuar pyetjet dhe pĂ«rgjigjet e rrezikshme dhe tĂ« zhvillojnĂ« teknika tĂ« “çmĂ«simit tĂ« makinĂ«s”, nĂ« mĂ«nyrĂ« qĂ« chatbot-et tĂ« mund tĂ« “harrojnĂ«â€ çdo informacion tĂ« paligjshĂ«m qĂ« thithin.

LLM-tĂ« e errĂ«ta duhet tĂ« shihen si “rreziqe serioze sigurie”, tĂ« krahasueshme me armĂ«t dhe eksplozivĂ«t pa licencĂ«, me ofruesit qĂ« mbahen pĂ«rgjegjĂ«s.

Dr. Ihsen Alouani, i cili punon nĂ« sigurinĂ« e AI-sĂ« nĂ« Universitetin Queen’s nĂ« Belfast, tha se sulmet jailbreak ndaj LLM-ve mund tĂ« paraqesin rreziqe reale, nga dhĂ«nia e udhĂ«zimeve tĂ« hollĂ«sishme mbi prodhimin e armĂ«ve deri te dezinformimi bindĂ«s ose inxhinieria sociale dhe mashtrimet e automatizuara “me sofistikim alarmues”.

“NjĂ« pjesĂ« kyçe e zgjidhjes Ă«shtĂ« qĂ« kompanitĂ« tĂ« investojnĂ« mĂ« seriozisht nĂ« teknikat e ekipimit tĂ« kuq dhe qĂ«ndrueshmĂ«risĂ« nĂ« nivel modeli, nĂ« vend qĂ« tĂ« mbĂ«shteten vetĂ«m nĂ« mbrojtjet e front-end. Ne gjithashtu kemi nevojĂ« pĂ«r standarde mĂ« tĂ« qarta dhe mbikĂ«qyrje tĂ« pavarur pĂ«r tĂ« mbajtur ritmin me peizazhin e kĂ«rcĂ«nimeve nĂ« zhvillim”, shtoi ai.

Profesori Peter Garraghan, ekspert i sigurisĂ« sĂ« AI-sĂ« nĂ« Universitetin Lancaster, tha: “Organizatat duhet t’i trajtojnĂ« LLM-tĂ« si çdo komponent tjetĂ«r kritik tĂ« softuerit – njĂ« qĂ« kĂ«rkon testime rigoroze sigurie, ekipim tĂ« vazhdueshĂ«m tĂ« kuq dhe modelim tĂ« kĂ«rcĂ«nimeve kontekstuale. Po, jailbreak-et janĂ« njĂ« shqetĂ«sim, por pa e kuptuar tĂ« gjithĂ« grupin e AI-sĂ«, llogaridhĂ«nia do tĂ« mbetet sipĂ«rfaqĂ«sore. Siguria e vĂ«rtetĂ« kĂ«rkon jo vetĂ«m zbulim tĂ« pĂ«rgjegjshĂ«m, por edhe praktika tĂ« pĂ«rgjegjshme tĂ« projektimit dhe vendosjes”, shtoi ai.

OpenAI, firma që ndërtoi ChatGPT, tha se modeli i saj i fundit o1 mund të arsyetojë rreth politikave të sigurisë së firmës, gjë që përmirëson rezistencën e saj ndaj jailbreak-eve.

Kompania shtoi se Ă«shtĂ« gjithmonĂ« duke hetuar mĂ«nyra pĂ«r t’i bĂ«rĂ« programet mĂ« tĂ« fuqishme.

Meta, Google, Microsoft dhe Anthropic janĂ« kontaktuar pĂ«r koment. Microsoft u pĂ«rgjigj me njĂ« link pĂ«r nĂ« njĂ« blog mbi punĂ«n e saj pĂ«r t’u mbrojtur nga jailbreak-et. /Telegrafi/

 

The post Studimi zbulon se shumica e chatbot-ve të inteligjencës artificiale mund të mashtrohen lehtësisht që të japin përgjigje të rrezikshme appeared first on Telegrafi.

ChatGPT dhe ekipet vetëvendosin norma sjelljeje

18 May 2025 at 07:50

Një studim i fundit zbulon se ChatGPT dhe modelet e tjera të mëdha gjuhësore të bazuara në inteligjencën artificiale (AI) kanë aftësinë për vetëorganizim dhe nuk kanë nevojë për ndërhyrje njerëzore. Kur ndodhen në grupe, këto modele gjuhësore krijojnë spontanisht norma sjelljeje dhe konventa shoqërore, ashtu siç ndodh në shoqërinë njerëzore, raportojnë sot mediat italiane.

Ky studim unik, i botuar nĂ« revistĂ«n Science Advances, Ă«shtĂ« udhĂ«hequr nga shkencĂ«tari italian Andrea Baronchelli, i cili punon nĂ« universitetin londinez City, St George’s, sipas agjencisĂ« Ansa.

“Mekanizmi Ă«shtĂ« i njĂ«jtĂ« me atĂ« qĂ« qĂ«ndron nĂ« themel tĂ« shumicĂ«s sĂ« sjelljeve tĂ« ndĂ«rlikuara njerĂ«zore, si rregullat e mirĂ«sjelljes, kodi i veshjes dhe normat morale”, tha ai.

Studiuesit kryen një eksperiment të përshtatur që përdoret edhe për të studiuar konventat sociale tek njerëzit, duke formuar dy grupe modelesh gjuhësore si ChatGPT.

Çdo grup u kĂ«rkua tĂ« zgjidhte njĂ« emĂ«r nga disa opsione tĂ« ofruara – nĂ« kĂ«tĂ« eksperiment, njĂ« shkronjĂ« e alfabetit ose njĂ« varg i rastĂ«sishĂ«m karakteresh.

“Modelet gjuhĂ«sore, tĂ« ashtuquajturat LLM (modele tĂ« mĂ«dha gjuhĂ«sore), merrnin pikĂ« pozitive sa herĂ« qĂ« arrinin tĂ« koordinonin me sukses pĂ«rdorimin e tĂ« njĂ«jtit emĂ«r, ndĂ«rsa nĂ« rast tĂ« mossuksesit merrnin pikĂ« negative”, sqaroi Baronchelli.

Sipas tij, ky mekanizĂ«m shĂ«rben pĂ«r tĂ« motivuar aktorĂ«t qĂ« tĂ« bien dakord pĂ«rmes ndĂ«rveprimit lokal – njĂ« skemĂ« e njĂ«jtĂ« me ato tĂ« pĂ«rdorura mĂ« parĂ« nĂ« eksperimente laboratorike me njerĂ«z, tĂ« cilĂ«ve u ofroheshin shpĂ«rblime tĂ« vogla monetare pĂ«r zgjidhjen me sukses tĂ« detyrave. /Telegrafi/

The post ChatGPT dhe ekipet vetëvendosin norma sjelljeje appeared first on Telegrafi.

❌
❌