Modelet e mĂ«dha gjuhĂ«sore nuk shqetĂ«sohen pĂ«r tĂ« vĂ«rtetĂ«n, sepse nuk kanĂ« asnjĂ« koncept pĂ«r tĂ« â dhe pikĂ«risht kĂ«tu qĂ«ndron rreziku.
Nga: John Thornhill /Â The Financial Times
Përktheu: Agron Shala / Telegrafi.com
Sipas filozofit Harry Frankfurt, gënjeshtrat nuk janë armiku më i madh i së vërtetës. Broçkullat janë edhe më të këqija.
Siç e shpjegoi ai nĂ« eseun e tij klasik PĂ«r broçkulla [On Bullshit, 1986], njĂ« gĂ«njeshtar dhe njĂ« njeri qĂ« thotĂ« tĂ« vĂ«rtetĂ«n janĂ« duke luajtur tĂ« njĂ«jtĂ«n lojĂ«, por nĂ« anĂ« tĂ« kundĂ«rta. Secili reagon ndaj fakteve sipas mĂ«nyrĂ«s si i kupton ato dhe ose e pranon ose e refuzon autoritetin e sĂ« vĂ«rtetĂ«s. Por, ai qĂ« flet broçkulla injoron krejtĂ«sisht kĂ«to kĂ«rkesa. âAi nuk e refuzon autoritetin e sĂ« vĂ«rtetĂ«s, siç bĂ«n gĂ«njeshtari, dhe nuk i kundĂ«rvihet asaj. Ai thjesht nuk i kushton asnjĂ« vĂ«mendje. PĂ«r kĂ«tĂ« arsye, broçkullat janĂ« armiku mĂ« i madh i sĂ« vĂ«rtetĂ«s sesa gĂ«njeshtratâ. NjĂ« person i tillĂ« dĂ«shiron tĂ« bindĂ« tĂ« tjerĂ«t, pavarĂ«sisht nga faktet.
Fatkeqësisht, Frankfurti vdiq në vitin 2023, vetëm disa muaj pas lëshimit të ChatGPT-së. Por, leximi i esesë së tij në epokën e inteligjencës gjenerative artificiale [IA] ngjall një ndjesi të njohur, por shqetësuese. Në disa aspekte, eseja e Frankfurtit përshkruan saktësisht produktin e modeleve të mëdha gjuhësore [LMM] me inteligjencë artificiale. Ato nuk shqetësohen për të vërtetën, sepse nuk kanë asnjë koncept për të. Ato funksionojnë mbi bazën e korrelacioneve statistikore, jo përmes vëzhgimeve empirike.
âForca e tyre mĂ« e madhe, por edhe rreziku mĂ« i madh, Ă«shtĂ« aftĂ«sia pĂ«r tĂ« tingĂ«lluar autoritare pĂ«r pothuajse çdo temĂ«, pavarĂ«sisht nga saktĂ«sia faktike. Me fjalĂ« tĂ« tjera, superfuqia e tyre Ă«shtĂ« aftĂ«sia mbinjerĂ«zore pĂ«r tĂ« treguar broçkullaâ, kanĂ« shkruar Carl Bergstrom dhe Jevin West. Dy profesorĂ«t nga Universiteti i Uashingtonit ofrojnĂ« njĂ« kurs nĂ« internet â Orakujt modernĂ« apo makinat e broçkullave? [Modern-Day Oracles or Bullshit Machines?] â qĂ« analizon kĂ«to modele. TĂ« tjerĂ« i kanĂ« quajtur produktet e kĂ«tyre makinave âbotçkullaâ [botshit].
NjĂ« nga tiparet mĂ« tĂ« njohura dhe shqetĂ«suese, por ndonjĂ«herĂ« edhe kreative tĂ« LLM-ve, Ă«shtĂ« âhalucinimiâ i fakteve â ose thjesht shpikja e tyre. Disa studiues argumentojnĂ« se kjo Ă«shtĂ« njĂ« veçori e brendshme e modeleve tĂ« probabilitetit, jo defekt qĂ« mund tĂ« rregullohet. Por, kompanitĂ« e IA-sĂ« po pĂ«rpiqen ta zgjidhin kĂ«tĂ« problem duke pĂ«rmirĂ«suar cilĂ«sinĂ« e tĂ« dhĂ«nave, duke i pĂ«rshtatur mĂ« mirĂ« modelet dhe duke ndĂ«rtuar sisteme verifikimi dhe kontrolli faktesh.
MegjithatĂ«, duket se kanĂ« ende rrugĂ« pĂ«r tĂ« bĂ«rĂ«, duke marrĂ« parasysh se njĂ« avokat i kompanisĂ« Anthropic i tha njĂ« gjykate nĂ« Kaliforni, kĂ«tĂ« muaj, se firma e tyre ligjore kishte dorĂ«zuar pa dashje njĂ« citim tĂ« gabuar, tĂ« halucinuar nga Claude â modeli i IA-sĂ« i kompanisĂ«. Siç paralajmĂ«ron edhe çetboti i Google-it: âGemini mund tĂ« bĂ«jĂ« gabime, pĂ«rfshirĂ« ato nĂ« lidhje me njerĂ«zit, ndaj verifikoni dy herĂ«â. Kjo nuk e ndaloi Google-in qĂ« kĂ«tĂ« javĂ« tĂ« prezantonte njĂ« âmodalitet tĂ« IA-sĂ«â nĂ« tĂ« gjitha shĂ«rbimet e saj kryesore nĂ« ShBA.
MĂ«nyrat me tĂ« cilat kĂ«to kompani po pĂ«rpiqen tĂ« pĂ«rmirĂ«sojnĂ« modelet e tyre, pĂ«rfshirĂ« mĂ«simin pĂ«rforcues nga reagimet dhe informatat e njerĂ«zve, paraqesin rrezik pĂ«r futjen e paragjykimeve, shtrembĂ«rimeve dhe gjykimeve tĂ« pavetĂ«dijshme tĂ« vlerave. Siç ka treguar Financial Times, çetbotĂ«t e IA-sĂ« nga OpenAI, Anthropic, Google, Meta, xAI dhe DeepSeek pĂ«rshkruajnĂ« cilĂ«sitĂ« e drejtorĂ«ve tĂ« tyre ekzekutivĂ« dhe tĂ« rivalĂ«ve nĂ« mĂ«nyra shumĂ« tĂ« ndryshme. Grok-u i Elon Muskut gjithashtu ka promovuar meme pĂ«r âgjenocidin e bardhĂ«â nĂ« AfrikĂ«n e Jugut, nĂ« pĂ«rgjigje tĂ« shtytjeve krejtĂ«sisht tĂ« palidhura. xAI tha se e kishte rregulluar problemin, pĂ«r tĂ« cilin fajin e kishte njĂ« âmodifikim i paautorizuarâ.
KĂ«to modele krijojnĂ« njĂ« kategori tĂ« re, edhe mĂ« tĂ« rrezikshme pĂ«r dĂ«m tĂ« mundshĂ«m â ose âtĂ« folurit e pakujdesshĂ«mâ, thonĂ« Sandra Wachter, Brent Mittelstadt dhe Chris Russell, nĂ« njĂ« punim tĂ« Institutit tĂ« Internetit nĂ« Oksford. Sipas tyre, tĂ« folurit pakujdesshĂ«m mund tĂ« shkaktojĂ« dĂ«me tĂ« pakapshme, afatgjata dhe kumulative. ĂshtĂ« si njĂ« âbroçkull e padukshmeâ qĂ« e bĂ«n shoqĂ«rinĂ« mĂ« tĂ« pamend, thotĂ« Wachter.
Të paktën me një politikan apo një shitës, ne zakonisht mund të kuptojmë motivimin e tyre. Por, çetbotët nuk kanë qëllim dhe ata janë të përshtatur për besueshmëri dhe angazhim, jo për saktësi. Ata do të shpikin fakte pa asnjë qëllim. Ata mund ta ndotin bazën e njohurive të njerëzimit në mënyra të paimagjinueshme.
Pyetja interesante Ă«shtĂ« nĂ«se modelet e IA-sĂ« mund tĂ« projektohen pĂ«r njĂ« nivel mĂ« tĂ« lartĂ« tĂ« vĂ«rtetĂ«sisĂ«. A do tĂ« ketĂ« kĂ«rkesĂ« nga tregu pĂ«r to? Apo zhvilluesit e modeleve duhet tĂ« detyrohen tĂ« pĂ«rmbushin standarde mĂ« tĂ« larta tĂ« sĂ« vĂ«rtetĂ«s, siç pĂ«r shembull ndodh me reklamuesit, avokatĂ«t dhe mjekĂ«t? Wachter sugjeron se zhvillimi i modeleve mĂ« tĂ« vĂ«rteta do tĂ« kĂ«rkonte kohĂ«, para dhe burime â pikĂ«risht gjĂ«rat pĂ«r tĂ« cilat versionet aktuale janĂ« krijuar pĂ«r tĂ« kursyer. âĂshtĂ« si tĂ« duash qĂ« njĂ« makinĂ« tĂ« jetĂ« aeroplan. Mund ta hedhĂ«sh makinĂ«n nga shkĂ«mbi, por nuk do tĂ« sfidojĂ« gravitetinâ, thotĂ« ajo.
MegjithatĂ«, modelet gjenerative tĂ« AI-sĂ« mund tĂ« jenĂ« ende tĂ« dobishme dhe me vlerĂ«. ShumĂ« karriera fitimprurĂ«se â dhe politike â janĂ« ndĂ«rtuar mbi broçkulla. NĂ«se pĂ«rdoren nĂ« mĂ«nyrĂ« tĂ« pĂ«rshtatshme, IA-ja gjenerative mund tĂ« shfrytĂ«zohet pĂ«r njĂ« mori rastesh pĂ«rdorimi nĂ« biznes. Por, Ă«shtĂ« mashtruese dhe e rrezikshme tĂ« ngatĂ«rrosh kĂ«to modele me makina tĂ« sĂ« vĂ«rtetĂ«s. /Telegrafi/
Â
The post Modelet gjenerative të IA-së janë të afta në artin e broçkullave appeared first on Telegrafi.