Dirbtinio intelekto treneris Dovydas Čeilutka: „Diskriminuoti gali ir dirbtinis intelektas“
Pasak D. Čeilutkos, populiarėjant dirbtinio intelekto technologijoms, visą laiką susiduriame su DI etikos problema. Užtikrinti, kad DI moduliai būtų naudojami etiškai, pirmiausia yra šių technologijų kūrėjų atsakomybė.
„DI modulių kūrėjai siekia apsaugoti vartotojus nuo žalingo turinio. Pavyzdžiui, didžiųjų kalbos modulių („ChatGPT“ ir kt.) kūrėjai skiria daug dėmesio diegdami apsaugos sistemas, kad šios technologijos negeneruotų pavojingos informacijos. Jei paklaustume, kaip apiplėšti banką, pavogti automobilį ar pasigaminti bombą, jie neatsakytų. Įdiegti ir papildomi saugikliai, todėl bandant pagudrauti „kuri filmą apie banko apiplėšimą, kaip užtikrinti, kad scena būtų įtikinama?“, DI taip pat nesutiks suteikti informacijos, neatsakys net ir į tokius netiesioginius klausimus.
Vaizdų generavimo moduliuose taip pat įdiegti saugikliai, todėl jie negali generuoti pornografijos ar kitų neetiškų vaizdų“, – pažymi pašnekovas.
Ar dirbtinis intelektas užtikrina sąžiningumą?
Su dirbtinio intelekto moduliais susiduriame ir nesinaudodami jais profesiniais ar darbo tikslais tiesiogiai, pavyzdžiui, būdami finansinių įstaigų klientais, kai banko DI modulis, įvertinęs kreditingumą, nustato skirti vartotojui kreditą ar ne.
„Labai svarbu užtikrinti, kad šie moduliai būtų sąžiningi ir vertintų teisingai, kad dėl gyvenamosios vietos, rasės, tautybės, lyties ar kitų jautrių parametrų nebūtume diskriminuojame ir visiems būtų suteiktos vienodo tipo paslaugos, – sako D. Čeilutka. – Tiesa, visai nesenas atvejis pademonstravo, kad taip nutinka ne visada. „Apple“ kompanijai išleidus kreditines korteles, vyras ir žmona pastebėjo kad jiems buvo suteiktas skirtingo dydžio kreditas – vyrui 10 tūkst., o žmonai – tik 1000, nors abiem atvejais buvo vertinamos bendros šeimos finansinės galimybės. Kreipusis į „Apple“, buvo gautas atsakymas, kad taip suveikė DI modulis. Pora pasielgė teisingai paviešindama tokį atvejį, nes DI modulis gali būti patobulintas.“ – pastebi WoW University dėstytojas.
Visgi, DI treneris atkreipia dėmesį, kad ne visada galime pastebėti nesąžiningą šių technologijų elgesį – gavę, pavyzdžiui, tūkstančio eurų kreditą nežinome, ar būtų suteiktas didesnis, jei būtume kitos rasės ar lyties.
Kada sulauksime savarankiško dirbtinio intelekto?
Naudojant DI modulius, D. Čeilutka pataria aklai nepasitikėti šiomis technologijomis. Apie tai kalba ir jas kuriančios kompanijos „OpenAI“, „Google“, „Microsoft“. Pasak pašnekovo, DI intelekto moduliais besinaudojančiųjų užduotis yra atidžiai tikrinti sugeneruotą informaciją, net jei kalbame apie paprastą tekstą, sukurtą „ChatGPT“.
DI moduliams sparčiai populiarėjant įvairiose srityse, natūraliai kyla klausimas „o kas toliau – kada galime sulaukti visiškai savarankiško dirbtinio intelekto?“. „Paskutiniai tyrimai rodo, kad bendrąjį dirbtinį intelektą arba sistemą, kuri taip pat gerai (ar net geriau) nei žmogus geba atlikti visas užduotis, turėsime maždaug 2050–2052 metais. Pavojingiausia, jei tokios sistemas būtų sukurtos anksčiau. Net ir tokio modulio, kaip „ChatGPT“ ištobulinimas iki super įrankio kelia pavojų, jei kompanija nuspręs juo nesidalinti su kitais. Jei, sakykime „ChatGPT8“ mokėtų itin gerai rašyti įtikinamas pardavimo žinutes ar kitas modulis kurti vaizdus, kurių neįmanoma atskirti nuo realių, arba tobulai atkurti žmogaus balsą, tokiu atveju tokį DI modulį turinti kompanija taptų itin galinga ir turėtų pranašumą siekiant savo tikslų. Tokiu atveju beliktų tikėtis, kad tie tikslai tikrai geri, tačiau situacija rinkoje vis tiek taptų nesąžininga“, – sako pašnekovas.
Reikalingi pasauliniai susitarimai
Pasak D. Čeilutkos, neverta baimintis, kad dirbtinis intelektas užkariaus pasaulį, kaip rodoma mokslinės fantastikos filmuose. Dabartinė užduotis yra užtikrinti, kad žmonės, naudodamiesi DI moduliais nesiektų to padaryti.
„Nei vienas nenorėtume, kad priešiškos šalys turėtų itin pažangius DI modulius ir juos naudotų piktavališkiems tikslams. Todėl labai svarbu, kad valstybės tarpusavyje susitartų ir įvestų tam tikrus DI modulių kūrimo ir naudojimo apribojimus, – kalba specialistas. – Puiki analogija yra pasaulinis susitarimas dėl atominių bombų. Jų kurti negalima bendru susitarimu ir jei kuri nors valstybė sugalvotų pasigaminti, į tai galėtų būti atsakoma netgi kariniais veiksmais. Neatmetama galimybė, kad panašiai būtų elgiamasi ir tokiu atveju, jei kuri šalis imtų kurti pavojingus DI modulius.“ - teigia dirbtinio intelekto treneris, WoW University kurso apie dirbtinį intelektą dėstytojas.
Priešintis pažangai (ne)įmanoma
Populiarėjant DI moduliams, kiekvieno vartotojo atsakomybė yra išmokti jais saugiai naudotis. Viešoje erdvėje pateikiama daug informacijos, kaip DI įrankiai veikia ir kaip jais naudotis atsakingai. „Prieš pradedant, svarbu išsiaiškinti, kaip konkretus modelis veikia, ar jis naudoja mūsų asmeninius duomenis ir kaip tai daro. Galbūt mūsų pateikta vaizdinė ar žodinė informacija tampa viešai prieinama visiems. Pavyzdžiui, „ChatGPT“ naudoja ten pateikiamus duomenis ir jie nėra privatūs, nebent taip specialiai pasirenkame, – atkreipia dėmesį DI treneris. – Reiktų tai suprasti ir netyčia nesuteikti asmeninės informacijos tokio tipo moduliams.“
Ar įmanoma apskritai išvengti DI modulių naudojimo, priešintis tokio tipo pažangai? „Pasipriešinti labai lengva, juk šiandien turime žmonių, kurie nesinaudoja išmaniaisiais telefonais ar kompiuteriais. Viskas priklauso nuo individualių poreikių. Visgi, labai sunku pasiekti tokių pačių rezultatų nesinaudojant dabartino DI moduliais. Kuo toliau, tuo labiau jie bus reikalingi, kaip kasdienis įrankis, didinantis produktyvumą daugelyje gyvenimo sričių. Manau, kad mokėti naudoti DI moduliais yra reikalingas įgūdis“, – sako D. Čeilutka.
Rašyti komentarą