Spaudos centras
„Ar kada naudojotės dirbtinio intelekto sistema, pavyzdžiui, didžiuoju kalbos modeliu? Argi ji neįtikina jūsų, kad ji labai protinga arba jus netgi mėgsta? Atrodo, lyg ji turėtų emocijas ir pažiūras. Manau, tai yra vienas iš iššūkių: pokalbių robotai yra sužmoginami, nors iš tiesų jie yra tik mašinos“, – sako dr. Una-May O’Reilly, Masačusetso technologijos instituto (MIT) Informatikos ir dirbtinio intelekto laboratorijos (CSAIL) mokslininkė.
Šį spalį kartu su kitais MIT ir Lietuvos mokslininkais dr. U. O’Reilly skaitė pranešimą konferencijoje „Human and More-Than-Human Futures: Innovating Technologies for Coexistence“ („Žmogiškos ir daugiau nei žmogiškos ateitys: technologinės inovacijos bendrabūviui kurti“), kuri vyko Vilniuje ir Kaune. Konferencija tyrinėjo inovacijų transformacijas ir būdus kurti geresnę ateitį.
Dr. U. O’Reilly yra dirbtinio priešiško intelekto ir kibernetinio saugumo ekspertė. MIT CSAIL laboratorijoje ji vadovauja grupei „AnyScale Learning For All“ (ALFA), kurios užduotis – atkurti dirbtinį priešišką intelektą naudojant kompiuterius. Kitaip tariant, ji taiko žinias apie priešišką elgesį kuriant kompiuterines programas, kurios veikia kaip užpuolikai ir gynėjai: tai leidžia tinklų ir įrenginių saugumo ekspertams atpažinti ir pataisyti savo sistemų silpnąsias vietas, kol jomis nepasinaudojo piktavaliai veikėjai.
Pokalbyje su mokslininke – apie jos novatorišką darbą, dirbtinio intelekto ateitį, generatyvinį DI, tokį kaip „ChatGPT“, ir įgūdžius, reikalingus norintiems dirbti DI ir kibernetinio saugumo srityje.
Kas yra dirbtinis priešiškas intelektas?
Yra daugybė situacijų, kai atsiduriame priešiškoje aplinkoje, kur viena pusė puola, o kita – ginasi. Būdama informatikė, kuri taip pat tyrinėja dirbtinį intelektą, domiuosi, kaip mes pritaikome savo pažintinius gebėjimus tam, kad mūsų priešiškas elgesys būtų sumanus. Siekiu tiksliai atkurti tą priešišką elgseną ir sumanumą mašinose, kompiuteriuose. Taip gaunamas dirbtinis priešiškas intelektas.
Ko siekia ir kuo užsiima jūsų vadovaujama ALFA grupė MIT Informatikos ir dirbtinio intelekto laboratorijoje (CSAIL)?
Vienas iš mūsų tikslų yra atkartoti priešišką intelektą pasitelkiant kompiuterius: tyrinėjame įvairias priešiškas aplinkas ir ieškome būdų joms pritaikyti dirbtinį intelektą. Kaip kompiuterijos mokslininkė, būtent dėl to aš kasdien ir keliuosi, išties noriu atkurti dalykus, kuriuos matome gamtoje.
Kalbant konkrečiai apie kibernetinį saugumą, mes ieškome būdų pritaikyti DI kuriant geresnę apsaugą prieš užpuolikus ir užkertant kelią sutrikdymams, vagystėms ar kitai žalai. Kartais geriau giniesi tada, kai iš tiesų įsigilini, ką gali padaryti puolantieji – kad galėtum numatyti, kas bus, ir užbėgti tam už akių. Tad, mąstydami kaip užpuolikai ar kenkėjai, taip pat nagrinėjame, kaip vykdyti raudonųjų komandų (angl. red team) pratybas, kurių metu simuliuojamos kibernetinių sistemų atakos, ir kaip jas testuoti nepalankiausiomis sąlygomis (angl. stress test).
Ką manote apie šiandieninio DI, ypač generatyvinio, tokio kaip „ChatGPT“, saugumą?
Manau, kad saugumas yra esminis klausimas ir iššūkis, kalbant apie kai kuriuos naujausius generatyvinius DI. Egzistuoja rizika, kad jie priims sprendimą dideliu greičiu be žmogaus priežiūros. O jei tas sprendimas yra gyvybiškai svarbus kokio nors žmogaus ar sistemos saugumui, tuomet rizikuojame, kad jie kažkam pakenks padarydami klaidą. Tokia yra šiandieninė kalbos modelių saugumo bendra situacija. Mes juos nuolat naudojame, tačiau jei jų kruopščiai netikrinsime arba jei suteiksime jiems per didelę atsakomybę, tada rizikuosime, kad jie pasielgs nesaugiai.
Kokie yra didžiausi mitai arba klaidingi įsitikinimai apie DI saugumą?
Na, ar kada naudojotės dirbtinio intelekto sistema, pavyzdžiui, didžiuoju kalbos modeliu? Argi ji neįtikina jūsų, kad ji labai protinga arba jus netgi mėgsta? Atrodo, lyg ji turėtų emocijas ir pažiūras. Manau, tai yra vienas iš iššūkių: pokalbių robotai yra sužmoginami, nors iš tiesų jie yra tik mašinos. Mes juos vadiname tikimybinėmis papūgomis: tam tikra prasme, jie yra tik statistiniai pranašautojai, kurie žvelgia į ateitį remdamiesi dideliais informacijos kiekiais apie tai, kas nutiko praeityje. Jie neturi gilaus supratimo, tačiau sudaro įspūdį, kad turi. Rizika yra ir tada, kai paaugliai bendrauja su pokalbių robotais vietoje savo draugų, ir tada, kai pasitikime mašinos priimtu sprendimu. Žinai, kad reiktų jos atsakymą patikrinti, tačiau netikrini, nes pasitikėti yra žmogaus prigimtis, arba tiesiog skubi ir neturi tam laiko.
Galbūt yra subtilesnių, mažiau žinomų pavojų ir grėsmių, kurias kelia DI?
Žmonės, keliantys grėsmę mūsų kibernetinėms sistemoms, taiko DI tam, kad padidintų savo produktyvumą, vykdytų greitesnes ir dažnesnes atakas, galbūt lengviau prisitaikytų, nes DI gali padėti jiems rengiant strategijas ir taisykles.
Dar viena subtilybė slypi tame, kad didieji kalbos modeliai pasižymi vidiniu šališkumu: jie teikia pirmenybę patirtims, išreikštoms duomenyse, kurie buvo naudojami juos apmokant. Jei to šališkumo nežinote, negalite suprasti konteksto, kuriame tas modelis pateikia jums savo atsakymus. Pradžioje, galėjome „ChatGPT“ užduoti klausimą su keturiais atsakymo variantais ir jis pasirinkdavo C. Ne todėl, kad tas variantas buvo teisingas, bet todėl, kad testuose C atsakymas buvo dažniau teisingas už kitus. Dabar jau yra atlikta daug darbo, siekiant panaikinti šį šališkumą. Tai šių laikų iššūkis, kurį labai aktyviai sprendžia visų modelių kūrėjai.
Jūsų veikla susijusi su kibernetiniu saugumu. Kokias naujas grėsmes galite išskirti, kurių turėtume ypač saugotis internete?
Didelę grėsmę kelia netikri vaizdai ir vaizdo įrašai, naudojami taip vadinamoje socialinėje inžinerijoje. Manau, kad kenkėjams bus lengviau kurti tikroviškai atrodančias apgavystes, kurios įtikina jus atiduoti savo slaptažodį arba suteikti prieigą prie kažko, ko kitiems pasiekti nederėtų. Naujoji grėsmė yra ne tik apgaulės kokybė, bet ir kaip greitai jie gali reaguoti bei labai įtikinančiai klaidinti.
Kokie įgūdžiai, Jūsų manymu, yra svarbiausi tiems, kurie norėtų dirbti DI arba kibernetinio saugumo srityje?
Kibernetinis saugumas ir DI reikalauja matematikos ir informatikos žinių, tačiau šiose srityse taip pat veikia daugiadisciplininės komandos, kurios tyrinėja DI psichologiją, DI sprendimų priėmimo etiką ir teisines pasekmes. Nemanau, kad norint dabar dirbti su DI būtinas informatikos ar inžinerijos išsilavinimas: galima ženkliai prisidėti ir žvelgiant iš įvairių kitų mokslų perspektyvos.
Ką manote apie dirbtinio intelekto ateitį? Kaip mes jį naudosime po dešimties ar dar daugiau metų?
Kai mąstau optimistiškai, matau, kad DI turi potencialo pakeisti pasaulį labai teigiama prasme. Jis gali padėti mums vykdyti mokslinę veiklą gerokai greičiau, atrasti naujus dalykus pasitelkiant matematiką, spręsti kai kuriuos milžiniškus šiandieninio pasaulio iššūkius. Nėra jokios abejonės, kad DI yra vertingas kalbant apie produktyvumą ir inovacijas.
Jis taip pat suteikia prieinamumą: norint naudoti šiandieninį DI, tau nereikia daug techninių žinių, gali vartoti savo natūralią kalbą. Tiesiog neįtikėtina: tu gali bendrauti su kompiuterine sistema naudodamas savo gimtąją kalbą ir ji tave supras. Prieš atsirandant generatyviniam DI, tą daryti sekėsi sunkiau. Taip padidinome prieinamumą prie išties produktyvios technologijos, tad, kalbant apie jos taikymą sprendžiant problemas, esu nusiteikusi labai optimistiškai.
Tuo pat metu esu ir kiek atsargesnė, nes žinau, kad tai labai galinga technologija, kuri tobulėja ir kinta labai greitai. Ji reikalauja ne tik mokslininkų ir inžinierių, tačiau visos visuomenės, skirtingų perspektyvų indėlio sprendžiant, kaip ją naudoti atsakingai. Turime būti sąmoningi ir kruopštūs, jei norime išnaudoti šią galimybę tinkamai.
Ar galite pasidalinti savo vykdomų tyrimų praktiniais pavyzdžiais, įdomiais atradimais ar kažkuo, kas neseniai nustebino?
Maždaug prieš dešimt metų pradėjome naudoti atvirojo kodo informaciją, kuri buvo labai silpnai susieta, buvo nepatogu ją naudoti: reikėjo atidaryti daug langų, naršyti pirmyn atgal. Tai buvo šaltiniai, apibūdinantys kenkėjišką elgseną: prieš mus nukreiptą taktiką, metodus, puolimo modelius ir strategijas, netgi mūsų sistemų silpnąsias vietas. Nutarėme problemos atsikratyti: surinkome visus tuos įrašus ir sukūrėme didelę schemą, kurioje kiekvienas įrašas buvo mazgas, o kiekviena nuoroda, kurią paspaudi, tapo sąsaja tarp jų. Tai leido mums turėti visą informaciją vienoje vietoje.
Žinojome, kad tai padės mums mąstyti ne tik apie tai, kas nutinka, kai kažkas užpuola. Atakos metu matai tik tai, kas vyksta tavo kompiuteryje, nematai užpuolikų planų, kokią taktiką jie taikė arba kokias silpnybes išnaudojo. Tikėjomės, kad tą padaryti pavyks suvedus tą informaciją į schemą, sujungus skirtingus komponentus.
Visai neseniai mums pavyko susieti tos schemos duomenų bazę su kalbos modeliu: staiga mes turėjome galimybę kalbėti su ja angliškai ir ji galėjo mums atsakyti. Tai išties įdomu. Gali pasakyti „Štai ko mums reikia“ ir gauti suformuotą užklausą raštu. Be to, galime naudoti kalbos modelį informacijos tyrinėjimui, paprašyti, kad ją vizualizuotų, interpretuotų. Šio naudingo DI įrankio dėka, mūsų rankose atsidūrė milžiniškas duomenų kiekis. Labai džiaugiuosi, kad prieš dešimt metų įdėtas laikas ir darbas atsipirko ir virto apčiuopiamais rezultatais.
Konferenciją „Žmogiškos ir daugiau nei žmogiškos ateitys: technologinės inovacijos bendrabūviui kurti“ organizavo Lietuvos konsorciumas, ją rėmė Lietuvos mokslo taryba ir „Northway Biotech“.
Lietuvos konsorciumo, bendradarbiaujančio su MIT, nariai: koordinatorius – Vytauto Didžiojo universitetas, Kauno technologijos universitetas, Klaipėdos universitetas, Vilniaus universitetas, Vilniaus Gedimino technikos universitetas, Vilniaus dailės akademija, Lietuvos agrarinių ir miškų mokslų centras, Lietuvos energetikos institutas, AB „Ignitis grupė“, LTG grupė, UAB „Euromonitor International – Eastern Europe“ ir UAB „Novian“.