Atsargiai – šis tekstas sugeneruotas „ChatGPT“, arba Kada dirbtinio intelekto naudojimą reikėtų riboti?

Australijoje Viktorijos valstijos vaikų apsaugos agentūrai buvo nurodyta uždrausti savo darbuotojams naudotis generatyviniais dirbtinio intelekto (Gen DI) įrankiais po to, kai buvo nustatyta, kad darbuotojas į „ChatGPT“ suvedė daug asmeninės informacijos, įskaitant rizikos grupės vaiko duomenis, pasakoja advokatų kontoros „TGS Baltic“ partneris Mindaugas Civilka.

Australijos Informacijos Komisaro tarnyba (Office of the Victorian Information Commissioner - OVIC) rugsėjo mėnesį paskelbė nustačiusi, kad vaikų apsaugos agentūros darbuotojas naudojosi „ChatGPT“, rengdamas teismui vaiko teisių apsaugos institucijos ataskaitą dėl mažamečio, kurio tėvams buvo pateikti kaltinimai dėl lytinių nusižengimų.

Kuo įdomus ir svarbus šis atvejis mums? 

Pirma, ataskaitoje buvo daug akivaizdžių požymių, atskleidusių, jog buvo naudotasi „ChatGPT“: 

  • vartota vaikų apsaugos institucijoms nustatytų gairių neatitinkanti kalba;
  • vartota dirbtinė, netinkama sakinių struktūra;
  • faktai vertinti taip, kaip jų nebūtų įvertinęs tyrimą atlikęs žmogus. Pavyzdžiui, lėlė, kurią tėvas naudojo seksualiniais tikslais, įvertinta kaip „vaiko žaislas“ ir įrodymas, jog tėvai deda pastangas palaikyti vaiko vystymosi poreikius, parinkdami „amžių atitinkančius žaislus“.

Antra, su „ChatGPT“ pagalba parengtoje ataskaitoje buvo sumenkintas esamo ar galimo pavojaus vaikui rimtumas, o tai galėjo turėti įtakos sprendimams dėl vaiko priežiūros. Tiesa, šie ataskaitos trūkumai galiausiai nepakeitė teismo sprendimo dėl vaiko.

Trečia, į „ChatGPT“ užklausą įvedant asmeninę ir jautrią informaciją apie motiną, tėvą, globėją ir vaiką, ši informacija buvo be pakankamo pagrindo atskleista „OpenAI“.

Ketvirta, institucija neturėjo tvarkos, kuri leistų atsekti ir tinkamai kontroliuoti darbuotojų į „ChatGPT“ įvedamą informaciją, ir pan. Ir tai yra rimta problema, būdinga daugeliui įmonių – tuo atveju, kai darbuotojai asmeniniais ar profesiniais tikslais naudoja Gen DI įrankius, darbdavys turi labai ribotas galimybes patikrinti jų asmeninėje paskyroje atliekamus veiksmus.

OVIC atlikus tyrimą, apklausus institucijos darbuotojus ir patikrinus per pastaruosius metus sugeneruotas ataskaitas, rasta virš 100 GPT panaudojimo atvejų skirtinguose dokumentuose. DI panaudojimą išdavė utopiniai, nerealistiški aprašymai (pvz., šeimos gyvenamosios vietos aprašymas: „Svetainėje – žaislų, drabužių ir išmėtytų popierių labirintas <...> . <..> kilimai dėmėti ir nusėti šiukšlėmis, o ore tvyrojo sunkus pelėsių kvapas“ (aut. vert.)), sofistikuota, gyvenime nenaudojama kalba.  

Tai toli gražu ne pirmas atvejis, kai viešasis sektorius apriboja ar net uždraudžia Gen DI panaudojimą tarnybiniais tikslais. Pavyzdžiui, 2024 m. kovą JAV Kongreso darbuotojams uždrausta naudotis „Microsoft“ „Copilot“ valdiškuose įrenginiuose; be to, pati „OpenAI“ metų pradžioje paskelbė, kad draus jos produktus naudoti lobistams ir politikams rinkimų kampanijos tikslais (dėl kibernetinio saugumo) ir kt.

Nesaikingas naudojimas tikrai gali sukelti neigiamą poveikį

  • Draudimai retai kada būna veiksmingi, tad ilgalaikė strategija turi būti grįsta ne DI draudimu, o aiškių taisyklių ir kontrolės priemonių nustatymu.
  • Organizacijoms būtina turėti aiškias vidines tvarkas, politiką ir taisykles dėl Gen DI naudojimo darbinėje veikloje:
    • Leistini / neleistini panaudojimo atvejai;
    • Ribojimai / draudimai dėl asmens duomenų ir kitų jautrių duomenų pateikimo į DI užklausas;
    • Išsamūs darbuotojų apmokymai, kaip dirbti su užklausomis, kaip formuluoti užduotis ir klausimus, kaip dirbti su Gen DI įrankių rezultatais, praktinių įgūdžių testavimai, žinių patikrinimas;
    • Organizacijos DI paskyros vs. asmeninės paskyros – ribojimai naudoti asmenines paskyras darbiniais tikslais;
    • aiški organizacijos GPT paskyrų naudojimo auditavimo / patikrinimo tvarka.
  • Gen DI nėra skirtas pateikti teisingus atsakymus. Gen DI sistemos daro klaidų, todėl itin svarbu kritiškai vertinti rezultatų tikslumą prieš pasikliaujant modeliu, ypač, kai DI sistemos naudojamos sprendimams, turintiems įtakos žmonėms, jų socialinei, ekonominei padėčiai.
  • Gen DI įrankiai yra nuostabūs pagalbininkai atliekant įvairias technines ar šablonines užduotis (pvz., santraukos, informacijos sisteminimas, vertimai, šabloniniai atsakymai, kt.), tačiau netinkami (be žmogaus patikros ir ženklaus įsikišimo) tais atvejais, kai eina kalba apie žmogiškųjų santykių, socialinių ryšių vertinimą, apie žmogaus elgesio kultūrinius, emocinius ir psichologinius aspektus, kitais atvejais, kai būtina socialinė empatija ir pan.
  • Gen DI įrankiai iš esmės netinka tais atvejais, kai norite sukurti autentišką turinį, kuris perteikia Jūsų emocijas ar pasaulėvaizdį; autentiškas, nors ir ne toks sklandus ar gramatiniu požiūriu išbaigtas, turinys yra kur kas paveikesnis, kadangi perteikia žmogiškąją emociją.
  • Gen DI įrankiai ne visuomet tinka mokymams. Pvz., kai asmuo pats formuluoja savo mintis ir bando analizuoti faktus, ugdomi ir palaikomi kognityviniai gebėjimai, o Gen DI pateikiami rezultatai neskatina kvestionuoti, analizuoti ar suprasti, todėl tokį rezultatą mašinaliai įkopijavus į atsakymą gali būti praleista svarbi mokymosi proceso dalis.
  • Jeigu pasižymėjome kelias mintis, akcentus, kartais geriau klientui ar kolegai ir nusiųskime būtent tas trumpas mintis / akcentus, o ne tekstą, kurį pagal Jūsų mintis sugeneravo GPT. Tikėtina, kad teksto gavėjas pasitelks tą patį GPT tam, kad iš jūsų gautą sintetinį tekstą vėl paverstų keliais aiškiais ir paprastais punktais.

Tad vartokime Gen DI įrankius, tačiau tai darykime atsakingai ir rūpestingai. Nesaikingas naudojimas gali sukelti neigiamą poveikį Jums ir Jūsų artimiesiems.

Pranešimą paskelbė: TGS Baltic
„BNS Spaudos centre“ skelbiami įvairių organizacijų pranešimai žiniasklaidai. Už pranešimų turinį atsako juos paskelbę asmenys bei jų atstovaujamos organizacijos.
2024-10-15 09:00
Socialinė sauga ITT
Kontaktinis asmuo
Rusnė Marčėnaitė
Komunikacijos turinio vadovė
Comms on Duty
+37068748011
[email protected]
Prisegti failai