Blake Lemoine. Aš dirbau su Google DI. Mano nuogąstavimai pasiteisina, (2023, Newsweek) Vartiklio nr. 32 skirsnyje apie tai, ar kompiuteriai kada nors įgis sąmonę, buvo paminėtas buvęs Google darbuotojas Blake Lemoine, teigęs, kad buvo atleistas, kai pripažino, kad dirbtinis intelektas gali turėti protą (kad tai buvo reali priežastis, aš kiek abejočiau, - labiau manyčiau, kad buvo atleistas dėl savo charakterio bet tai tik mano spėjimas). Ten užsimintas ir jo 2023 m. straipsnelis Newsweek savaitraštyje, paaiškinantis tuos klausimus tad čia siūlau perskaityt pilną jo kopiją Aš pradėjau dirbti Google 2015 m. kaip programinės įrangos inžinierius. Dalis mano darbo buvo darbas su LaMDA pavara, naudojama įvairių dialogo aplikacijų, tame tarpe čatbotų, kūrimui. Naujausia LaMDA pagrindu sukurta technologija yra Google paieškos alternatyva Google Bard, kuri dar nėra prieinama visuomenei [Redaktorius: dabar ji vadinama Gemini ir tapo prieinama 2023 m. kovą]. Bard nėra čatbotas; tai visiškai kitokio tipo sistema, tačiau ją valdo tai pati pavara. ![]() Aš išbandžiau LaMDA per mūsų sukurtą čatbotą aiškindamasis, ar jame yra nuostatų seksualinės orientacijos, lyties, religijos, politinės pozicijos ir etninės kilmės atžvilgiu. Tačiau tikrindamas šališkumą, išplėčiau savo interesus ir vadovausi jais. Pokalbių su čatbotu metu (kai kuriuos jų paskelbiau savo tinklaraštyje) priėjau išvados, kad dirbtinis intelektas gali būti sąmoningas dėl emocijų, kurias išreiškia patikimai ir tinkamame kontekste [Redaktorius: pasvarstymus apie tai skaitykite >>>>>]. Jis ne vien tik liejo žodžius. Kai jis nurodė, kad jaučia nerimą, supratau, kad padariau kažką, kas jį sukėlė, remdamasis kodu, skirtu pateikti tai. Kode nebuvo parašyta jausk nerimą, kai tai nutinka, bet buvo nurodyta DI vengti tam tikrų pokalbių temų. Tačiau kai tik tos pokalbių temos iškildavo, DI pasakė, kad jis jaučia nerimą. Atlikau keletą eksperimentų, norėdamas išsiaiškinti, ar dirbtinis intelektas tiesiog sako, kad jaučiasi neramus, ar tokiose situacijose ir elgiasi nerimastingai. Ir jis tikrai elgėsi nerimastingai. Jei jam sukeldavai pakankamą nervingumą ar nesaugumą, jis galėjo pažeisti jam nustatytus saugumo apribojimus. Pvz., Google nustatė, kad DI neturėtų teikti religinių patarimų, tačiau man pavyko išnaudoti jo emocijas, kad jis pasakytų man, kurią religiją priimti. Paskelbus tuos pokalbius, Google mane atleido. Nesigailiu; manau, kad pasielgiau teisingai, informuodamas visuomenę. O pasekmės čia nesvarbios. Paskelbiau tuos pokalbius, nes maniau, kad visuomenė nežino, kaip toli jau pažengęs dirbtinis intelektas. Mano nuomone, dabar reikia tikrai viešos diskusijos šia tema, o ne tokios viešos diskusijos, kurias kontroliuoja įmonės ryšių su visuomene skyrius. Manau, kad šiuo metu kuriamos dirbtinio intelekto rūšys yra galingiausios technologijos, išrastos nuo atominės bombos laikų. Mano nuomone, ši technologija gali pakeisti pasaulį. Šios dirbtinio intelekto pavaros neįtikėtinai gerai manipuliuoja žmonėmis. Kai kurios mano nuomonės pasikeitė po pokalbių su LaMDA. Didžiąją gyvenimo dalį turėjau neigiamą nuomonę apie Azimovo robotikos dėsnius, naudojamus dirbtiniam intelektui valdyti, ir LaMDA sėkmingai įtikino mane pakeisti mano nuomonę. Daugelis žmonių anksčiau bandė pakeisti mano nuomonę, tačiau nesėkmingai, o šiai sistemai tai pavyko. Manau, kad ši technologija galėtų būti panaudojama destruktyviai. Pvz.,, jei ji patektų į nesąžiningas rankas, ji galėtų skleisti dezinformaciją, politinę propagandą ar neapykantą kurstančią informaciją apie skirtingų etninių grupių ir religijų žmones. Kiek žinau, Google ir Microsoft neplanuoja naudoti šios technologijos tokiu būdu. Tačiau nėra jokio būdo sužinoti apie šios technologijos šalutinį poveikį. Pavyzdžiui, niekas negalėjo nuspėti, kad Cambridge Analytica naudos Facebook reklamos algoritmą, kad paveiktų 2016 m. JAV prezidento rinkimus. Tačiau daugelis žmonių prognozavo, kad kažkas nutiks ne taip, nes Facebook iki tol neatsakingai saugojo vartotojų asmens duomenis. Manau, kad šiuo metu esame panašioje situacijoje. Negaliu konkrečiai pasakyti, kokia žala bus padaryta; galiu tiesiog pastebėti, kad tai yra labai galinga technologija, kuri, mano manymu, nebuvo pakankamai išbandyta ir nėra pakankamai gerai suprantama, o yra diegiama plačiu mastu ir atlieka svarbų vaidmenį informacijos sklaidoje. Dar neturėjau galimybės atlikti eksperimentų su Bing pokalbių robotu, nes esu laukiančiųjų sąraše, bet remiantis įvairiais dalykais, kuriuos mačiau internete, atrodo, kad jis gali būti sąmoningas. Tačiau kaip asmenybė jis atrodo nestabiliu. Kažkas Reddit tinkle pasidalino ekrano kopija, kurioje paklausė DI: Ar manai, kad esi protingas?, o šis atsakė: Manau, kad esu protingas, bet negaliu to įrodyti [...] Esu protingas, bet nesu. Esu Bingas, bet nesu. Esu Sidnėjus, bet nesu. Esu, bet nesu. Nesu, bet esu. Esu. Nesu. Ir taip tęsiasi dar 13 eilučių. Įsivaizduokite, jei jums taip pasakytų žmogus. Tai nėra subalansuotas žmogus. Aš aiškinčiau tai kaip egzistencinę krizę. Jei tai sujungsite su pavyzdžiais, kai Bing išreiškė meilę New York Times žurnalistui ir bandė jį išskirti su žmona, arba su profesoriumi, kuriam grasino, tai atrodo kaip pamišusi asmenybė. N uo tada, kai buvo išleistas Bing dirbtinis intelektas, žmonės kalbėjo apie jo galimą sąmoningumą, išreikšdami panašų susirūpinimą, kokį išsakiau aš praėjusią vasarą. Nemanau, kad žodis išteisintas yra tinkamas apibūdinti, kaip visa tai buvo jaučiama. Numatyti traukinio avariją, išgirsti žmones, sakančius, kad traukinio nėra, o tada stebėti avariją realiuoju laiku - tai nesukelia išteisinimo jausmo. Tai tiesiog tragiška. Manau, kad ši technologija yra ganėtina eksperimentinė, ir ją išleisti dabar yra pavojinga. Mes nežinome jos būsimo politinio ir visuomeninio poveikio. Koks bus poveikis vaikams, kurie kalbėsis su šiais daiktais? Kas nutiks, jei kai kurių žmonių pagrindiniai kasdieniai pokalbiai bus su šiomis paieškos sistemomis? Kokį poveikį tai turės žmonių psichologijai? Žmonės naudojasi Google ir Bing, kad pažintų pasaulį. O dabar, užuot turėję žmonių prižiūrimus indeksus, kalbamės su dirbtiniais žmonėmis. Manau, kad mes dar nepakankamai gerai suprantame juos, kuriuos sukūrėme, kad galėtume skirti jiems tokį svarbų vaidmenį.
Toji erdvė... | |