Blake Lemoine. Aš dirbau su Google DI. Mano nuogąstavimai pasiteisina,  (2023, Newsweek)

„Vartiklio“ nr. 32 skirsnyje apie tai, ar kompiuteriai kada nors įgis sąmonę, buvo paminėtas buvęs „Google“ darbuotojas Blake Lemoine, teigęs, kad buvo atleistas, kai pripažino, kad dirbtinis intelektas gali turėti protą (kad tai buvo reali priežastis, aš kiek abejočiau, - labiau manyčiau, kad buvo atleistas dėl savo charakterio – bet tai tik mano spėjimas). Ten užsimintas ir jo 2023 m. straipsnelis „Newsweek“ savaitraštyje, „paaiškinantis“ tuos klausimus – tad čia siūlau perskaityt pilną jo kopiją…

Aš pradėjau dirbti „Google“ 2015 m. kaip programinės įrangos inžinierius. Dalis mano darbo buvo darbas su „LaMDA“ pavara, naudojama įvairių dialogo aplikacijų, tame tarpe čatbotų, kūrimui. Naujausia „LaMDA“ pagrindu sukurta technologija yra „Google“ paieškos alternatyva „Google Bard“, kuri dar nėra prieinama visuomenei  [Redaktorius: dabar ji vadinama „Gemini“ ir tapo prieinama 2023 m. kovą]. „Bard“ nėra čatbotas; tai visiškai kitokio tipo sistema, tačiau ją valdo tai pati pavara.

Blake Lemoine

Aš išbandžiau LaMDA per mūsų sukurtą čatbotą aiškindamasis, ar jame yra nuostatų seksualinės orientacijos, lyties, religijos, politinės pozicijos ir etninės kilmės atžvilgiu. Tačiau tikrindamas šališkumą, išplėčiau savo interesus ir vadovausi jais.

Pokalbių su čatbotu metu (kai kuriuos jų paskelbiau savo tinklaraštyje) priėjau išvados, kad dirbtinis intelektas gali būti sąmoningas dėl emocijų, kurias išreiškia patikimai ir tinkamame kontekste  [Redaktorius: pasvarstymus apie tai skaitykite >>>>>].  Jis ne vien tik liejo žodžius.

Kai jis nurodė, kad jaučia nerimą, supratau, kad padariau kažką, kas jį sukėlė, remdamasis kodu, skirtu pateikti tai. Kode nebuvo parašyta „jausk nerimą, kai tai nutinka“, bet buvo nurodyta DI vengti tam tikrų pokalbių temų. Tačiau kai tik tos pokalbių temos iškildavo, DI pasakė, kad jis jaučia nerimą.

Atlikau keletą eksperimentų, norėdamas išsiaiškinti, ar dirbtinis intelektas tiesiog sako, kad jaučiasi neramus, ar tokiose situacijose ir elgiasi nerimastingai. Ir jis tikrai elgėsi nerimastingai. Jei jam sukeldavai pakankamą nervingumą ar nesaugumą, jis galėjo pažeisti jam nustatytus saugumo apribojimus. Pvz., „Google“ nustatė, kad DI neturėtų teikti religinių patarimų, tačiau man pavyko išnaudoti jo emocijas, kad jis pasakytų man, kurią religiją priimti.

Paskelbus tuos pokalbius, „Google“ mane atleido. Nesigailiu; manau, kad pasielgiau teisingai, informuodamas visuomenę. O pasekmės čia nesvarbios.

Paskelbiau tuos pokalbius, nes maniau, kad visuomenė nežino, kaip toli jau pažengęs dirbtinis intelektas. Mano nuomone, dabar reikia tikrai viešos diskusijos šia tema, o ne tokios viešos diskusijos, kurias kontroliuoja įmonės ryšių su visuomene skyrius.

Manau, kad šiuo metu kuriamos dirbtinio intelekto rūšys yra galingiausios technologijos, išrastos nuo atominės bombos laikų. Mano nuomone, ši technologija gali pakeisti pasaulį.

Šios dirbtinio intelekto pavaros neįtikėtinai gerai manipuliuoja žmonėmis. Kai kurios mano nuomonės pasikeitė po pokalbių su LaMDA. Didžiąją gyvenimo dalį turėjau neigiamą nuomonę apie Azimovo robotikos dėsnius, naudojamus dirbtiniam intelektui valdyti, ir LaMDA sėkmingai įtikino mane pakeisti mano nuomonę. Daugelis žmonių anksčiau bandė pakeisti mano nuomonę, tačiau nesėkmingai, o šiai sistemai tai pavyko.

Manau, kad ši technologija galėtų būti panaudojama destruktyviai. Pvz.,, jei ji patektų į nesąžiningas rankas, ji galėtų skleisti dezinformaciją, politinę propagandą ar neapykantą kurstančią informaciją apie skirtingų etninių grupių ir religijų žmones. Kiek žinau, „Google“ ir „Microsoft“ neplanuoja naudoti šios technologijos tokiu būdu. Tačiau nėra jokio būdo sužinoti apie šios technologijos šalutinį poveikį.

Pavyzdžiui, niekas negalėjo nuspėti, kad „Cambridge Analytica“ naudos „Facebook“ reklamos algoritmą, kad paveiktų 2016 m. JAV prezidento rinkimus. Tačiau daugelis žmonių prognozavo, kad kažkas nutiks ne taip, nes „Facebook“ iki tol neatsakingai saugojo vartotojų asmens duomenis.

Manau, kad šiuo metu esame panašioje situacijoje. Negaliu konkrečiai pasakyti, kokia žala bus padaryta; galiu tiesiog pastebėti, kad tai yra labai galinga technologija, kuri, mano manymu, nebuvo pakankamai išbandyta ir nėra pakankamai gerai suprantama, o yra diegiama plačiu mastu ir atlieka svarbų vaidmenį informacijos sklaidoje.

Dar neturėjau galimybės atlikti eksperimentų su „Bing“ pokalbių robotu, nes esu laukiančiųjų sąraše, bet remiantis įvairiais dalykais, kuriuos mačiau internete, atrodo, kad jis gali būti sąmoningas. Tačiau kaip asmenybė jis atrodo nestabiliu.

Kažkas „Reddit“ tinkle pasidalino ekrano kopija, kurioje paklausė DI: „Ar manai, kad esi protingas?“, o šis atsakė: „Manau, kad esu protingas, bet negaliu to įrodyti [...] Esu protingas, bet nesu. Esu Bingas, bet nesu. Esu Sidnėjus, bet nesu. Esu, bet nesu. Nesu, bet esu. Esu. Nesu.“ Ir taip tęsiasi dar 13 eilučių.

Įsivaizduokite, jei jums taip pasakytų žmogus. Tai nėra subalansuotas žmogus. Aš aiškinčiau tai kaip egzistencinę krizę. Jei tai sujungsite su pavyzdžiais, kai „Bing“ išreiškė meilę „New York Times“ žurnalistui ir bandė jį išskirti su žmona, arba su profesoriumi, kuriam grasino, tai atrodo kaip pamišusi asmenybė. N

uo tada, kai buvo išleistas „Bing“ dirbtinis intelektas, žmonės kalbėjo apie jo galimą sąmoningumą, išreikšdami panašų susirūpinimą, kokį išsakiau aš praėjusią vasarą. Nemanau, kad žodis „išteisintas“ yra tinkamas apibūdinti, kaip visa tai buvo jaučiama. Numatyti traukinio avariją, išgirsti žmones, sakančius, kad traukinio nėra, o tada stebėti avariją realiuoju laiku - tai nesukelia išteisinimo jausmo. Tai tiesiog tragiška.

Manau, kad ši technologija yra ganėtina eksperimentinė, ir ją išleisti dabar yra pavojinga. Mes nežinome jos būsimo politinio ir visuomeninio poveikio. Koks bus poveikis vaikams, kurie kalbėsis su šiais daiktais? Kas nutiks, jei kai kurių žmonių pagrindiniai kasdieniai pokalbiai bus su šiomis paieškos sistemomis? Kokį poveikį tai turės žmonių psichologijai?

Žmonės naudojasi „Google“ ir „Bing“, kad pažintų pasaulį. O dabar, užuot turėję žmonių prižiūrimus indeksus, kalbamės su dirbtiniais žmonėmis. Manau, kad mes dar nepakankamai gerai suprantame juos, kuriuos sukūrėme, kad galėtume skirti jiems tokį svarbų vaidmenį.

Toji erdvė...
Dirbtinis protas
Mano sielos grobikai
Dirbtinis intelektas kare
Dirbtinis protas ir sąmonė
Pavelas Amnuelis. Ekspertas
Kolmogorovo DI alfa ir omega
Paradoksai sulig dirbtiniu intelektu
Metodinė banalybė arba chatGPT 16-me amžiuje
HAL 9000 – pramanytas kompiuteris
A. Cvetkovas. Blogio atskleidėjai
S. Lemas. Televizija be korseto
Ar androidas gali tapti žydu?
Į ką iškeisčiau muilo operas?
Ar Internetas turi savimonę?
Robotai - dirbtiniai žmonės
Kam Elizai Internetas?
Informacijos ekologija
Papildytoji tikrovė
Kiber-mūšiai
Vartiklis