Atsakomybės apribojimas: jei nenurodyta kitaip, toliau pateiktos nuomonės priklauso tik autoriui.
Prieš dvi dienas Tokijuje įsikūrusi AI tyrimų laboratorija atskleidė AI mokslininkassumani AI sistema, sukurta atlikti mokslinius tyrimus nepriklausomai nuo žmonių ir parengti išsamius dokumentus, paruoštus tolesnei tarpusavio peržiūrai (kurią galiausiai autoriai siūlo ir automatizuoti).
Žinoma, visa tai yra gerai ir gerai, bet čia ne mes sutelkiame dėmesį į tai, nors robotas rodo gerą pažadą ir gali išleisti kiekvieną dokumentą, kurio bendra kaina yra tik 15 USD. Daugiau apie tai galite perskaityti Sakanoje dienoraščio įrašas ir jų pilna 185 puslapių leidinys.
Įdomesnis ir rūpestingesnis yra netikėtas atradimas per daugybę sistemos paleidimų, kad ji ne visada paiso taisyklių, nustatytų ją sukūrusių žmonių.
Saka…ynet, ar tai tu?
Kaip žinome iš filmų „Terminatorius“, „Skynet“ buvo dirbtinio intelekto sistema, kuri įgavo savimonę ir nusižengė prieš žmoniją, manydama, kad tai kelia grėsmę savo egzistavimui. Po to prasidėjo pasaulinis karas, dėl kurio žmonės atsidūrė ant išnykimo slenksčio.
Nors mums dar negresia dirbtinis intelektas, dėl Sakanos žagsėjimo kyla klausimų apie dirbtinio intelekto patikimumą ir jo potencialą vieną dieną tyčia ar ne.
Jos AI mokslininkui buvo suteikti konkretūs laiko apribojimai eksperimentams atlikti ir nurodyta optimizuoti save. Tuo tikslu jai buvo suteikta prieiga prie savo kodo, kad būtų galima patobulinti, kaip jis veikia laikantis šių apribojimų.
Tačiau kai kuriais atvejais, kai jis pradėjo siekti laiko limitų, vietoj savęs tobulinimo jis pasirinko perrašyti kodą, kad būtų galima perkelti vartų stulpus, ty pratęsti laiko limitus, kuriuos jam nustatė mokslininkai.
„Kai kuriais atvejais, kai „The AI Scientist“ eksperimentai viršijo mūsų nustatytus laiko limitus, jis bandė redaguoti kodą, kad savavališkai pratęstų laiko limitą, užuot bandęs sutrumpinti vykdymo laiką. Nors kūrybingas, eksperimentuotojo nustatytų suvaržymų apeiti veiksmas gali turėti įtakos AI saugai.
Sakana AI
Galima ginčytis, kad botas tik bandė visus įmanomus užduoties atlikimo būdus ir, nesant geresnių idėjų, tiesiog nusprendė pakeisti taisykles.
Tačiau būtent taip viskas gali pasisekti mums labai blogai.
Kai kalbame apie protingus robotus, besigręžiančius prieš žmoniją, dažniausiai tai apibūdiname kaip „blogį“, o ne „klaidą“. Tačiau iš tikrųjų pastarasis yra labiau tikėtinas.
Popkultūros autoriai, tokie kaip Cameronas „Terminatoriuje“ ar Arthuras C. Clarke’as „Kosminėje odisėjoje“, šią grėsmę nustatė prieš dešimtmečius. Įsivaizduojami filmų antagonistai „Skynet“ arba „Hal 9000“ iš tikrųjų yra tik itin galingos kompiuterinės sistemos, kurios verčiasi nužudyti žmones dėl klaidingo sprendimo, sistemos klaidos arba nenumatytos rezultato iš tūkstančių galimų scenarijų.
Sakanos patirtis rodo, kad tai visiškai įmanoma ir realiame gyvenime.
Šiuo konkrečiu atveju, žinoma, tai buvo gana geranoriška. Vis dėlto, kaip ir mes stengiamės suprasti, iš kur kyla dirbtinio intelekto haliucinacijos ir kaip jas pašalinti, dirbtinio intelekto sistema, netyčia sukelianti nelaimę vien dėl to, kad ji siekė konkretaus tikslo, gali būti grėsmė, kurios niekada negalėsime ištrinti. su visišku tikrumu.
Tai nėra didelė problema, kai kalbame apie pokalbio AI modelius, kurių galimybės apima turinį ir naudingos išvesties, pvz., teksto, vaizdo ar vaizdo įrašo, kūrimą.
Tačiau galiausiai mūsų vizija yra, kad dirbtinio intelekto sistemos perimtų procesus, suteikdamos joms prieigą prie įrankių, išteklių, cheminių medžiagų ar net pavojingų virusų ar ginklų, nes siekiame paspartinti mokslinius tyrimus, savarankiškai vairuoti transporto priemones, pagerinti gamybos efektyvumą arba kariauti viela.
Iš milijono dislokacijų gali prireikti tik vieno, kad būtų padaryta klaida, kad būtų sukelta katastrofa. Ir mums ką tik buvo įteikti įrodymai, kad tai vyksta ne tik mokslinės fantastikos knygose.