OpenAI: n uusi lähestymistapa yhden kuvan jäljitelmäoppimiseen, kurkistaa AI: n tulevaisuuteen

Yhden laukauksen jäljitelmäoppiminen Yan Duan, Marcin Andrychowicz, Bradly C. Stadie, Jonathan Ho, Jonas Schneider, Ilja Sutskever, Pieter Abbeel, Wojciech Zaremba

OpenAI-tutkijat jakoivat 16. toukokuuta videon yhdestä projektistaan ​​ja kaksi tärkeätä asiakirjaa, joissa tutkittiin ratkaisuja nykyisen AI-kehityksen kolmeen keskeiseen pullonkaulaan: metaoppiminen, yhden kuvan oppiminen ja automatisoitu tiedonkeruu. Edellisessä viestissäni lupasin artikkelin, joka on omistettu kiehtovalle yhden kuvan oppimisen ongelmalle, joten tässä tässä. Voit aloittaa katsomalla heidän julkaisemaansa videota, joka selittää heidän uskomattoman työnsa:

Tässä videossa näet yhden käsivarren fyysisen robotin, joka pinoaa kuutiot päällekkäin. Tietäen monimutkaiset tehtävät, jotka teollisuusrobotit tällä hetkellä pystyvät suorittamaan, jos tutkija ei yrittäisi selittää mitä tapahtuu, se olisi monissa tilissä monien tilien kohdalla erittäin alhairtaista. Hallitussa ympäristössä tehtävä on yksinkertainen, menettelylliset (koodatut) lähestymistavat ovat ratkaisseet tämän ongelman jo, ja lupaava ja vallankumouksellinen on se, kuinka paljon alla oleva yleinen kehys voisi skaalata useita, monimutkaisempia ja mukautuvampia käyttäytymisiä meluisimmissa ympäristöissä.

Ihmisen ja korkeampien eläinten välinen mielen ero, sellaisena kuin se on, on varmasti asteittainen ja ei luonteeltaan ero.
- Charles darwin

Analogisesti tämä artikkeli on vahva todiste siitä, että kognitiivisten järjestelmien erot nykyisen ruumiillistumisen (fyysisten järjestelmien tekoäly) ja 22. vuosisadan robotien välillä ovat mittakaavassa olevia ja eivät luonteeltaan eroja. Vuodesta 2012 ImageNet-kilpailusta * lähtien syvän oppimisen tutkimus on ollut kukoistavaa, ei niinkään muokatakseen hermoverkon tekemän hajautetun laskennan luonnetta, vaan etsimällä uusia tapoja rakentaa verkkoja, jotta ne voivat oppia tietyn tehtävän. Sillä hermoverkko-funktio on rakenne, tätä rakennetta ei ole kova koodattu (ei käsin suunnitellut), mutta tulojen ja lähtöjen välillä alun perin kytkettyjen atomien laskentayksiköiden tulokset pystyvät muuttamaan rakennettaan ja yhteyksiä. Se oppii tietyn toiminnon muuttamalla verkon kokonaisrakennetta.

Tässä artikkelissa he rakensivat yleisen kehyksen, joka pystyy kouluttamaan edustajan edustamaan tehtäviä abstraktilla tavalla ja oppimaan siirtämään tämän tiedon uusiin näkymättömiin tehtäviin (siirtämään oppimista) vain yhden uuden tehtävän esittelyn jälkeen (yhden kuvan jäljitelmäoppiminen).

Tehtävät

Vaikka tarkka arkkitehtoninen toteutus eroaa, he ottavat kaksi tehtävää esimerkkeinä yleisen lähestymistavan suorituskyvyn osoittamiseksi.

Hiukkasten tavoittaminen

Ensimmäisessä esimerkissä järjestelmä vastaanottaa värillisten kohdeasemien tuloja tasossa ja yhden videonäytön simuloidusta agenssista, joka menee määritettyyn kohteeseen.

Kuva 2. Robotti on pistemassa, jota ohjataan 2-ulotteisella voimalla. Tehtävien ryhmä on saavuttaa tavoitemerkki. Maamerkin identiteetti eroaa tehtävästä toiseen, ja mallin on mielenosoituksen perusteella selvitettävä, mitä tavoitetta on noudatettava. (vasen) kuva robotista; (keskellä) tehtävä on päästä oranssiin ruutuun, (oikealla) tehtävä on saavuttaa vihreä kolmio.

Harjoituksen aikana järjestelmän on toistettava sama tehtävä (saavuttava oranssi), mutta toisesta kokoonpanosta, robotin ja kohteiden eri lähtöasennoilla. Ei ole selvää, testataanko agentti testin aikana tehtävässä, johon hänet koulutettiin (päästä oranssiksi), vai tehtävässä, jota hän ei ollut koskaan nähnyt (esimerkiksi vihreänä), vai molemmissa.

Koulutettua politiikkaa arvioidaan uusien skenaarioiden perusteella ja ehdollisena uusiksi demonstraatioradaksi, joita ei ole nähty koulutuksen aikana.

On varmaa, että agentin on johdettava tavoitekohteet yksilöllisestä esittelystä ja aloitettava uudelleen toisesta kokoonpanosta. Tämä merkitsee sitä, että tarkkaa moottorijärjestystä ei olisi voinut oppia ennen testausta, ja se on johdettava tehtävän abstraktiolla (korkeamman tason rakenteellinen esitys) ja moottorin suunnittelulla.

Estä pinoaminen

Toisessa esimerkissä edustajan on opittava pinoamaan kuutioita (eri väreillä tunnistettuja) samassa järjestyksessä kuin yksi simuloidussa esittelyssä. Tämä simuloitu demonstraatio on sarja 3D-fysiikan moottorin tuottamaa 2D-kuvaa, jossa robotin moottorin ja aistilaitteen ominaisuudet on mallinnettu.

Yhden laukauksen politiikka. Yksi politiikka, joka on koulutettu ratkaisemaan monia tehtäviä. Päätehtävä: {abc, def}, Pohjatehtävä: {ab, cd, ef}

Molemmissa esimerkeissä kuutioiden aloitusasemat esittelyssä ja todellisessa testissä ovat erilaisia, kukin tehtävä alkaa toisesta alkuperäisestä sijainnista. Robotti ei yritä korvata kuutioita vastaamaan esittelyn alkuperäistä sijaintia, se siirtää korkeamman tason tehtävän pilotaa kuution riippumatta siitä missä tilassa hän aloittaa.

Koulutus verkkotunnuksen satunnaistamisen avulla

Molemmissa tapauksissa kaikki koulutuksen aikana käytetyt kuvat saadaan simuloimalla käyttämällä alueen satunnaistamista, jossa ne satunnaistavat seuraavat näytteiden näkökohdat:

Häiriötekijöiden lukumäärä ja muoto pöydällä Kaikkien pöydällä olevien esineiden sijainti ja rakenne Pöydän, lattian, taivaslaatikon ja robotin rakenteet Kameran sijainti, suunta ja näkökenttä Kameran valojen lukumäärä Kohta, suunta, ja valon spekulaariset ominaisuudet Kuviin lisätyn satunnaisen kohinan tyyppi ja määrä

Harjoittelusarja hiukkasten saavuttamiseksi

Pidämme entistä vaikeampaa tehtäväryhmien joukkoa, jossa maamerkkien lukumäärä kasvaa 2: sta 10: een. Kustakin tehtäväperheestä keräämme 10000 koulutusjaksoa, joissa maamerkkien sijainnit ja pisterobotin lähtökohta on satunnaistettu. Käytämme koodattua asiantuntijakäytäntöä tuottaaksemme mielenosoituksia tehokkaasti. Lisäämme melua trajektorioihin häiritsemällä laskettuja toimia ennen niiden soveltamista ympäristöön, ja käytämme yksinkertaista käyttäytymiskloonaamista neuroverkkopolitiikan kouluttamiseen

Harjoitussarja lohkojen pinoamiseksi

Konkreettisesti keräämme 140 harjoitustehtävää ja 43 testitehtävää, jokaisella on erilainen haluttu lohkojen asettelu. Jokaisessa tehtävässä olevien lohkojen lukumäärä voi vaihdella välillä 2-10. Keräämme koulutusta varten 1000 trajektoria kutakin tehtävää kohden ja ylläpidämme erillistä suuntaviivat ja alkuperäiset kokoonpanot arviointia varten. Kuten hiukkasia saavuttava tehtävä, ruiskutamme melua etenemissuunnan keräysprosessiin. Suuntaviivat kerätään käyttämällä koodattua käytäntöä.

Onnistuneet mielenosoitukset kerätään kovakoodatulla käytännöllä

Huomaa, että oppimisen aikana oikeat reitit syntyvät prosessoidulla "koodatulla" politiikalla, joka perustuu mielestäni klassisiin tekniikoihin järjestelmän tunnistamiseen ja hallintaan. Joten koulutuksen ja testauksen aikana agentilla on kaksi sisääntuloa: a) demonstraatio konfiguraatiossa A ja b) aloituskonfiguraatio B. Vain harjoituksen aikana oppimisalgoritmilla on pääsy ihanteelliseen vasteeseen: konfiguraatiosta B alkava etenemissuunta, joka vastaa ongelmaan ja johon agentin vastausta verrataan oppimisen aikana - tekemällä siitä valvotun oppimisongelman.

Jokaiselle harjoitustehtävälle oletetaan, että käytettävissä on joukko onnistuneita demonstraatioita.

Jos se ei ole selvää, käsittelen seuraavassa osiossa eroja erityyppisten oppimisparadigmien välillä.

Optimointialgoritmi ja häviöfunktio

Ohjatulla oppimisella tarkoitetaan koulutusparadigmeja, joissa verkolla on jokaisessa päätöksessä oikea valinta, jonka hänen olisi pitänyt tehdä, ja siten virhekäsitys. Esimerkiksi koirien ja kissojen luokittelutehtävissä koirien ja kissojen kuvan merkinnät tunnetaan etukäteen ja virheet havaitaan välittömästi. Siinä mielessä se eroaa valvomattomasta oppimisesta, jossa yleensä edustajaa pyydetään löytämään aiemmin tuntematon rakenne vastaanotetuista syötteistä, ja ilman kissojen ja koirien merkintöjä olisi löydettävä, että on olemassa kaksi ryhmää eri esineitä, jotka perustuvat vain tietojen sisältämät tiedot. Se eroaa myös vahvistusoppimisesta, jota usein sovelletaan reaaliaikaiseen järjestelmään, jossa päämäärään johtavan päätöksen tarkkaa järjestystä ei tunneta, mutta vain lopullinen ”palkkio” päättää, onko järjestys oikea. Jäljitellen oppimisen avulla ne muuttavat klassisen vahvistusoppiongelman ohjattuksi oppimisongelmaksi, jossa virhe lasketaan etäisyydeltä havaittuun suuntaukseen.

Kuten minkä tahansa valvotun harjoitteluasettelun kohdalla, käsiteltävä tehtävä määritetään kokonaan häviöfunktiolla, jolla pyritään kvantifioimaan, kuinka kaukana agentti oli suunnitellusta käytöksestä. Tämän funktion määritteleminen on usein kriittinen vaihe, koska se määrittelee kuinka optimointialgoritmit päivittävät mallin parametreja. Nämä algoritmit ovat tärkeitä laskenta-ajan kannalta, ja vaativat usein jonkin verran säätämistä voidakseen lähentyä, jos ollenkaan. Itse asiassa ratkaisut, jotka minimoivat toiminnon erittäin korkeassa ulottuvuudessa, sijaitsevat parametritilan hyvin pienessä kuoressa, pienellä vasaraetäisyydellä niiden välillä, heti kun pääset pois tästä pienestä alueesta, ratkaisujen välinen etäisyys kasvaa nopeasti. Aiheesta löytyy paljon erittäin mielenkiintoista työtä, muun muassa erittäin upean Jennifer Chayesin tekemänä. Hän harjaa aihetta erittäin mielenkiintoisessa haastattelussa Talking Machinesin viimeisestä jaksosta.

Poliittisten verkostojen (koko verkko, joka pystyy päättämään panoksestaan ​​päättämään, mitkä toimet) koulutuksen aikana he prosessoivat ensin onnistuneen demonstraatioradan. Tätä varten he vertaavat kahta lähestymistapaa, klassista käyttäytymiskloonausta (eivät ole aivan varmoja käyttämässään toteutuksessa) ja DAGGER-algoritmeja. Tämä sallii sitten häviöfunktion iteratiivisen minimoimisen joko l2: n tai ristin entropian menetyksen perusteella sen perusteella, ovatko toimet jatkuvia vai erillisiä (perustuen sekvenssin tapahtumien jakautumiseen). Kaikissa kokeissa he käyttivät Adamax-algoritmia optimoinnin suorittamiseen 0,001 oppimisnopeudella.

Askelkoko alkaa pieneksi ja hajoaa eksponentiaalisesti.

Algoritmi ei sinänsä salli siirtoa, se on se, kuinka rakennat harjoittelujoukosi ja häviötoimintosi, mikä sallii siirron.

Tehtävissä on kahdenlaisia ​​siirtoja. Ensimmäiseen tyyppiin viitataan ”todellisuuskuilun kurottamisena”, se on oppimisen yleistäminen, joka antaa mahdollisuuden siirtyä simuloitujen panosten koulutuksen välillä luonnollisten ärsykkeiden testaamiseen. Simulaatiotiedot ovat usein köyhä likimääräisyys todellisesta maailmasta, liian täydellisiä, joista puuttuu todellisen esineen monimutkaisuus. Todellisessa maailmassa kamera voi olla viallinen ja meluisempi, moottorin ohjaus on vähemmän tarkka, värit muuttuvat, tekstuurit ovat rikkaampia jne. Tämän ensimmäisen siirron mahdollistamiseksi he käyttävät menetelmää, johon he viittaavat ”domain randomization”. : lisäämällä melua tuloihin verkko voi oppia yhteisen merkityksellisen rakenteen, jonka avulla se voi yleistyä asianmukaisesti todelliseen maailmaan. Ne esimerkiksi muuttavat kameran kulmaa harjoitteluesimerkkien välillä, muuttavat kuvioita tai tekevät radat vähemmän täydellisiksi. Lisäämällä melua harjoituksen aikana lisäämme tukevuutta.

Tässä testattu toinen siirto on kyky tuottaa merkityksellinen moottorisekvenssi aikaisemmin näkymättömässä kokoonpanon ja tavoitteen sarjassa perustuen yhteen demonstraatioon, joka alkaa toisesta alkuperäisestä konfiguraatiosta, mutta jolla on samanlainen lopullinen tavoite. Tässäkin siirto on jälleen mahdollista sen avulla, kuinka rakennamme harjoitusjoukon ja mallitsemme häviöfunktion. Esittämällä harjoittelun aikana demonstraatioita, jotka eivät aloita samasta alkuperäisestä ehdosta saavuttaa samanlainen tavoite, annat verkon oppia upottamaan tavoitteen korkeamman tason esitystä käyttämättä absoluuttisia paikkoja sekä korkeamman asteen esityksen moottorisekvenssi, joka ei ole yksinkertainen jäljitelmä. Naiivi alkuperäinen arkkitehtuuri mahdollistaa koulutuksen modifioida rakennetta tarkoituksenmukaisella tavalla, ja tämä koulutettu rakenne merkitsee viimeistä toimintoa.

tavoitteet

Pinoamisparadigman suhteen heillä oli useita rajoituksia, joita he halusivat oppilaitoksensa tapaavan.

Sitä tulisi olla helppo soveltaa tehtäväesimerkkeihin, joissa on eri määrä lohkoja.
Sen pitäisi luonnollisesti yleistyä saman tehtävän eri muodoiksi. Esimerkiksi käytäntöjen tulisi toimia hyvin tehtävässä {dcba}, vaikka sitä koulutettaisiin vain tehtävässä {abcd}.
Siihen tulisi mahtua vaihtelevan pituisia mielenosoituksia.

Heillä oli useita kysymyksiä, joihin he halusivat vastauksen tähän tehtävään.

Kuinka käyttäytymiskloonaamisella harjoittelu verrataan DAGGERiin, kun otetaan huomioon, että riittävästi tietoja voidaan kerätä offline-tilassa?
Kuinka koko demonstraation ilmastointi verrataan lopulliseen haluttuun kokoonpanoon mukauttamiseen, vaikka lopullisessa kokoonpanossa on tarpeeksi tietoa tehtävän määrittelemiseksi kokonaan?
Kuinka ilmastointia koko esittelyn aikana verrataan ilmastointiin tilannekuvassa, joka on pieni, osa informatiivisimmista kehyksistä
Voivatko kehysmme yleistyä tyyppisiin tehtäviin, joita se ei ole koskaan nähnyt koulutuksen aikana? (++)
Mitkä ovat menetelmän nykyiset rajoitukset?

Arkkitehtuuri

Hiukkasten saavuttaminen

Tässä ensimmäisessä esimerkissä he vertasivat kolme arkkitehtuuria, jotka kaikki perustuivat pitkäaikaiseen muistiin (LSTM) hermoverkkoihin. Näiden verkkojen kuvaus tulee tulevaisuuden muistiin ja huomioon liittyvään viestiin, jotka ovat ehdottoman kiehtovia aiheita sekä kognitiivisissa että laskennallisissa tieteissä. Pohjimmiltaan LSTM syöttää aikaisemmat verkkolähdöt (ajoissa) osana verkon tuloa jokaisessa uudessa ajankohdassa, jolloin aiempien tilojen tiedot voivat ilmoittaa nykyhetkelle (tästä johtuen lyhyen aikavälin muistiverkkojen nimensä). Ne ovat monien aikasarjoja käsittelevien uusimpien tekniikoiden perustana (Alexa, Siri jne.).

Tässä he käyttävät näitä kolmea erityisehtoa:

  1. Plain LSTM: oppii upottamaan suuntauksen ja nykyisen tilan syöttämään sen monikerroksiseen perceptroniin, joka tuottaa moottorin toiminnan
  2. LSTM huomion avulla: tuottaa painotettu esitys radan maamerkeistä
  3. Lopullinen tila huomioituna: käytä vain harjoittelussa lopputilaa, jotta saadaan maamerkkien painotus, kuten edellisessä arkkitehtuurissa

Estä pinoaminen

Vaikka periaatteessa geneerinen hermoverkko voisi oppia kartoituksen esittelystä ja nykyisestä havainnosta sopivaan toimintaan, piti tärkeänä käyttää sopivaa arkkitehtuuria. Arkkitehtuurimme lohkojen pinoamisen oppimiseksi on yksi tämän tutkimuksen pääpanoksista, ja uskomme sen edustavan sitä, mitkä arkkitehtuurit monimutkaisempien tehtävien yhden kuvan jäljittelyyn saattavat näyttää tulevaisuudessa.

Huomio-moduulit

Artikkeli on edelleen suhteellisen korkea kuvaamalla tehtävän oppimiseen käytettyjen verkkojen rakennetta. Keskeinen ainesosa arkkitehtuurissa on heidän huomioyksikkö, mutta uskon, että tämä aihe tarvitsee erityisen postin syvennyksen yksityiskohtaisesti sen olennaiseen rooliin. Jatkuvan huomion kognitiivisen tiedekonseptin analogisesti huomioyksiköitä käytetään pitämään ja keskittymään asiaan liittyviin tietoihin, jotka sisältyvät erilaisissa tilan ja ajan alueissa. Se tuottaa kiinteän kokoisen tulosteen, joka sisältää upotuksen tietosisällölle, joka oli venytetty ajassa ja tilassa. Analogialla topologiaan, matemaattisella haaralla, joka mielestäni antaa suuresti tietoa siitä, miten ymmärrämme hajautetut esitykset tulevaisuudessa, huomioverkosto suorittaa tiedon topologisen isomorfismin, sama kaarevuus, eri muoto. Huomaa, että nämä verkot eivät ole houkutusilmaisimen rooli, joka pystyy keskittymään odottamattomiin tai harvinaisiin tapahtumiin, mikä on neurotieteen huomion käsitykseen liittyvä toiminto.

Täällä he käyttävät kahden tyyppistä huomioverkkoa: a) ajallinen huomioverkko, joka tuottaa painotetun summan muistiin tallennetulle sisällölle (kysely, konteksti ja muistivektorit), ja b) naapurimaiden huomioverkko, joka pystyy palauttamaan lohkoon liittyvät tiedot paikat agentin nykyisestä kyselystä riippuen.

Ajallinen huomioverkko, jossa c: kontekstivektori, m: muistivektori, q: kyselyvektori, v: oppitun vektorin paino. Lähtö on samankokoinen kuin muistivektori. Se on niiden vektorien lineaarinen yhdistelmä, joka antaa joillekin muistivektoreille olla enemmän vaikutusta lähtöön konteksti- ja kyselyvektorien perusteella.Sama idea, paikkatietojen välinen kilpailu ylläpidetään dynaamisesti huomiojärjestelmän avulla.

Politiikkaverkko

Koko verkko koostuu kolmesta eri aliverkosta: demonstrointiverkosta, kontekstiverkosta ja manipulointiverkosta.

Demonstraatioverkko vastaanottaa tulona demonstraatioradan ja tuottaa upotuksen esityksestä, jota politiikka käyttää. Tämän upotuksen koko kasvaa lineaarisesti demonstraation pituuden sekä ympäristön lohkojen lukumäärän funktiona.

Kuten tässä on esitetty, demonstraatioverkko pystyy upottamaan monimutkaisuuden ja koon kokoisia demonstraatioita yhteiseen muotoon, jota kontekstiverkko käyttää tehtävän esittämiseen. On todennäköistä, että yleistyminen tapahtuu tällä tasolla jo nyt, demonstraation upottamisen tulisi jättää pois tiedot mielenosoitusten aikana havaitusta tarkalta reitiltä ja kuution absoluuttisista sijainneista.

Tarkasteltaessa kontekstiverkon rakennetta, vaikkakin erittäin korkealta tasolta, näemme rajapinnan demonstrointiverkon kanssa syöttämällä demonstraation upotuksen keskeisiin ajallisiin huomiomoduuleihin. Näemme myös, että aikaisemmat toiminnot (LSTM) ja nykyinen tila syötetään syötteinä, jotka yhdistetään demonstraation upottamiseen, jotta saadaan aikaan globaali konteksti-upotus, joka lähetetään moottoriverkkoon.

Heidän kuvaus verkkotoiminnosta on mielestäni tärkein osa artikkelia:

Kontekstiverkko alkaa laskemalla kyselyvektori nykyisen tilan funktiona, jota käytetään sitten osallistumaan demonstraation upotuksen eri aikavaiheisiin. Saman aikavaiheen eri lohkojen huomiopainot summataan yhteen, jotta saadaan yksi paino aika-askelta kohti. Tämän ajallisen huomion tulos on vektori, jonka koko on verrannollinen ympäristön lohkojen lukumäärään. Käytämme sitten naapuruushuomiota levittääksemme tietoja kunkin lohkon upotusten läpi. Tämä prosessi toistetaan useita kertoja, jolloin tilaa edistetään käyttämällä LSTM-solua, jolla on sitomaton paino.
Edellinen operaatiosekvenssi tuottaa upotuksen, jonka koko on riippumaton demonstraation pituudesta, mutta riippuu silti lohkojen määrästä. Sovelemme sitten vakiona pehmeää huomiota kiinteiden ulottuvuuksien vektorien tuottamiseen, joissa muistisisältö koostuu vain kunkin lohkon sijainneista, jotka yhdessä robotin tilan kanssa muodostavat tulon manipulointiverkkoon.
Intuitiivisesti, vaikka esineiden lukumäärä ympäristössä voi vaihdella, jokaisessa käsittelyvaiheessa asiaankuuluvien esineiden lukumäärä on pieni ja yleensä kiinteä. Erityisesti lohkojen pinoamisympäristössä robotin on tarpeen kiinnittää huomiota vain sen lohkon sijaintiin, jota se yrittää noutaa (lähdelohko), samoin kuin sen lohkon sijaintiin, jonka se yrittää sijoittaa ( kohdelohko). Siksi oikein koulutettu verkko voi oppia sovittamaan nykyisen tilan vastaavan esittelyvaiheen kanssa ja päättelemään lähde- ja kohdelohkojen identiteetit ilmaistuna pehmeinä huomiopainoina eri lohkoissa, joita käytetään sitten vastaavien paikkojen purkamiseen siirretään manipulointiverkkoon.

Tapa, jolla he päättävät kuvauksensa, on täydellinen esimerkki nykyisestä AI-tutkimuksen siirtymisestä asiantuntijajärjestelmälähestymistavasta oppimisjärjestelmälähestymistapaan, ja se vihjaa myös keskusteluun siitä, kuinka aivot kehittyivät alla.

Vaikka emme pakota tätä tulkintaa koulutuksessa, kokeiluanalyysimme tukee tätä tulkintaa siitä, kuinka opittu politiikka toimii sisäisesti.

He eivät tiedä miten se toimii! He rakentavat rakenteen, joka pystyy suorittamaan tietyn laskennan ja tallentamaan tietyt tiedot, jotka meidän mielestämme ovat etukäteen hyödyllisiä, ja syöttävät sille koulutusjoukon toivoen koko rakenteen oppivan! Siellä on eräänlainen tekoälyn tutkimus voodoo nousussa, taidetta, tapa ohjata heuristinen haku oikeaan suuntaan. Ja näyttää siltä, ​​että paljon nuo taikureita työskentelevät nyt openAI: n hyväksi.

Heidän omien sanojensa mukaan manipulointiverkko on yksinkertaisin rakenne, kontekstin upottamisesta monikerroksiseen perceptroniin, jolloin syntyy moottorivaikutus.

tulokset

Tulokset ovat usein osa, josta minulla ei ole kiinnostusta, etenkin sellaisten hämmästyttävän loistavien teknisten lehtien suhteen. Menen nopeasti, koska tämä lähestymistapa toimii, se toimii tarkkuudella, joka on samanlainen kuin koodatut asiantuntijakäytännöt, ja toisin kuin näihin erityisiin menettelytapoihin liittyvä lähestymistapa, se voidaan yleistää suurelle joukolle tehtäviä.

Hiukkasten saavuttaminen

Estä pinoaminen

Näissä kokeissa he myös testasivat erilaisia ​​olosuhteita. DAGGERia käyttämällä he vertasivat kolmea erilaista sisääntulosuhdetta pienentämällä näytettyä suuntausta: kokonaiset suuntaviivat, tilannekuva tai vain käyttämällä lopputilaa. He myös vertasivat käyttäytymisen kloonausalgoritmia demonstraation täydelliseen etenemissuuntaan.

Vahva näyttö järjestelmän kyvystä yleistää kuutioidentiteetti

keskustelu

Lukeessani OpenAI: n näiden viime kuukausien nopeita edistysaskeleita, tunnen kasvavaa halua puhua heidän työstään ja jakaa ajatuksiani siitä, minkä uskon heidän työhönsä, ja AI: n kokonaisuutena saavutettavien edistysaskeleiden kanssa, ymmärrystämme siitä, miten biologiset aivot toimivat. Erityisesti tämä kasvava ajatus siitä, että ihmisten välinen näennäisesti jaetut kognitiiviset toiminnot eivät johdu niinkään yhteisestä rakenteesta, joka osaa luontaisesti osaa suorittaa tehtävän, vaan johtuu sen sijaan suhteellisen samanlaisista naiiveista rakenteista, jotka kohtaavat saman ympäristön, oppia suorittamaan samanlaisia ​​tehtäviä. Toiminto on seurausta toimimattomasta rakenteesta, joka kykenee vain oppimaan tietyn tehtävän tietyn ympäristön takia, eikä rakenteesta, joka pystyy suorittamaan tehtävän luontaisesti, yksinkertaisesti säätämällä muutama parametri mukautuakseen ympäristöön.

Tehtävät vastaan ​​kokoonpanot: näennäisesti mielivaltainen määritelmä

Myönnän, että en ymmärrä miksi he päättivät puhua erilaisista tehtävistä samalla tavalla kuin tekivät. Tehtävä määritetään lohkojen pinoamiskokeessa merkkijonojoukkona, joka edustaa lohkojen sijaintia toisiinsa nähden. Joukon elementtien lukumäärä määrittelee pinojen määrän ja merkkien lukumäärän niiden lohkojen lukumäärän, jotka on järjestettävä. . Tehtävänä on silloin lohkojen järjestely pinoina pinon absoluuttisesta sijainnista riippumatta.

Jotkut lohkot saattavat olla pöydällä, mutta eivät osa tehtävää

Niiden valinta määritellä suhteellinen sijainti ja pinojen lukumäärä kriteerinä erilliselle tehtävälle vaikuttaa mielivaltaiselta. Itse asiassa voi myös olla järkevää puhua erilaisista tehtävistä lohkojen absoluuttisten aloitusasemien perusteella (mitä ne viittaavat kokoonpanoon). Uskon, että heille on ilmeinen ongelman yhteinen luonne, mutta selvyyden vuoksi he haluavat olla syventämättä yksityiskohtiin. On järkevämpää määritellä politiikan oppiminen kahden tyyppisiksi yleistyksiksi, kuten he tekevät myöhemmin:

Huomaa, että yleistämistä arvioidaan useilla tasoilla: opitun käytännön ei tarvitse vain yleistyä uusiin konfiguraatioihin ja jo näkemiin uusiin tehtävien esittelyihin, vaan sen on myös yleistettävä uusiin tehtäviin.

Korvaa vain ”tehtävät” ”pinotilauksilla”. Tehtävän oikein oppiminen tarkoittaa, että agentti oppii upotuksen, joka pystyy abstraktioimaan kuutioiden sijainnin (kokoonpano), mutta myös niiden identiteetin (tehtävä), pinojen lukumäärän (tehtävä) ja demonstraation suuntaviivat (esitelty lyhyesti tarjous) tuottamaan merkityksellinen moottorivaste.

Nuo yleistykset näyttävät olevan ristiriitaisia. Kuinka sama verkko voi abstrakti kuution alkuperäisen kokoonpanon tai identiteetin ja silti palauttaa absoluuttisen asemansa moottorin vasteelle?

Tämä selittää erilaisten yhteistyöhön liittyvien aliverkkojen tarpeen oppimisen aikana, erilaisten tulojen vastaanottamisen ja selittää, että kontekstiverkossa tehtävän abstrakti esitys syötetään alemman asteen tietoihin, kuten kuutioiden absoluuttiset paikat, ennen laskevaa komentoa.

Saatat ajatella, että kommentoit tätä tehtävän ja konfiguraation erottelua on typerä, mutta on tärkeää ymmärtää, että se on pohjimmiltaan sama abstraktioprosessi, kun pelataan eri kohteita (ja tämä avautuu seuraavalle osiolle).

Ei ole oppimista ilman invarianssia

Siirto-opiskelu on ehkä kiehtovin kognitiokonsepti riippumatta siitä, onko se in silico tai in vivo, se on erittäin kuuma aihe sekä AI-tutkijoille että neurotieteilijöille, ja se sattuu olemaan väitöskirjani aihe. Huomaa, että läheisesti toisiinsa liittyviä käsitteitä on tutkittu monilla aloilla ennen koneoppimista, ja tällä abstraktilla ja aina osittain määritellyllä käsitteellä on monia nimiä. Filosofit, antropologit ja sosiologit saattavat viitata siihen (post-) rakenteellisuuteen (Claude Levi-Strauss, Michel Foucault), kielitieteellinen puhuu syntagmista ja sisäkkäisistä puurakenteista (Noam Chomsky), matemaatikot todennäköisesti ajattelevat homeomorfismia tai invarianteja ja koulutusta. tutkijat tai neurotieteilijät voivat viitata siihen rakenteelliseen oppimiseen. Saatat nähdä myös siihen liittyvän konseptin koneoppimisen alalla, kuten esitysoppiminen ja metaoppiminen, jotka kirjoittajan mukaan voivat viitata siirto-oppimiseen tai siirto-oppimisen suorittamiseen käytettyyn oppimisparadigmaan. Kun puhutaan syvistä hermostoverkoista, nämä erot ovat epäselviä, koska pohjimmiltaan hermostoverkko oppii upottamaan tietyn ongelman (esitysoppiminen) muuttamalla sen rakennetta (metaoppiminen) yleensä meluisassa ympäristössä, joka merkitsee siirto-oppimisen muotoa.

AI-tutkijoilla ja kognitiivisilla tutkijoilla on usein hyvin konkreettinen määritelmä siirto-oppimisesta, se on prosessi, jonka avulla järjestelmä voi käyttää tietyssä tehtävässä hankittua tietoa toisen tehtävän suorittamiseen, jolla on yhteinen koostumusrakenne (kuten artikkelissa kuvataan). Kognitiivisessa tieteessä on tämä käsitys läheisestä ja kaukana siirtymisestä riippuen siitä, kuinka nämä kaksi tehtävää näyttävät eroavan. Mutta abstraktimmasta näkökulmasta katsottuna meluisassa ja monimutkaisessa ympäristössä kaikki oppiminen on siirto-oppimismuoto ja ero hyvin läheisen ja hyvin kaukana tapahtuvan siirron välillä on vain jaetun tiedon kysymys - taas kysymys mittakaavasta, ei luonteesta.

Hallinnoidussa ympäristössä yritetään etukäteen rakentaa kova koodattu todellisuuden diskresointi, mutta itse asiassa tämä diskretisointi toistaa menettelyllisesti sen, mitä siirto-oppiminen tekee, se yhdistää loputtoman joukon valtioita, jotka todellisuudessa löytyvät yhteisen sulkevan rakenteen puitteissa. Pohjimmiltaan siirto-oppiminen viittaa suoraan tai laajennuksena prosessiin, jonka kautta oppimisen edustajat käyttävät invarianteja rakentamaan maailman malleja. Se on prosessi, joka käyttää samankaltaisuuksia, toistoja ja niiden variaatioita muodostamaan yhä abstraktimpi ja koostumuksellisempi esitys, joka rakentaa kokoonpanot kokoonpanon variaatiovälin yli. Yleisessä mielessä se antaa mahdollisuuden luoda perustoiminnot, joiden avulla manipuloimme informaatioryhmiä, aivan kuten matematiikassa se sallii yhdistämisen ja risteykset. Se sallii identiteettien, se selittää kykymme luokitella esineitä. Josh Tenembaum antaa esimerkin, joka todella puhui minulle: Kuvittele, että opetat kahden vuoden ikäisen lapsen tunnistamaan hevosen ensimmäistä kertaa, näytät hänelle pari kuvaa eri hevosista ja sitten näytät hänelle kuvan toisesta hevosesta ja talon kuva ja pyydä häntä kertomaan, mikä hevonen on. Lapsi suorittaa tämän tehtävän melko helposti, mutta se on silti jotain, jota tietokone ei voi tehdä niin harvoilla tuloilla (yhden kuvan oppiminen).

Kuinka lapsi teki sen?

Eläinten tunnistusta on tutkittu lapsilla, ja se liittyy kykyynmme hajottaa esineitä merkityksellisiin osiin, turkisen värivalikoimaan, kaulan kokoon, yleiseen muotoon jne. Tämän kyvyn avulla voit myös avata oven et ole koskaan ennen nähnyt, olet oppinut moottorisekvenssin, joka yleistyy mihin tahansa tilanteeseen (verkkotunnuksen yleistäminen). Se on myös se mitä käytät rakentaessasi selittäviä malleja, jotka yksinkertaistavat maailmaa, saatat todellakin yllättyä aluksi käkän äkillisestä esiintymisestä kuuluisassa sveitsiläisessä kellossa, mutta toisen esiintymisen jälkeen odotat sitä. Invarianssin löytäminen on kuinka hermoverkko oppii ja nämä mallit rakennetaan tajuttomasti. Esimerkki on siitä, kuinka opimme fysiikkaa intuitiivisesti jo ennen kuin olemme kuulleet matematiikasta ja numeroista.

Voidaan kysyä esimerkiksi kuinka nopeasti mikropainoon syntynyt lapsi mukautuisi maan painovoimaan ja oppisi intuitiivisesti, että esineet putoavat maahan pudotessaan?

Saatamme olettaa, että pikkulapset ja useimmat eläimet tarkistavat mallinsa alitajuisesti, aivan kuten kun laitat sukat koiran käpälille, ja uusien tietojen mukauttaminen vie jonkin aikaa.

Mutta pienelle lapselle tapahtuu tietoinen kuulustelu ja hänen intuitiivisen mallinsa tarkistaminen uteliaisuudesta kielen, symbolien ja uskomusten kautta. Kykymme tietoisesti kuulustella ja muuttaa mallejamme on kiehtovaa, ja sidenoteina ihminen voi olla ainoa laji, joka pystyy verbalisoimaan prosessin, mutta muut lajit voivat suorittaa samanlaisia ​​tietoisia muutoksia.

Invarianssi on pakollinen ajan ominaisuus, jos kaikki oli aina uutta eikä ole mitenkään ennustettavissa, silti säilyisi tämä ainutlaatuinen invariantti, että kaikki on aina uutta ja arvaamatonta. On mahdotonta kuvitella maailmaa ilman invarianssia, koska ei voinut olla maailmaa, johon viitata, ilman invarianssia elämä olisi mahdotonta ja aivomme hyödytön. Elämä on kone, joka toimii vain ennustettavissa olevien tapahtumien toistumisen, syiden ja seurausten toistumisen ja energian syklisen palauttamisen kautta organismiin. Ja elämämme pyrkimyksessä parantaa näiden tarvittavien syklien käyttöä, aivomme on paras työkalu. Se on ennustuskone, mukautuva elin, joka pystyy löytämään toiston dynaamisesti ja käyttämään sitä parempaan vuorovaikutukseen maailman kanssa.

Tämä elämän valitsema menetelmä on erittäin kestävä pieniin muutoksiin rakenteessa. Mikä pysyy samana, on maailma, ympäristön tilastolliset ominaisuudet, mutta sitä kohtaava hermorakenne voi vaihdella niin kauan kuin se voi upottaa käsiteltäväksi kehitettyä asiaankuuluvaa tietoa. Tämä selittää, miksi aivomme voivat olla niin erilaisia ​​ihmisestä toiseen, jopa primaarikortteista, ja silti jakaa samat toiminnot.

Hermosto on mukautuva, he eivät tarvitse evoluutiota ja hitaita geneettisiä mutaatioita käyttäytymisen muuttamiseksi merkityksellisillä tavoilla. Yksinkertainen hermosto, kuten C. Elegansista löytyy, toimii synnynnäisenä sisäisenä koordinaattorina ja ulkoisena anturina: aisti ruoka ja siirry sitä kohti, pakene kipusta, lisääntyä. Nuo yksinkertaiset järjestelmät olivat alun perin jäykkiä ja suorittivat äärimmäisen lähentämisen erittäin meluisasta maailmastamme sen tyhjentämiseksi pienissä mahdollisissa tiloissa (ruoka vasemmalla, lämpö alhaalla jne.). Moottori- ja aistikykymme kehittyivät käsi kädessä hermoston ennustekykymme kanssa. Kun antureitamme tarkentui, hermosto pystyi hitaasti muuttamaan rakennettaan tietojen tallentamiseksi ja kokemuksesta oppimiseksi. Alun perin se pystyi oppimaan tunnistamaan tietyt sisääntuloluokat, kuten haju- tai valokuviotyypit, ja myös kykeni oppimaan kokeilun ja virheen kautta hallitsemaan sen yhä monimutkaisempaa moottorijärjestelmää. Huomaa, että maailma on niin monimutkainen, että aivomme kehittyivät luonnollisesti kohti oppimisparadigmaa kuin luontaista menettelytapaa. Laskennallisesti tämä on täysin järkevää, yksinkertaisen Go-pelin tila-tila on paljon suurempi (2,10¹⁷⁰) kuin atomien lukumäärä maailmankaikkeudessa (10⁸⁰), ja kun organismit muuttuvat monimutkaisemmiksi yrittävät koodata koodausarvioita kaikista mahdollisista toteaa, että se voi olla nopeasti, tulee yhdistelmäräjähdyksen vuoksi mahdoton saavuttaa.

Jotkut ihmiset saattavat uskoa, että aivomme on rakennettu siten, että se edustaa synnynnäisesti tilaa, jossa se aikoo kehittyä, että jossain DNA: ssa on geeni sille, mikä muodostaa kasvot, tai äänen aaltojen ajallinen organisaatio, jotka tekevät ylös sanoja. He saattavat uskoa, että tämä luontainen tieto on koodattu syntyessään jonnekin. Toiset saattavat uskoa, kuten filosofian opettajani, kun olin lukiossa, että olemassaolo edeltää olemusta ja että aivomme määrittelee täysin ja yksinomaan organismin ja maailman kohtaaminen. Todellisuus on tietysti monimutkaisempi, ja useimmille tähän mennessä tutkituille telenkefaalisille järjestelmille aivot eivät koodaa synnynnäisesti tehtäväänsä, jonka ne suorittavat, vaan oppivat sen riippuen syötteissään olevista tiedoista. Jos syöttö on liian heikkoa asiaankuuluvissa tiedoissa, oppimiskyvyllä kyseisissä rakenteissa voi olla viimeinen voimassaolopäivä (esim. Amblyopia). Mutta jos luontainen rakenne ei koodaa lopullista funktiota, aivoilla on tietty rakenne. Tämä rakenne säilyy yksilöiden välillä, ja samojen lajien yksilöillä on yhteiset toiminnot ja käytöt. DNA asettaa tietyn rakenteen paikoilleen, rakenteen, joka ei kykene suorittamaan lopullista tehtäväänsä sisäisesti, mutta rakenteen, joka kykenee oppimaan tiettyjen tehtävien monimutkaisuuden yksilöllisen kokemuksen perusteella. Ei ole yllättävää, että evoluutio johti näyttämään erittäin tehokas veri-aivoeste, joka eristää aivot muusta kehosta, samoin kuin aivot ja kovan luun kuori, joka suojaa sitä ulkomaailmalta, koska toisin kuin muut elimet, joissa rakenne koodataan genomissa, koulutetun aivojen rakennetta ei voida regeneroida synnynnäisesti varastoidusta mallista. Mielenkiintoista on, että näemme samat oppimismekanismit, jotka syntyvät analogisesti kehittämällä yhä monimutkaisempia syviä verkkoja, jotka suorittavat yhä monimutkaisempia tehtäviä.

Koostumusrakenteita on vaikea nähdä, mutta kaikkialla

Sidenoteina on outoa, että edes kirjoittajat eivät tiedä, että heidän ensimmäisellä tavoitteensa saavuttamisella on koostumuksellinen rakenne.

Tehtäviin päästävä hiukkas osoittaa hienosti yleistymisen haasteet yksinkertaistetussa skenaariossa. Tehtävät eivät kuitenkaan jaa koostumusrakennetta, mikä tekee uusien tehtävien yleistämisen arvioinnista haastavan.

Vaikka rakenne on todellakin alempi kuin lohkon pinoaminen, eikä sitä ole helposti saatavissa kokeelliseen manipulointiin, tehtävä koostuu todellakin jaetusta rakenteesta. Lähestyessään maailmaa tasoon, yksi koostumusrakenne on, että kuution identiteetti (väri) säilytetään translaatiolla, ja siirtyessä lohkosta A tai satunnaiseen lähtöpaikkaan asemassa (Xa1, Ya1) lohkoon B sijaintiin (Xb1, Yb2) ) on osa samaa korkeamman asteen koostumusrakennetta kuin siirtyminen lohkosta A sijainnissa (Xa2, Ya2) lohkoon B sijaintiin (Xb2, Yb2).

Rajapinnat verkkojen välillä

Neuraaliverkkojen järjestäminen, jotka kykenevät käsittelemään panoksia eri abstraktiotasoilla, tarvitsevat rajapintoja, verkkotunnuksen, joka mielestäni tarjoaa paljon jäljelle jäävää. Nämä rajapinnat voivat olla luonteeltaan lukuisia. Niitä voidaan pitää esimerkiksi yhteisenä kielenä kahden verkon välillä, kuten artikkelissa osoitetaan, huomiojärjestelmällä (demonstraatioverkko) asetettu alemman tason verkko voi kääntää esityksen esityksessä, jota toinen verkko (kontekstiverkko) voi käyttää ohjata toimintaa esityksen pituudesta tai alkuperäisestä kokoonpanosta riippumatta.

Tämän kielen pinta on tässä tasossa, kooltaan kiinteä, mutta voidaan kuvitella mahdollisia muutoksia, jotka voisivat parantaa viestintää verkon välillä. Esimerkiksi pinnan koon voitaisiin asettaa kasvamaan tai kutistumaan dynaamisesti verkkojen ollessa vuorovaikutuksessa oppimisen aikana, mikä pakkaa tai laajentaa kielen monimutkaisuutta. Voimme myös kuvitella dynaamisempia vuorovaikutuksia esimerkiksi palautteen kautta. Voisimme kuvitella sellaisten avustajaverkkojen olemassaolon, jotka oppivat sujuvaan viestintään verkkojen välillä, olemassa rinnakkaisverkkona, joka oppii moduloimaan ensimmäisen verkon tuloa toisen verkon tulon ja ulostulon perusteella. Voimme kuvitella monimutkaisia ​​kontekstiverkkoja, jotka toimivat tonisoivana (hitaasti vaihtelevana) tulona useisiin erikoistuneempiin verkkoihin ... Kiehtova tulevaisuuden tutkimusalue!

Epäonnistumistilanteet viittaavat uusien moduulien mahdollisiin rooleihin

On syytä huomata, että virheet johtuvat usein moottorivirheistä ja että virheiden määrä kasvaa tehtävän monimutkaisuuden myötä.

Moottorin toimintaa ei pitäisi heikentää vain lisäämällä kohteiden määrää, tämä on vahva todiste siitä, että tapa, jolla kopiointiverkko oppii puhumaan moottoriverkkoon, on liian abstrakti. On outoa, koska heidän mukaansa testi osoittaa, että kontekstiverkon ja moottoriverkon välinen rajapinta on suhteellisen konkreettinen (robotin sijainti, kohteen sijainti).

Mahdollinen ratkaisu voisi olla, koska tämä on modulaarinen arkkitehtuuri, käyttää erilaisia ​​häviöfunktioita tai modulaarisia häviöfunktioita, jotka edustavat kutakin tehtävän tiettyä osaa. Sitä auttaisi myös aivojen esimoottorialueiden vastaavuus varmistaa, että esittely- ja kontekstiverkko voivat pysyä abstrakteina heikentämättä moottorin komentoa. Esimoottorialueet ovat tarpeen objektien paikallistamiseksi paremmin tavoitteen (abstrakteista verkoista) ja aistitulojen perusteella parhaan moottorikomennon valitsemiseksi. Näyttää siltä, ​​että kontekstiverkko yrittää molemmat siirtää esittelyn korkeammalle upotukselle ja valmistella motorista toimintaa samanaikaisesti nykyisessä tilanteessa. Ennen moottoria edeltävän verkon tehtävänä olisi oppia kommunikoimaan moottorijärjestelmän kanssa tavoitteellisesti ja mukautuvasti yhdistämällä sekä moottorin että moottorin toiminnot moottorin oppimiseen ja nopeaan sopeutumiseen.

On olemassa mielenkiintoinen teoria, Moravecin paradoksi, joka ennakoi, että laskennallisesti verotettava ei ole korkeamman tason kognitio, vaan aistitulojen ja moottorijärjestelmien lähtöjen käsittely. Tämä voisi todellakin johtua pikkuaivoissamme läsnä olevasta suuresta määrästä neuroneja (enemmän kuin muualla aivoissamme) moottorin toiminnan mukauttamiseksi. Tämä paradoksi muotoiltiin aikaan (80-luvulla), jolloin uskoimme silti, että voimme upottaa oman tietomme koneeseen suorittaakseen monimutkaisia ​​tehtäviä hallitsemattomassa meluisassa ympäristössä. Tietysti tällä paradoksilla on järkeä, jos kone pystyy jotenkin edustamaan maailmaa diskreisoituneessa tilassa, rakentamaan korkeamman tason toiminto siihen olisi helpompaa. Uskon kuitenkin, että molemmat osoittautuvat erittäin verotuksellisiksi, ja verkkojen välisessä rajapinnassa käytetty sisäinen esitys on kaukana kaikesta, joka muistuttaa omaa tietoista esitystämme.

johtopäätös

Yhdistämällä eri neuraaliverkot, joista kukin vastaa tietyn ongelman käsittelystä, tämä artikkeli osoittaa, että luomalla tehtävä, joka luonnostaan ​​vaatii yleistämistä, ja rakentamalla sopiva oppimisympäristö verkkotunnuksen satunnaistamisen avulla, hermoverkko, jolla on pääsy muistiin, ja huomiojärjestelmä voi oppia yleistämään pelkän toiston lisäksi. Se voi oppia löytämään korkeamman asteen tavoitteen, joka on osoitettu vain kerran tiedon visuaalisessa virrassa, ja suorittaa laskennan yleistetyssä tilassa palauttaakseen tarkoituksenmukaiset toimenpiteet, jotka pystyvät toistamaan tavoitteen toisessa yhteydessä.

Tulevaisuudessa näemme yhä monimutkaisempia rakenteita, jotka on rakennettu noille atomien rakennuspalikoille, jotka kykenevät oppimaan yleistämään monimutkaisia ​​tehtäviä, mutta tärkeämpää on suorittaa useita tällaisia ​​tehtäviä, uusissa ympäristöissä, vähemmän riippuen kovakoodattuista menetelmistä, kuten syötteiden esikäsittely tai muistin tallennus. Muistitallennus korvataan hajautetulla esityksellä muistiverkon kautta, huomiojärjestelmät korvataan syklisellä toiminnalla reaaliaikaisissa tietoverkoissa. Kysymys on edelleen siitä, kuinka pystymme mukauttamaan vahvan sarjateknologian (Turing-koneet) lisääntyneeseen riippuvuuteen hajautetusta laskennasta sulautetussa järjestelmässä.