Jedna od najvećih prepreka u podučavanju robota novim veštinama je kako konvertovati složene, visoko-dimenzionalne podatke, kao što su slike sa RGB kamera, u akcije koje ostvaruju određene ciljeve.
Roboti su čak obučeni da spuste WC dasku
Postojeće metode obično se oslanjaju na 3D reprezentacije koje zahtevaju tačne informacije o dubini ili koriste hijerarhijske predikcije koje rade sa planerima pokreta ili odvojenim politikama. Istraživači sa Imperial koledža u Londonu i Dyson Robot Learning Lab predstavili su novi pristup koji bi mogao rešiti ovaj problem. Metoda “Render and Diffuse” (R&D) ima za cilj da premosti jaz između visoko-dimenzionalnih opažanja i low-level robotskih akcija, posebno kada su podaci oskudni. R&D, detaljno opisan u radu objavljenom na arXiv preprint serveru, rešava problem korišćenjem virtuelnih prikaza 3D modela robota. Predstavljajući low-level akcije unutar prostora opažanja, istraživači su uspeli da pojednostave proces učenja.
Zamišljanje njihovih akcija unutar slike
Jedna od vizualizacija na kojoj su istraživači primenili tehniku, bila je da nateraju robote da urade nešto što ljudski muškarci smatraju nemogućim – da spuste WC dasku. Izazov je bio da se visoko-dimenzionalno opažanje (videti da je WC daska podignuta) spoji sa low-level robotskom akcijom (spuštanje daske).
TechXplore objašnjava: “Za razliku od većine robotskih sistema, dok uče nove manuelne veštine, ljudi ne izvode opsežne proračune kako bi odredili koliko treba da pomeraju svoje udove. Umesto toga, obično pokušavaju da zamisle kako njihove ruke treba da se kreću kako bi efikasno obavile određeni zadatak.”
Vitalis Vosylius, student poslednje godine doktorskih studija na Imperial koledžu u Londonu i glavni autor rada, rekao je: “Naša metoda, Render and Diffuse, omogućava robotima da rade nešto slično: ‘zamišljaju’ svoje akcije unutar slike koristeći virtuelne prikaze sopstvenog tela. Predstavljajući robotske akcije i opažanja zajedno kao RGB slike, možemo naučiti robote raznim zadacima sa manje demonstracija i to sa poboljšanim prostornim sposobnostima generalizacije.”
Ključna komponenta R&D-a je njegov naučeni proces difuzije. Ovaj proces iterativno usavršava virtuelne prikaze, ažurirajući konfiguraciju robota dok se akcije ne usklade sa podacima iz treninga.
Istraživači su sproveli opsežne evaluacije, testirajući nekoliko R&D varijanti u simuliranim okruženjima i na šest stvarnih zadataka uključujući skidanje poklopca sa šerpe, stavljanje telefona na bazu za punjenje, otvaranje kutije i pomeranje bloka do cilja. Rezultati su bili obećavajući i kako istraživanje napreduje, ovaj pristup bi mogao postati temelj u razvoju pametnijih, prilagodljivijih robota za svakodnevne zadatke.
“Mogućnost predstavljanja robotskih akcija unutar slika otvara uzbudljive mogućnosti za buduća istraživanja,” rekao je Vosylius. “Posebno me raduje mogućnost kombinovanja ovog pristupa sa moćnim modelima zasnovanim na slikama, treniranim na masivnim internet podacima. Ovo bi moglo omogućiti robotima da iskoriste opšte znanje koje ovi modeli poseduju, dok još uvek mogu da rezoniraju o nisko-nivojskim robotskim akcijama.”
Izvor: Techradar