Robotour - ako teda zvitazime?
Pavel Hudecek
phudecek@tiscali.cz
Pátek Květen 30 20:00:18 CEST 2008
K odměřování jakožto místní poznamenávám, že některé možné části trasy jsou
mu vyloženě nepřátelské. Např. kombinace kořeny+díra někde u rozhraní FG:-)
Ale i bez toho se jedná o obecně velmi křivé povrchy, takže odměřování,
pokud by na něj měl robot s jistotou dojet do cíle, by muselo být 3D. Navíc
si myslím, že kdyby na mapce byly vrstevnice, určitě by výtvory
mimopražských týmů vypadaly jinak a měly větší šanci na úspěch.
Přesto ale přispěji alespoň úvahou o optické myši:
- Optickou myš sice nelze přímo použít, ale to neznamená, že stejný princip
nelze použít s vlastní kamerou, nebo možná optickou myší s jinou optikou.
- Rozlišení vychází okolo 1 mm/px, aby to fungovalo i na relativně hladkém
asfaltu.
- Pokud použijeme běžnou webkameru se 30 Fps a budeme chtít měřit do
rychlosti 1 m/s, musí se na snímek vejít 33 mm a ještě nějaký kus
předchozího snímku. Navrhuji použít 64x64 px.
- Když už je ta kamera barevná, mohlo by se pod ni svítit 3 sadami barevných
LED ze 3 směrů.
- Kamera musí mít velkou hloubku ostrosti, aby nevadily nerovnosti terénu.
Optimální tedy je krátká ohnisková vzdálenost a trochu dále od sledovaného
povrchu.
- Na jedné kameře bych asi nechal běžet paralelně dvojí zpracování, jedno ze
zmíněné plochy 64x64 mm a druhé z celého obrazu, konvertěného na 64x48 px.
Zabrání se tím ztrátě polohy při větším otřesu, či škobrtnutí.
- Použijeme-li zároveň 2 takové kamerové systémy, získáme navíc velmi přesné
měření úhlu, o který robot zatočil. Ale asi bude stačit v tom jednom
původním obraze použít místo jednoho výřezu uprostřed, dva výřezy u krajů.
Ale je potřeba sehnat objektiv s rovinným zobrazením, protože jinak nebude
obraz u krajů ostrý.
Něco takového by jistě šlo použít jako záložní systém při výpadku primární
navigace a taky k testování, zda z ní nevylezla evidentní blbost.
A nyní 2 návrhy, jak může fungovat rozumná navigace:
Oba mají společné použití neuronové sítě, jejímž výstupem je relativně
přesná poloha na mapě (něco jako "robot je v 80 +/- 2 % úseku B, nachází se
v 60 +/-10 % šířky cesty a směřuje po úhlem 8-10° od osy cesty"). Dále se
předpokládá, že síť bude před závodem učena na celé mapě a to nejlépe s
použitím 2-3 vlastních majáků v okolí. Majáky umožní plně automatizovaný
záznam, takže záznamové zařízení lze např. připevnit na kočárek nějaké
zpřízněné maminky a instruovat, že mají o prázdninách často jezdit okolo
Planetária:-) Nahromaděná data se nasypou do gridu u zpřízněných grafiků a
tam se nechá neuronovka učit.
1. Zpracování obrazu:
- Širokoúhlá kamera relativně vysoko nad robotem, dívající se tak, aby horní
okraj obrazu byl kousek nad horizontem.
- Zazoomovaná kamera koukající na zrcadlovou kouli nad robotem. To mi přijde
nejlepší, neb je ve výsledném záběru vidět celé okolí 360° i s robotem a
kamerou.
2. Sonar:
- Rotační systém s parabolou.
- Lineární pole (hardwarově náročnější, ale není potřeba mechanika).
- Obě verze by měly být vysoko nad robotem a signál předzpracovat podobně,
jako ucho: Udělat FT a neuronovce předat amplitudy, fáze a polohu mechaniky.
(o tom sonaru by se dal napsat celej nejmíň jednou tak dlouhej příspěvek,
ale už mě z toho psaní bolej ruce, takže se radši půjdu projet na skejtu a
až mě budou prozměnu bolet nohy, vrátím se k psaní:-)
PH
Další informace o konferenci Hw-list