Robotour - ako teda zvitazime?

Pavel Hudecek phudecek@tiscali.cz
Pátek Květen 30 20:00:18 CEST 2008


K odměřování jakožto místní poznamenávám, že některé možné části trasy jsou
mu vyloženě nepřátelské. Např. kombinace kořeny+díra někde u rozhraní FG:-) 
Ale i bez toho se jedná o obecně velmi křivé povrchy, takže odměřování, 
pokud by na něj měl robot s jistotou dojet do cíle, by muselo být 3D. Navíc 
si myslím, že kdyby na mapce byly vrstevnice, určitě by výtvory 
mimopražských týmů vypadaly jinak a měly větší šanci na úspěch.

Přesto ale přispěji alespoň úvahou o optické myši:

- Optickou myš sice nelze přímo použít, ale to neznamená, že stejný princip
nelze použít s vlastní kamerou, nebo možná optickou myší s jinou optikou.
- Rozlišení vychází okolo 1 mm/px, aby to fungovalo i na relativně hladkém
asfaltu.
- Pokud použijeme běžnou webkameru se 30 Fps a budeme chtít měřit do
rychlosti 1 m/s, musí se na snímek vejít 33 mm a ještě nějaký kus
předchozího snímku. Navrhuji použít 64x64 px.
- Když už je ta kamera barevná, mohlo by se pod ni svítit 3 sadami barevných
LED ze 3 směrů.
- Kamera musí mít velkou hloubku ostrosti, aby nevadily nerovnosti terénu.
Optimální tedy je krátká ohnisková vzdálenost a trochu dále od sledovaného
povrchu.
- Na jedné kameře bych asi nechal běžet paralelně dvojí zpracování, jedno ze
zmíněné plochy 64x64 mm a druhé z celého obrazu, konvertěného na 64x48 px.
Zabrání se tím ztrátě polohy při větším otřesu, či škobrtnutí.
- Použijeme-li zároveň 2 takové kamerové systémy, získáme navíc velmi přesné
měření úhlu, o který robot zatočil. Ale asi bude stačit v tom jednom
původním obraze použít místo jednoho výřezu uprostřed, dva výřezy u krajů. 
Ale je potřeba sehnat objektiv s rovinným zobrazením, protože jinak nebude 
obraz u krajů ostrý.

Něco takového by jistě šlo použít jako záložní systém při výpadku primární 
navigace a taky k testování, zda z ní nevylezla evidentní blbost.

A nyní 2 návrhy, jak může fungovat rozumná navigace:

Oba mají společné použití neuronové sítě, jejímž výstupem je relativně 
přesná poloha na mapě (něco jako "robot je v 80 +/- 2 % úseku B, nachází se 
v 60 +/-10 % šířky cesty a směřuje po úhlem 8-10° od osy cesty"). Dále se 
předpokládá, že síť bude před závodem učena na celé mapě a to nejlépe s 
použitím 2-3 vlastních majáků v okolí. Majáky umožní plně automatizovaný 
záznam, takže záznamové zařízení lze např. připevnit na kočárek nějaké 
zpřízněné maminky a instruovat, že mají o prázdninách často jezdit okolo 
Planetária:-) Nahromaděná data se nasypou do gridu u zpřízněných grafiků a 
tam se nechá neuronovka učit.

1. Zpracování obrazu:

- Širokoúhlá kamera relativně vysoko nad robotem, dívající se tak, aby horní 
okraj obrazu byl kousek nad horizontem.
- Zazoomovaná kamera koukající na zrcadlovou kouli nad robotem. To mi přijde 
nejlepší, neb je ve výsledném záběru vidět celé okolí 360° i s robotem a 
kamerou.

2. Sonar:

- Rotační systém s parabolou.
- Lineární pole (hardwarově náročnější, ale není potřeba mechanika).
- Obě verze by měly být vysoko nad robotem a signál předzpracovat podobně, 
jako ucho: Udělat FT a neuronovce předat amplitudy, fáze a polohu mechaniky.

(o tom sonaru by se dal napsat celej nejmíň jednou tak dlouhej příspěvek, 
ale už mě z toho psaní bolej ruce, takže se radši půjdu projet na skejtu a 
až mě budou prozměnu bolet nohy, vrátím se k psaní:-)

PH 




Další informace o konferenci Hw-list