スキップしてメイン コンテンツに移動

Watching: Self-Driving Car Fundamentals - LocalizationとPerception

Visual Localizationは画像で位置推定する方法。
あるカメラが認識した画像と事前に取得した画像、さらに進んだ地点でカメラが認識した画像と事前に取得した画像、を比較していくことで該当地点の可能性をどんどんと絞っていく。
この方法の良い点は、画像を事前に容易に入手可能なこと。この方法の弱い点は、3Dマップの情報がなく3Dマップに依拠できない点。

GNSSとInertial Navigationで現在地を、LiDARで向かっている方向を特定するのがKalman filterのアプローチ。

UdacityではIntro to Self-Driving Cars, Self-Driving Car Engineer Nanodegree Programが用意されている。
- Intro to Self-Driving Cars Nanodegree | Udacity https://www.udacity.com/course/intro-to-self-driving-cars--nd113
- Become a Self-Driving Car Engineer | Udacity https://www.udacity.com/course/self-driving-car-engineer-nanodegree--nd013

Perception、要は認識。Recognitionのイメージが強かったけど、このコースではPerceptionって言葉を使ってた。
人間は目で見てどれだけの速度を出すか、どこで曲がるか、どこがレーンかなどを認識する。
自動運転車はそれがないが、その代わりにカメラ画像やセンサーを使える。
Computer VisionとはComputerがどのように世界を認識し理解しているかのことで、最も使われているアプローチはCNN(Convolutional Neural Networks)。

Computer Vision自体だと、Udemyの次のコースとか良さそう。
- The Complete Self-Driving Car Course - Applied Deep Learning | Udemy https://www.udemy.com/course/applied-deep-learningtm-the-complete-self-driving-car-course/
- Autonomous Cars: Deep Learning and Computer Vision in Python | Udemy https://www.udemy.com/course/autonomous-cars-deep-learning-and-computer-vision-in-python/

認識は4ステップから構成される。

- Detection
- Classification
- Tracking
- Segmentation


Classificationは通常、次の4ステップから構成される。
- データ入力(画像)
- 事前処理(サイズ調整やグレースケール化など)
- 特徴付け(形や車輪の数など)
- 分類