2016年

6月

28日

【もう乗れるぞ!自動運転・EV】AIがカギ握る 2016年6月28日号

◇複雑で〝想定外〟だらけの道路

◇学習して進化する人工知能

 

黒崎亜弓(編集部)

 

 自動運転はどのような仕組みで実現するのだろうか(図1)。周りの環境を認識するうえで、いわば人間の“目”の代わりとなるのがセンサー類だ。カメラのほか、電波を周囲に放って反射から物の位置や種類を把握するレーダー、レーザー光を放つレーザースキャナーがある。視界など性能は異なり、複数のセンサーが組み合わされている。

“目”に映った景色=センサーの情報から、車や白線、歩行者など車の運転に必要な要素を読み取るのが認識のプログラムだ。歩行者がその場に立ったままなのか、動いているのかといった情報から道路に飛び出してきそうだと予測したりもする。
 周りの環境をもとに、路肩の車をよける、カーブに沿って曲がるといった判断をし、その判断に沿ってハンドルやアクセル、ブレーキペダルを操作したのと同様の作用を車軸やブレーキに伝え、車を動かす。
 どう認識・判断・制御を行うかは従来、人間の運転の際の思考や行動をモデル化してプログラムを作ってきた。たとえば、四角の形を車と判断し、その車と一定距離を超えて近づけばブレーキを作動させる──といったように条件に基づくルールとしてアルゴリズムを書く。

 だが、公道で車をとりまく環境は複雑かつ不確実だ。歩行者の姿は車に隠れて手や足しか見えない場合もあれば、人をよけようとした方向にバイクがいるという事態も起こりうる。自動運転で走行する状況を増やしていくうえで、あらゆる場面を想定してプログラムを用意しようとすれば膨大な量に及び、それでもカバーしきれない事態が起こりうる。

 そこで、カギを握るのはAI(artificial intelligence、人工知能)だ。……

 

(『週刊エコノミスト』2016年6月28日号<6月20日発売>28~29ページより転載)