[ ロボット ]
(2018/10/20 06:30)
ディープラーニングが成否握る
生活支援ロボットの重要要素の一つに物体を認識する能力がある。家庭の中でものを拾い上げたり、持ち運ぶためには、日用品や家具、家電など多様なモノを認識しないと働けないからだ。ワールド・ロボット・サミット(WRS)のサービス部門のパートナーロボットチャレンジでは、ディープラーニング(深層学習)などの人工知能(AI)が動作の成否を左右した。(小寺貴之)
WRSサービスロボット部門では家の中で散らかったオモチャや日用品を片付けたり、取ってくるタスクが競われている。参加者には大会2日前に競技で使う日用品が渡された。各チームは日用品の画像データを作成して、AIに学習させ、認識機能を構築した。大会初日の17日は認識などに失敗するチームが続出。2日目の18日は認識に成功してモノをつかんだり、片付けられるチームがぐっと増えた。
この24時間で何が変わったのか。大会運営に携わる九州工業大学の石田裕太郎大学院生は「多くのチームがこの24時間で、正解データを手作業で作っていた」と指摘する。参加チームは、日用品を渡されたらまず写真を撮る。日用品を回転台に載せて全方向から撮影するチームや、スマホで周囲を動画撮影して大量の画像データを集めるチームもあった。
データ量の多さが認識精度向上に
ただこの画像をそのまま学習させても認識精度は向上しない。そこで日用品のみを背景から切り出す作業を手作業で進めた。「初日と二日目の差は、手作業のデータ量の差。これを加えて学習して認識精度が向上した」と石田さんは説明する。
九州工大は競技に参加しており、初日、2日目ともに1位だった。この理由の一つが学習データ生成の自動化だ。実際にロボットが見るカメラ映像には一枚の画像にいくつもの日用品が映り込む。一方、正解データは1品ずつ撮影するから、1品しか写っていない。学習したAIで認識するには、映像の中からモノが映っている部分を抜き出して、そこからAIにかける必要がある。この一手間が計算負荷を増やし、確実性を下げてしまう。
2日間ロボットに教え込む
九州工大は競技会場の部屋に、いくつもの日用品が散らかった画像を自動生成した。まず日用品と、部屋の床や家具、収納などの写真を撮る。日用品写真から背景を取り除き、床や収納などを背景に画像を合成する。この合成画像をAIに学習させて精度を高めた。技術を開発したのは石田さんだ。背景が一致した状態で複数の物品を同時に認識できる。「毎秒に5-6回、複数のモノを認識し続けられるようになった」と胸を張る。自動化の効果は大きく、安定的に認識精度を高く保っている。ロボットにとって初めて見た物品、初めて訪れた部屋でも約2日間で働けるようになりつつある。
ただ「いまはプロが頑張ってロボットに教えて2日間。はやく、普通の人が頑張らずに教えて2日間で働けるようにしたい」(石田さん)としている。
(2018/10/20 06:30)