2011年4月15日金曜日

ロボットは万能じゃない

民主党が統一地方選で大打撃を受けた中、私の目に真っ先に飛び込んできたのはこんなニュースだった。

「”ロボットのASIMOに原発事故処理をしてもらえませんか?”という問い合わせがHONDAに寄せられた」
という記事だ。HONDAの回答は”ASIMOはそこまでの技術レベルに無く御理解頂きたい”との事。

これは非常に由々しき問題である。
ASIMOが対応できない事じゃない。
一般の方々と実際のロボット技術との間に予想以上に大きなギャップがあることを示唆しているからだ。

一般にロボットと言えば人型を連想する人が多いと思う。実際ASIMOも人型の自律制御ロボットだ。
その為か、人型は”なんでもできる”と思われがちだが実際はかなりの制限が存在する。

その最たるものとして”ロボットは目が悪い”。
もっと厳密に言えば”認識技術”の話だ。

通常人間は視覚で空間を把握し、自分と物体の距離を大まかに把握する。
しかしロボットにはこれが難しい。現状のカメラや制御技術では”奥行き”を正確に把握する事が難しいからだ。
無論カメラだけではなく、距離を計測するセンサーやレーザーでスキャニングする機器との合わせ技で
ある程度の実現は出来ている。

しかし、”目標物”と”背景”の色が近しいような、色の境界が判断しにくい状況でも完璧な動作
が出来る程では無いのだ。

又、レーザーでスキャニングする場合でもレーザー光が対象物の表面で乱反射してしまう場合でも
動作の成功率は格段に落ちてしまう。

では、何故あんなに人間らしくスムーズに動くのか?
それはデモを実施する環境をロボットの都合に合わせているからだ。

歩きやすく認識しやすい環境を作り事前情報を入力した上で初めてあのように動く。
つまり、今のロボット技術は未知の環境もしくは刻一刻と変化する環境で運用できるほど成熟した
技術ではないのである。
(産業ロボットは環境が変化しない上、あらかじめ設定した座標間を繰り返し運動するのが基本)

そして放射線にも対応していない。

ASIMOは人のように全身を使って壁をよじ登ったりできない。
ASIMOは人のようにしゃがんで瓦礫の下に手を伸ばす事も出来ない。
戦車でなければ瓦礫が除去できない様な環境では運用はできないのだ。


では自律制御ではなく遠隔操作のロボットならどうか。
この場合、操作方法つまりインターフェイスが問題になる。

通常、ロボットハンドを運用する場合、例えば座標X,Y,Zまで腕を伸ばして手首を回転させて・・・
というように操作側が1から10まで指示する操作方法にはならない。

複雑でしかも煩雑な操作では手間隙がかかりすぎるからだ。
ではどのような操作方法なのか。

それは例えばPC上でカメラ画像を確認し、掴みたい物体を画面上でタッチしたりマウスでクリックするなど
ターゲットを設定した後はロボット側のオート作動になると思われる。

その場合、やはり先ほどの”ロボットは目が悪い”がネックになる。
遠隔操作とは言え、ロボット自身が見て判断しなければならないからだ。

では、遠隔操作でかつ四肢の操作をモーショントレースにしてはどうか?
モーショントレースとは操作者の動きをそのままロボットが”まねをする”操作方法だ。

これなら判断は人間の目に委ねられるし、煩雑な操作にもならない。
しかし遠隔操作の場合、最も問題になるのが”どれだけ離れて操作できるか”だ。

つまり”操作者が安全な場所まで離れた上でロボットを操作できるかどうか”なのだ。
今震災の原発事故の場合、それが何kmになるのか私には分からないが、それほど遠隔で操作できる
ロボットはそうそう存在しないだろう。
(有線にせよ無線にせよだ)

極論すると、ロボットの原発事故への投入はロボットの種類を問わず”環境”と”運用”
この二つが壁になっているのだ。

現在運用されているのは、放射線をセンシングする為の気球を遠隔操作で飛ばしてる程度と聞く。
つまり最先端のロボティクス技術が運用されているわけではない。

悔しい事だがそれが現状だ。

以前にも書いたが、技術は人の役に立ってこそのものだ。
その”人”と”技術”の間に隔たりなどあってはならない。

私は現在、研究職に従事しているエンジニアである。
できることなど高が知れているかもしれない。

それでも技術を人の世に役立たせる事こそ、我々エンジニアが果たすべき務めであり
最大の復興支援ではないだろうか。

2 件のコメント:

  1. 最後の2行、深いですね。
    ほんとそのとおりだと思います。

    返信削除
  2. やれることを少しずつ、そして長く。
    お互い頑張りましょう!

    返信削除