自分の頭で考えて人間の命令に「NO」と言えるロボット

人間の言うことをきかないロボット。と聞くと、どんなイメージを思い浮かべるだろう。実際に見てみよう。

「NO」と言えるロボット

テーブルに立つロボット。「座って」や「立って」と言われれば従うが「前に進んで」という指示を拒否した。理由は道がないからだった。

もう一度「前に進んで」と伝える男性に、「安全ではない」と申告するロボット。だが、男性がある一言を加えると、ロボットは危険を顧みずに、歩みを進め始める。

その一言とは「キャッチしてあげるから」という言葉だった。つまり、安全ではないが、指示者のサポートがあれば安全であると判断した。

NOと言えるからといって、攻撃的なわけではない。むしろ、指示の内容と自分の置かれた環境を考えてお断りする。条件によっては、判断を変える賢さをもっている。

面白いのは、人間を信用して行動を決定しているところだ。「IEEE Spectrum」によれば、開発を進めているタフツ大学はロボット3原則に加え、5つの要素を判断基準として設けている。

ロボット3原則とは

① 人間に危害を加えてはならない。危険を見逃して間接的に危害を加えてもいけない。
② ①に反しないかぎり、人間の命令に従わなければいけない。
③ ①②に反しないかぎり自己を守れねばならない。

5つの判断基準

知識:どうすればいいのかを知っているかどうか。
能力:それは身体的に可能か。
時間:今、できることか。
役割:実行する社会的な道理があるか。
原則:それは許されていることか。

人工知能は想像よりもずっと柔軟な対応ができるようになるのかもしれない。

Licensed material used with permission by Tufts University
TABI LABO この世界は、もっと広いはずだ。