編集局が選ぶ!ベストパテント大賞2022

INTRODUCTION

さてさてやって参りました!今年も昨年に続きて、2022年最後を締めくくりとして、+VISION編集部が厳選した、2022年度ベストパテント大賞を発表します!

ちなみに、昨年の第1位はアップル社の空間オーディオナビゲーション、第2位がテスラ社が発明したレーザー洗浄、第3位がAmazon社のドローンに搭載予定の驚くべき新技術でした。

今年の第1位はどのような特許でしょうか!?それでは、2022年ベストパテント大賞を御覧ください!

CONTENTS

  • #1遠隔操作ロボットの操作性向上

  • #2「そろそろドロンさせていただきます!」

  • #3ディズニーの仮想現実シミュレータ

  • #4CONCLUSION


オンライン会議やテレワークなどが普及し、遠隔地から動作制御が可能な、いわゆる「テレプレゼンスロボット」が身近な存在になってきました。例えば東京の日本橋にある「分身ロボットカフェDAWN」のアバターロボットなどが有名ですね(参考リンク:https://dawn2021.orylab.com/)。

このようなロボットを遠隔操作するユーザは、端末に備わったカメラで周囲の状況を見ながらロボットを移動させていきますが、足元に障害物がある場合など、カメラの向きによってはロボットの移動をうまく制御することができませんでした。

今回紹介する発明は、テレプレゼンスロボット等の移動体が、移動する際に、移動体のカメラの死角となる場所を確認しやすくすることで、移動体の操作を適切に行えるようにする技術です。このような技術が発達することによって、遠隔操作でも様々なサービス等が提供できるわけですね。

近年、インターネットを用いたテレビ会議システムが普及しました。テレビ会議システムでは、お互いに顔を見ながら話すだけでなく、テレプレゼンスロボットを用いる場合もあります。テレプレゼンスロボットとは、カメラを備え、遠隔地にいるユーザによってカメラの向きや位置を操作できるロボットです。テレプレゼンスロボットとして、遠隔地のユーザからの指令によって移動できる移動体が知られています。

具体的には、遠隔地ユーザへ撮影画像を提供するためのカメラを備えた移動体(テレプレゼンスロボット)が知られています。遠隔地ユーザは、自分の手元にある端末を操作することで、遠隔地にある移動体を操作します。一般的に、遠隔操作用の端末は、移動体に備わったカメラの撮像画像を表示します。端末のユーザは、端末に表示された撮像画像を見ながら移動体を操作しますが、遠隔地の画像を単に端末に表示するだけでは、移動体を適切に操作できない場合があります

発明の目的

上記のような問題点から、遠隔地にある移動体を適切に操作できるシステム、端末、および、プログラムが要望されています。もし、移動体を自在に遠隔操作できれば、テレビ会議システム以外の用途でも、カメラを備えた移動体をまるで自分のアバターのように操作できます

本発明は、このような問題点を解決すべく、端末を用いて移動体の操作を適切に行うことができる新規な移動体システムなどに関します。

発明の詳細

まず、概要を説明しますと、本発明のシステムは、移動体、および、移動体の操作に用いられる端末を含みます。

本発明の端末は、移動体を操作するために用いられる端末です。本発明のプログラムは、コンピュータに、移動体の操作を実行させるためのプログラムです。

本発明において、「移動体」の一例として、カメラおよび駆動部を備えるロボット(例えば、テレプレゼンスロボット、アバターロボット等)を説明します。しかし、「移動体」は、このようなロボットに限定されません。「移動体」としては、例えば、自動走行若しくは半自動走行が可能な車両や重機、ドローンもしくは飛行機、スポーツスタジアム等に設置されてレールの上を移動可能なカメラを備えたロボット、または、宇宙空間に打ち上げられ姿勢制御やカメラの撮像方向を制御可能な衛星型ロボットが例示されます。その他にも、本発明の「移動体」は、カメラおよび駆動部を備えるさまざまな機械、装置もしくは端末などを包含します。

本発明における「移動体」は、一般的な装置(例えば、スマートフォン、タブレット等)を備える場合があります。このように、「移動体」は、カメラおよび駆動部を備えていれば、一体的に構成された装置であったり、複数の装置が組み合わされて構成されていたりします。

システムの全体構成

図1は、本実施形態に係るシステムの全体構成の一例を示す図です。

【図1】

図1に示すように、システム1は端末10を備え、端末10を用いて操作されるロボット20をさらに備えます。端末10およびロボット20は、互いに通信を行います。具体的には、ロボット20および端末10は、ネットワーク(例えば、インターネット、LAN等)を介して通信を行ったり、直接互いに通信を行ったりします。ロボット20および端末10の間の通信は、有線通信または無線通信などです。

なお、システム1を構成する端末10およびロボット20の数は、図1に示す例に限られません。また、システム1は、ネットワークを介して端末10やロボット20と接続されます。図示されていませんが、システム1は、サーバ等を含む場合があります。サーバは、例えばロボット20の予約等、ロボット20に関する各種処理を端末10から受け付けます。

端末10は、ロボット20を操作するためにユーザが使用する情報処理装置です。端末10は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、ヘッドマウントディスプレイなどの汎用または専用の情報処理装置です。図1に示すように、端末10は、表示部10fを備えます。

ロボット20は、移動型のロボットです。図1に示すように、ロボット20は、駆動部20gおよびカメラ20hを備えます。例えば、図1の駆動部20gは、車輪を回転駆動させることでロボット20を特定の面S上で移動させます。特定の面Sは、例えば、地面、床、月面等です。図1において駆動部20gは、複数の車輪で構成されていますが、例えばロボット20は、一輪、二輪もしくは多輪によって走行可能、または、キャタピラによって走行可能、または、レールの上を走行可能です。または、飛び跳ねて移動可能であり、二足歩行、四足歩行もしくは多足歩行可能であり、または、スクリューによって水上もしくは水中を航行可能であり、または、プロペラ等によって飛行可能です。

カメラ20hは、端末10からの指示に従って決定される所定の領域を撮像します。ロボット20は、例えば、複数のカメラ20hを有し、複数のカメラ20hを使って複数の異なる領域を撮像できます。例えば、図1では、ロボット20は、端末10からの指示に基づいて決定される第1領域(移動方向先の様子など)を撮像する第1のカメラ(以下、「メインカメラ」という)20h1を備えます。ロボット20は、さらに第2のカメラ(以下、「ナビゲーション用カメラ」という)20h2を備え、第2のカメラ20h2を使って、ロボット20が移動する特定の面S上の第2領域(例えばロボット20の足元)を撮像します。メインカメラ20h1、および、ナビゲーション用カメラ20h2は、撮像する方向の向きを所定角度範囲で制御できます。

なお、ロボット20は、複数のカメラ20hを備えない場合もあります。例えば、撮像方向の向きを360度の角度範囲で制御できる1つのカメラ20hを備える場合があります。

ユーザは、端末10を用いてロボット20を操作します。端末10の表示部10fには、カメラ20hによって撮像された画像(以下、「撮像画像」)が表示されます。ユーザは、表示部10fに表示された撮像画像を見て、ロボット20の状態を確認できます。端末10は、ロボット20が移動している状態であるか否かに基づいて、撮像画像の表示様式を制御します。

ユーザは、端末10を介してロボット20を操作します。例えば、ロボット20を移動させる操作、または、ロボット20に搭載されたカメラの操作を行います。ロボット20を操作するための指示は、端末10からロボット20に送信されます。指示は、端末10からロボット20に直接送信されたり、端末10からサーバ等(不図示)を介してロボット20に送信されたりします。

ロボット20は、端末10からの指示に応じて、カメラ20hによる撮像画像を端末10に送信します。さらにロボット20は、ロボット20のマイクで取得された音声の他、例えば、ロボット20によって取得または検知等された各種のデータを端末10に送信します。これにより、ユーザは、端末10およびロボット20を介して、ロボット20がいる場所に自分もいるかのような感覚を得ます。

端末10およびロボット20の物理的構成

次に、端末10の物理的構成の一例を簡単に説明します。

端末10は、演算部に相当するプロセッサ、記憶部に相当するRAM、記憶部に相当するROM、通信部、入力部、表示部、および、カメラを有します。これらの各構成は、データが相互に送受信できるように接続されています。

プロセッサは、例えばCPUです。プロセッサは、RAMまたはROMに記憶されているプログラムを実行することにより、端末10における各種処理を制御します。プロセッサは、入力部や通信部から種々のデータを受け取り、データの演算結果を表示部に表示したり、RAMに格納したりします。

RAMおよびROMは、各種処理に必要なデータおよび処理結果のデータを記憶します。端末10は、RAMおよびROM以外に、ハードディスクドライブ等の大容量の記憶手段を備える場合があります。RAMおよびROMは、例えば、半導体記憶素子で構成されます。

通信部は、端末10を他の機器に接続するインターフェースであり、他の機器と通信します。

入力部は、ユーザからデータの入力を受け付けるためのデバイス、または、端末10の外部からデータを入力するためのデバイスです。入力部は、例えば、キーボード、マウスおよびタッチパネル等を有します。入力部は、音声入力のためのマイクを含む場合もあります。

表示部は、プロセッサによる演算結果を視覚的に表示するために、例えば液晶ディスプレイによって構成されます。表示部は、ロボット20のカメラ20hによる撮像画像を表示します。表示部は、複数の表示部を有する場合があり、複数の表示部それぞれは、カメラ20hによる異なる領域の撮像画像を表示します。例えば、メインカメラ20h1およびナビゲーション用カメラ20h2それぞれの撮像画像を表示します。なお、表示部は、端末10のカメラによる撮像画像を表示する場合があります。

カメラは、静止画像または動画像を撮像する撮像素子を有します。そして、所定の領域を撮像して撮像画像(例えば、静止画または動画)を生成し、ロボット20に送信します。

ロボット20の操作を実行させるためのプログラムは、例えば、コンピュータによって読み取り可能な記憶媒体(RAMやROM等)に記憶されて提供されます。または、例えば、通信部によって接続される通信ネットワークを介して提供されます。端末10では、プロセッサがプログラムを実行することにより、ロボット20を制御するための様々な動作が実現されます。

続いて、ロボット20の物理的構成の一例を簡単に説明します。

ロボット20は、演算部に相当するプロセッサ、記憶部に相当するRAM、記憶部に相当するROM、通信部、入力部、表示部、駆動部、および、カメラを有します。これらの各構成は、データによって相互に送受信できるように接続されています。

プロセッサは、RAMまたはROMに記憶されたプログラムの実行に関する制御、データの演算、加工を行います。プロセッサは、入力部や通信部から種々のデータを受け取り、データの演算結果を表示部に表示したり、RAMに格納したりします。また、プロセッサは、駆動部20gを制御し、ロボット20の動作を制御します。

RAMおよびROMは、各種処理に必要なデータおよび処理結果のデータを記憶します。ロボット20は、RAMおよびROM以外に、ハードディスクドライブ等の大容量の記憶手段を備える場合があります。

通信部は、外部装置との通信を行うデバイスです。

入力部は、外部からデータを入力するためのデバイスです。入力部は、例えば、キーボードおよびタッチパネルを有します。また、入力部は、音声入力のためのマイクを有する場合があります。

表示部は、各種情報を表示するためのデバイスです。表示部は、プロセッサによる演算結果を視覚的に表示し、例えば、液晶ディスプレイにより構成されています。例えば表示部は、端末10のカメラによる撮像画像を表示します。また、表示部は、ロボット20のカメラ20hによる撮像画像を表示する場合もあります。

カメラは、静止画像または動画像を撮像する撮像素子を有します。そして、所定の領域の撮像により撮像画像(例えば、静止画像または動画像)を生成し、生成された撮像画像を端末10に送信します。

ロボット20の制御を実行させるためのプログラムは、例えば、コンピュータによって読み取り可能な記憶媒体(RAMやROM等)に記憶されて提供されます。一方、通信ネットワークを介して提供される場合もあります。ロボット20では、プロセッサがプログラムを実行することにより、ロボット20を制御するための様々な動作が実現されます。

端末10の機能的構成

さらに、端末10の機能的構成の一例を簡単に説明します。

端末10の機能は、記憶装置(記憶部)に記憶されたコンピュータプログラムをプロセッサ(制御部)が読み込んで実行することによって実現されます。端末10は、例えば以下のように機能します。

端末10は、ロボット20への指示入力を受け付けます。指示は、例えば、ロボット20の移動、停止、移動方向D、駆動部20gの回転方向、カメラ20hが撮像する領域等を示します。

端末10は、ロボット20による撮像画像を取得します。具体的には、端末10は、上記ロボット20に対する指示に基づいて決定される第1領域を映す第1撮像画像(移動方向先の様子)、および、この指示に基づいて移動体を移動させる特定の面上の第2領域を映す第2撮像画像(ロボットの足元)を取得します。

端末10は、ロボット20の状態を判定します。具体的には、端末10は、ロボット20が移動している状態(以下、「移動状態」という)であるか否かを判定します。例えば、受け付けた指示に基づいて、ロボット20が移動状態であるか、または、ロボット20が移動していない状態(以下、「停止状態」という)のいずれであるかを判定します。なお、移動状態とは、ロボット20が実際に移動している状態の場合もあれば、実際に移動しているか否かを問わずに移動していると推定される状態の場合もあります。同様に、停止状態とは、ロボット20が実際に停止している状態の場合もあれば、実際に停止しているか否かを問わずに停止していると推定される状態の場合もあります。

端末10は、ロボット20が移動状態であるか否かに基づいて、第1撮像画像(移動方向先の様子)および第2撮像画像(ロボットの足元)の各表示を制御します。具体的には、端末10は、ロボット20が移動状態である場合、第1撮像画像および第2撮像画像の両方を表示します。一方、ロボット20が停止状態である場合、第2撮像画像を表示せずに第1撮像画像(移動方向先の様子)を表示します。

引き続いて、ロボット20が移動状態である場合の一例について図5を示しつつ説明します。図5(A)および図5(B)のいずれも、ロボット20が移動状態である場合を示しています。

図5(A)には、移動状態のロボット20のカメラ20hによって撮像される第1領域および第2領域が示されています。また、図5(B)には、端末10の画面の一例が示されています。

【図5】

図5(A)に示すように、ロボット20が移動状態である場合、端末10からのロボット20に対する指示に基づいて決定される第1領域は、ロボット20が移動する方向D(以下、「移動方向D」という)の所定の領域を少なくとも含みます。例えば、図5(A)では、ロボット20のメインカメラ20h1が第1領域(移動方向先の様子)を撮像して、第1領域に対応する第1撮像画像を生成します。

一方、図5(A)に示すように、第2領域は、例えば、ロボット20の移動方向Dであって特定の面S上の所定の領域(例えば、ロボット20の移動方向Dの足元の所定の領域)です。例えば、図5(A)では、ロボット20のナビゲーション用カメラ20h2が第2領域(ロボットの足元)を撮像して、第2領域に対応する第2撮像画像を生成します。

なお、図5(A)では、メインカメラ20h1およびナビゲーション用カメラ20h2がそれぞれ第1および第2領域を撮像して第1および第2撮像画像が生成されていますが、同一のカメラ20hが第1および第2領域を短時間の間に切り替えて両方の撮像画像が生成される場合もあります。生成された第1および第2撮像画像は、ロボット20から端末10に送信されます。

図5(B)に示すように、ロボット20が移動状態である場合、端末10は、第1撮像画像および第2撮像画像の両方を表示します。例えば、図5(B)における端末10では、画面の上方に第1撮像画像が表示され、画面の下方に第2撮像画像が表示されます。図5(B)では、第1撮像画像が第2撮像画像よりも大きく表示されていますが、このような表示に限られません。

図5(B)に示される画面では、ロボット20の移動方向Dの状態が第1撮像画像によって端末10のユーザに示されるだけでなく、ロボット20が移動する特定の面S(例えば、地面)の状態も、第2撮像画像によって示されます。したがって、端末10を操作するユーザは、ロボット20の足元の障害物等を第2撮像画像によって認識できます。そのため、ロボット20に対する指示(例えば、ロボット20の移動方向Dの変更指示等)を端末10に入力すれば、端末10のユーザは、ロボット20と障害物との衝突を回避できます。このように、ロボット20が移動状態である場合、第1撮像画像および第2撮像画像の両方を表示させることにより、端末10を操作するユーザがロボット20の操作を適切に行うことができます。

さらに、ロボット20が停止状態である場合の一例について図6を示しつつ説明します。図6(A)および図6(B)のいずれも、ロボット20が移動状態である場合を示しています。

図6(A)には、停止状態のロボット20のカメラ20hによって撮像される第1領域(移動方向先の様子等)が示されています。また、図6(B)には、端末10の画面の一例が示されています。

【図6】

ロボット20が停止状態である場合、第1領域は、ロボット20に対する端末10からの指示に基づいて決定される所定の領域です。例えば図6(A)では、ロボット20のメインカメラ20h1が第1領域を撮像して、第1領域に対応する第1撮像画像を生成します。生成された第1撮像画像は、ロボット20から端末10に送信されます。

図6(B)に示すように、ロボット20が停止状態である場合、端末10は、第2撮像画像を表示させずに上記第1撮像画像を表示します。例えば、図6(B)に示される画面では、端末10からの指示に基づいて決定される所定の領域の状態が、第1撮像画像によって端末10のユーザに示されます。

ロボット20が停止状態である場合、端末10を操作するユーザは、ロボット20の足元の障害物等を認識しなくともロボット20を操作できます。そのため、第1撮像画像だけを端末10で表示させることにより、所望の第1領域の状態を認識し易くなります。したがって、ロボット20が停止状態である場合、第2撮像画像を表示させずに第1撮像画像を表示することにより、端末10のユーザがロボット20の操作を適切に行うことができます。

システムの動作

最後に、図7のフローチャート用いて、システムの動作の一例について説明します。

【図7】

図7に示すように、ステップS101において、端末10は、ロボット20に対するユーザからの指示の入力を受け付けます。

ステップS102において、端末10は、ロボット20が移動状態であるか否かを判定します。例えば、端末10は、ステップS101で入力されたロボット20に対する指示に基づいて、ロボット20が移動状態であるか否かを判定します。

ロボット20が移動状態であると判定される場合(ステップS102のYES)、ステップS103において、端末10は、第1撮像画像および第2撮像画像の両方を取得します。例えば、図5(A)で説明したように、第1撮像画像(移動方向先の様子)は、ロボット20のメインカメラ20h1による第1領域の撮像によって生成されます。また、第2撮像画像(ロボットの足元)は、ロボット20のナビゲーション用カメラ20h2による第2領域の撮像によって生成されます。

ステップS104において、端末10は、第1撮像画像および第2撮像画像の両方を表示します(例えば、図5(B)参照)。

ロボット20が移動状態ではない(すなわち、停止状態である)と判定される場合(ステップS102のNO)、ステップS105において端末10は、第1撮像画像を取得します。例えば図6(A)で説明したように、第1撮像画像は、ロボット20のメインカメラ20h1による第1領域の撮像によって生成されます。

ステップS106において、端末10は、第2撮像画像を表示させずに第1撮像画像を表示部10fに表示させます(例えば、図6(B)参照)。

なお、図7に示す動作は、例示にすぎません。例えば、ロボット20が移動状態であるか否かに関係なく、端末10は第1撮像画像および第2撮像画像の両方を取得できます。この場合、ロボット20が移動状態であるなら第1および第2撮像画像の両方を表示させ、ロボット20が停止状態であるなら第2撮像画像を表示させずに第1撮像画像のみを表示させます。

以上のように、本発明のシステムでは、ロボット20が移動状態であるか否かに基づいて、上記第1撮像画像と第2撮像画像との表示が制御されます。したがって、端末10のユーザは、端末10に表示された、ロボット20のカメラ20hからの撮像画像に基づいて、ロボット20の操作を適切に行うことができます。

具体的には、ロボット20が移動状態である場合、図5(B)に示すように、ロボット20の移動方向Dの状態を示す第1撮像画像だけでなく、ロボット20が移動する特定の面Sの状態(足元付近)を示す第2撮像画像が端末10に表示されます。したがって、端末10のユーザは、第2撮像画像によりロボット20の足元の障害物等を認識できます。その結果、例えば、ロボット20と障害物との衝突を回避する等、ロボット20の操作を適切に行うことができます

変形例

上記の説明では、ロボット20のカメラ20hによって撮像される第1領域は、1つの領域でしたが、複数の領域を含む場合もあります。具体的には、第1領域は、端末10からの指示に基づいて決定される所定の領域だけでなく、この領域とは異なる方向の領域を含む場合があります。例えば、図5(A)において、第1領域は、移動方向Dだけでなく、移動方向Dとは逆方向の領域、移動方向Dの左方向の領域、または、移動方向Dの右方向の領域等をさらに含む場合もあります。この場合、例えば、図5(B)の第1撮像画像の表示領域において、複数の撮像画像が表示されます。図6(A)および図6(B)についても同様の変更が可能です。

また、上記の説明では、ロボット20のカメラ20hにより撮像される第2領域は、1つの領域を想定しましたが、複数の領域を含む場合があります。例えば、図5(A)において、第2領域は、ロボット20の移動方向Dであってロボット20が移動する特定の面S上の所定の領域だけでなく、移動方向Dとは逆方向、左方向、右方向等であって上記特定の面Sを含む所定の領域等を含む場合もあります。この場合、例えば、図5(B)の第2撮像画像の表示領域において、複数の撮像画像が表示されます。

上記の通り、本発明は、たとえば、端末を用いて移動体の操作を適切に行うことができるシステムを提供します。

本出願で特許となった本発明のポイントを解説しますと、ロボットが移動状態である場合、ロボットの移動方向先の空間の様子を示す画像だけでなく、ロボットの移動方向先の地面の様子を示す画像が端末に表示されます。よって、端末のユーザは、ロボットの足元の障害物等を認識できます。ロボットと障害物との衝突を回避できるため、ロボットを適切に操作できる点に特徴があります。

本発明を要約しますと、本発明のシステムは、移動体、および、端末(移動体の操作に用いられる)を備えます。

移動体は、駆動部を有し、端末からの指示に基づいて特定の面上(たとえば地面の上)を移動します。

移動体は、さらにカメラを有し、端末からの指示に基づいて決定される第1領域(移動方向先の様子)、および、特定の面上の第2領域(地面の一部)を撮像します。

詳しくは、端末は、第1領域に対応する第1撮像画像、および、第2領域に対応する第2撮像画像を取得します。さらに端末は、移動体が移動している状態であるか否かに基づいて、第1撮像画像および第2撮像画像の表示の仕方を制御します。

本発明のもう1つは、移動体の操作に用いられる端末です。

詳しくは、端末には、移動体への指示が入力されます。端末は、指示に基づいて第1撮像画像(移動方向先の様子)を取得します。また、指示に基づいて上記の第2撮像画像(地面の一部の画像)を取得します。さらに端末では、移動体が移動している状態であるか否かに基づいて、第1撮像画像(移動方向先の様子)および第2撮像画像(地面の一部の画像)の表示様式が制御されます。

本発明のもう1つは、コンピュータに、移動体の操作を実行させるためのプログラムです。

詳しくは、プログラムは、移動体への指示を受け付けます。また、上記の第1撮像画像、および、上記の第2撮像画像を取得します。また、移動体が移動している状態であるか否かに基づいて、第1撮像画像と前記第2撮像画像との表示を制御します。

本特許は、avatarin(アバターイン)株式会社から出願されたものです。この会社は、まだあまり知られていませんが航空分野のANAホールディングスが作った会社です。言い換えますと、ANA初のスタートアップ会社であり、ANAにおけるアバター事業を担う会社です。ウェブサイトを見ますと、上述した図面で示したロボットと同様の「newme(ニューミー)」というアバターロボットが紹介されています。

本特許の発明は、まさしく上記の「newme(ニューミー)」を開発する際に考え出されたアイデアであると思われます。航空分野で活躍しているANAホールディングスですが、アバター分野でもスタートアップ会社を作って事業を早急に拡大させたいという意図があるようです。

発明の名称

システム、端末及びプログラム

出願番号

特願2020-176174

公開番号

特開2022-067459

出願日

令和2年10月20日 (2020/10/20)

公開日

令和4年5月6日 (2022/05/06)

出願人

avatarin株式会社

発明者

深堀 昂、梶谷 ケビン
国際特許分類

H04N 7/18U
G05D 1/00B

経過情報

・本願はまだ審査請求されていないため、未審査です。


もしかするとZ世代の読者の方にはわからない言葉かもしれませんが、かつて職場や飲み会の席から退席する際に「わたし、そろそろドロンしますね」などと言って胸の前で印を結び、そのまま帰宅する、といったやりとりがありました。

もちろん昭和世代には常識だと思いますが、念のため説明すると、これは忍者が煙幕を張ってドロンと消えることを意図した表現だったわけです。昭和の時代にはまだ忍者がいたのです(笑)。

いまや死語となってしまった「ドロンします」ですが、Apple社の特許によってどうやらその表現が復活となりそうです。というのも、メタバースなどの仮想現実の世界にユーザが出入りする際の視覚効果として、この「ドロン」が特許になったのです。

今回はこの特許発明の詳細について、紹介していきます。

コンピュータが作り出す仮想現実世界(computer-generated reality 以下CGR)は、仮想現実VR(Virtual Reality)や複合現実MR(Mixed Reality)を含む概念として今や一般的なものとなりつつあり、人々が電子装置を介して感じる(または相互作用する)ことを全体的にまたは部分的にシミュレートされた環境を意味することは多くの人が理解しうることでしょう。

なお、VR環境は、コンピュータで生成された感覚入力に完全に基づくように設計されていますが、MR環境は物理的環境、つまり現実世界からの感覚入力を組み込むように設計されたシミュレートされた環境や表現を意味しています。MR環境の中でも一般的なものは、拡張現実(AR)が挙げられ、物理的環境に重ねられて表示等される模擬的表現を指します。例えば、現実の物体の上にホログラムを投影するような表現はAR表現といえます。

さて、当然ながら、CGR環境がユビキタスになる、つまり、当たり前のものとなるにつれて、人々はCGR環境において相互に交流する機会を増加させることとなります。CGR環境をユーザへもたらす機器としては一般的なパソコン等の他に、ヘッドセットや投影システム、ヘッドアップディスプレイ(HUD)、統合された表示能力を有する車両のフロントガラスなど、多くの態様が考えられますが、これはもはや一般的なものですので説明を割愛します。

発明の目的

本発明は、上述のようなCGR環境に進入または退出する際にユーザが用いるユーザ自身の投影画像や、ユーザーが用いるアバター等に適用されるイベントをカスタマイズするための例示的な技術が開示されたものです。

発明の詳細

では、図・画像を一部参照しながら、本発明の詳細を説明していきます。

【図1C,図1D】

図1CはVR技術を実行している場合を模式的に描いたものです。VRはコンピュータの中で仮想現実表現が完結しますので、現実世界とのリンクはありません。よって、画面内の表現には人や木は写っていません。

これに対して図1Dはパススルービデオを使用して、具体的にはAR技術、MR技術を実行する場合を模式的に描いたものです。現実世界の表現170は画面内に写り込んでいます。コンピュータはこの現実環境を取り込んで、そこに仮想オブジェクトであるハット160dを描いています。

【図1E】

図1Eは、さらにAR表現を拡張させたものとなります。現実世界表現から人のみを抜き出し、仮想オブジェクト環境に取り込んでいます(したがって、現実世界の木180bは写り込んでいません)。

このようなVR/AR技術が前提になっていることを踏まえて、以降説明を続けていきます。

【図2】

図2は、2種類の別々の表示装置(PCやスマホなど)に表示されるコンテンツを表しています。装置200を有する第1のユーザは、仮想環境400内に存在するとし、第1のユーザのアバターの視点で仮想環境400が表示されているとします。

このとき、装置300を有する第2のユーザは、仮想環境400に入っていません。仮想環境400は「ROOM A」という名前が付けられており、第2のユーザはその入口で「Enter」というボタンを見ているという状況にあることが理解できると思います。

【図3】

図3は、第2のユーザがEnterボタンを押して仮想環境400に入るときの例示的な応答を示します。この応答は第2のユーザに関連付けられた入口効果422を備えていることが本発明の特徴です。

なお、この入口効果は視覚のみならず、聴覚、触覚、または他の感覚的効果または作用のいくつかの組み合わせを含みます。例えば芳香剤を放出することによる香りの効果を組み合わせることもできますし、ファンを作動させることによる微風によって表現することも含みます。どのような入口効果とするかは、第2のユーザが指定します(入口効果もアバター表現の一部であるという認識をもっても良いでしょう)。この入口効果は、第2のユーザによって、異なる状況に対して異なる入口効果を定義することができます。

例えば、エントリが行われる時間であったり、仮想環境400に既に存在している他のユーザであったり、目的とする環境(例えばビジネス会議への呼び出しなど)の状況などの要因によって変化させることが可能です。

【図4】

入口効果422の一例を示したものが図4となります。煙幕が最初に表示され、徐々に第2のユーザを表すアバター420が表示されてくることが見て取れます。

この入口効果は、仮想環境に進入するというイベントが発生したときに提示される遷移的な効果です。必要に応じて、制限された持続時間(1〜5秒程度)の一時的な効果です。この遷移効果は、仮想環境やアバターといった永続的な表現特性とは区別されます。

【図5】

図5は、第2のユーザに関連付けられた入口効果422が完了した後の両デバイス200、300にそれぞれ表示される仮想環境400の図を示しています。それぞれの画面は互いのユーザのアバターの視点で表現されていることが見て取れます。

【図6】

ただし、受け手側のユーザが入口効果を指定することも妨げません。図6に示されているのは、第2ユーザ(300側)が指定しているのは煙効果422ですが、第1ユーザ(200側)は第2ユーザが何を指定していようと、例えばキラキラ光るスパークル効果424を表示する、といった限定をかけられるということです。

【図7】

【図8】

入口効果と同様に、仮想環境を退出するときの出口効果についても、まったく同様の効果を適用することが考えられます。第2のユーザが仮想環境400から退出するということは、第2のユーザのアバター420は仮想環境400からは消滅するわけですが、その消滅のタイミングで入口効果同様、様々な効果を付与することが可能です。

ここで例示するのはボルテックス効果426(渦巻効果)ですが、このような効果に限定する必要はもちろんありません。

【図9】

例えば図9に示されるような、落とし穴効果428によってユーザの出口効果とすることも考えられるでしょう。

【図10】

図10からは、仮想環境をプレビューする態様が例示されています。第2ユーザは、仮想環境400に入る前に、例えば中に誰がいるかなどを確認することができます。プレビューしている段階では第2ユーザは仮想環境400に入っていませんので、第1ユーザが見ている画面には何も変化は生じません。

【図11】

第2ユーザは例えば図11のプレビュー306のような画像で、仮想環境400に誰がいるかを確認することができます。

【図12】

次に図12を参照すると、CGR環境に進入又は退出するイベントをカスタマイズするための例示的なプロセス1200のフローチャートが示されています。

[ブロック1202]
ユーザの仮想環境400に進入又は退出のイベントを表すデータが受信される。

[ブロック1204]
イベントを表すデータの受信に応答して、視覚効果(例えば424、428)は、仮想環境に出入りするユーザ専用として指定されているか否かを判定する。

[ブロック1206]
ユーザに指定されたと判定されたことに応じて、専用指定された視覚効果を提供する。

[ブロック1208、ブロック1210]
ユーザに専用指定されていないと判定されると、相手側が送信したデータに対応する視覚的効果を提供する。

簡単にいえば、第1ユーザの仮想環境に第2ユーザが出入りするとき、第1ユーザが視覚効果を指定していればそれが再生され、指定していなければ第2ユーザが指定する視覚効果が再生されるということになります。ここでは「visual effect」として視覚の効果だけを例示していますが、視覚だけでなく音声や触覚(振動など)の効果としても同じこととなります。

本発明は、仮想環境に出入りする際に、ユーザのアバターの出現・消去に伴って一時的な効果を付与するという態様について特許を取得したものになります。

このような効果を伴わせると、仮想環境にいきなりアバターが出現したり消えたりするという表現ではなく、煙を伴って消えたりという、日本の忍者がドロンと消えるような、楽しい演出が可能となるわけですね。

本発明は、あたかも忍者が煙玉の煙幕とともに現れたり消えたり、といった表現を、仮想環境に出入りするアバターに適用しようとするものです。

日本人にとっては昔からアニメ等でおなじみの表現ではありますが、これを仮想環境に適用した点が特許性があったといえそうです。そうであれば、日本のアニメータが今後のVR/AR技術に対して、その表現態様などの面で特許を取得していくことも大いに考えられる、先例的な特許発明かもしれません。

発明の名称

Specifying effects for entering or exiting a computer-generated reality environment

出願番号

US17/176951

特許番号

US11222454B1

出願日

2021.2.16

登録日

2022.1.11

出願人

Apple, Inc.

発明者

Clément Pierre Nicolas BOISSIÈRE 他
国際特許分類

G06T 13/40 (2011.01)
G06T 19/00 (2011.01)
G06T 15/20 (2011.01)
G06F 3/01 (2006.01)
G06F 3/16 (2006.01)



古くから、現実世界と仮想世界を組み合わせた表現は特に映画において親しまれてきました。例えば1964年の作品「メリー・ポピンズ」や1988年の作品「ロジャー・ラビット」はアニメのキャラクターと現実(実写)のアクターとの絶妙な組み合わせによって、あたかも現実世界にキャラクターが存在しているような、いきいきとした表現がされていました。

現在の技術において、このような仮想現実を実現するには、一般的にはVR/ARゴーグルのような眼鏡やヘッドセットを装着する必要があります。今回は、このようなパーソナル機器なしで、現実世界に対してそれぞれのユーザの視点に合わせて仮想現実を投影する技術概念について、ディズニー・エンタープライズ社が特許を取得しましたので、どのような発明なのか、紹介していきます。

拡張現実(AR)は、現実環境と仮想世界とを組み合わせた感覚をユーザに提供するために用いられ、ARに没入させる娯楽体験を生成するための使用はますます増加しています。このような仮想環境を利用したいユーザは、典型的にはARゴーグル(ヘッドセット)のようなパーソナルデバイスを用いることで、3次元の実世界オブジェクトを2次元のデジタル画像によって増補することができます。

しかし、ARゴーグルやヘッドセットは、着用するのが不便であるばかりでなく、衛生面で伝染病に関する懸念が高く、ヘッドセットのようなウェアラブル機器が複数のユーザにより共用される利用環境においては、非常に面倒な衛生マニュアルが要求されます。さらには、これらの機器は個人使用をするものであるため、複数のユーザが同じ体験を共有することを妨げるものでもあります。このような背景から、複数のユーザが、各ユーザの視点に正確にレンダリングされる仮想世界の没入型シミュレーションを体験できる解決方法が望まれています。

発明の目的

本発明は、上述の課題を鑑みて、複数のユーザであっても、それぞれの視点に適合された、仮想の世界観を強く体験できるARシミュレータを提供するものです。

発明の詳細

では、図・画像を一部参照しながら、本発明の詳細を説明していきます。

【図1A】

図1Aの仮想世界シミュレータ100Aは、1つ以上の対象物又は構造物を含む現実世界の場所120、床122、側壁124、物体126a、および湾曲面128を有する対象物126bとともに実装されます。また、図1Aには、シミュレータ100Aの投影装置104を使用して映し出されたシミュレーション130、およびユーザ132が記載されています。

現実世界の場所120は、個人宅やテーマパークのアトラクション、ゲーム環境、又はスタジオなどが考えられます。

ユーザ132が、現実世界120を移動するにつれて、追跡システム102は、カメラ等の光学センサを用いてユーザの位置を把握します。また、同時にユーザ132の頭部追跡、視線追跡、輪郭追跡を行うようにしてもよく、これによりユーザ132の視点又は視野を把握します。これにより、投影装置104は、単にヴァーチャルシミュレーションを投影するだけでなく、ユーザが現実世界120内を移動するに従って、ユーザ132の視点からシミュレーション130に含まれるヴァーチャル効果を現実世界120内の3D形状とするように構成された映像を映し出すことができます。

このように常にユーザを追跡することで、ユーザ132がARヘッドセット等を装着する必要がなくなるのです。

【図1C】

図1Cに示した実施例は、追跡システム102を用いて第2ユーザ136の移動も同時に追跡することを示しています。ユーザが増えても同様に、各ユーザの視点・視野を把握し、それぞれのユーザへリアルタイムで同時発生するようなシミュレーションを投影させます。

【図1D】

図1Dは、さらに別の実施例を示したものとなります。図中のユーザ装置140は、シミュレーション130を現実世界120に投影するように構成された手持ちデバイスです。このユーザ装置140は、シミュレータ100Dと通信可能になっています。もちろん、シミュレータ自体をユーザ装置140に統合することも考えられます。

【図2】

図2は、ユーザ装置240の例示的な詳細表現です。ユーザ装置240はコンピューティングプラットフォーム210と通信可能に結合されます。コンピューティングプラットフォーム210は、投影装置204とマッピング装置206、トランシーバ216を含むことができます。

また、ハードウェアプロセッサ242,メモリ244、送受信機246、カメラ260、位置/場所センサー262を含めることもできます。アプリケーション218bによってヴァーチャルワールドのシミュレーション230を発生させ、それをディスプレイ248に表示することが例示できます。

【図3】

図3は、上述の実施態様を踏まえた、本発明のフローチャートです。

フローチャート370は、現実世界120のマップ258を得ることから開始します(動作372/ヴァーチャルシミュレータによって、当該シミュレータを含む現実世界のマップを取得する)。もちろん、マップ258は現実世界120の幾何学的形状の予め生成された3Dマップであって、それがマップデータベース266に格納されているものであっても構いません。このマップはコンピューティングプラットフォーム110/210のメモリ114/214に記憶されたデータベース266から得たマップ258でも同じです。

フローチャート370は、現実世界120での仮想効果の表示のために現実世界を識別し続けます(動作374/ヴァーチャルシミュレータによって、現実世界に表示させる1つまたは複数の仮想効果を特定する)。仮想効果356は仮想背景環境、及びシミュレートされた人またはアニメのキャラクターの形として、1つ以上の仮想アセット、シミュレートされた家具、アートワーク、または他の物体を含むことができます。

そして、現実世界120のユーザ132の移動を追跡し続けます(動作376/ヴァーチャルシミュレータの追跡システムを使用した、現実世界にいるユーザまたは現実世界内のカメラの、視点移動の追跡)。追跡システム102は、現実世界120においてユーザ132の移動を追跡していきます。追跡の具体的方法は、例えば無線信号の三角測量を実行することでも可能です。

そして、ユーザ132の移動を含む動作376の追跡に基づいて、仮想視覚効果を現実世界120の形状に合わせて投影します(動作378/ヴァーチャルシミュレータの投影デバイスを制御して、仮想世界をシミュレートし、追跡された視点移動に合わせて1つまたは複数の仮想効果を現実世界の形状に適合させることによって、仮想世界をシミュレートする)。

本発明では、可視仮想効果を用いて、可視のシミュレーション130/230の生成に焦点を当てていますが、もちろん同様にオーディオ効果についてもシミュレーションの効果を増強するために重畳的に用いられます

本発明は、従来の課題であるARヘッドセット等を用いることなく、仮想シミュレーションを体験できるようにする方法を開示しています。

本発明の概念によれば、ユーザ自身の視点からの現実世界と仮想世界の融合を強く体験できます。これによりリアルかつ没入性が高い、個別化された3D仮想体験をユーザに提供できます。

本発明は、現実世界に拡張現実(AR)の世界を投影する方法について、その概念的な部分を示すものです。

このような手法について、さらに実現のための具体的技術が組み合わされることで、テーマパークでアニメのキャラクターが観客のすぐ横に現れたり、家庭でヴァーチャルなインストラクターにスポーツの指導を受けられたりする未来が到来するかもしれませんね。

発明の名称

Virtual-world simulator

出願番号

US16/929912

公開番号

US2022/0020204A1

特許番号

US11210843B1

出願日

2020.7.15

公開日

2022.1.20

登録日

2021.12.28

出願人

Disney Enterprises, Inc.

発明者

Dane M. Coffey 他
国際特許分類

G06T 15/20 (2011.01)
G05B 19/4155 (2006.01)
G06T 7/20 (2017.01)
G06T 15/00 (2011.01)

経過情報

一部請求項に拒絶理由が通知されたが、その後意見書及び手続補正書を提出して特許査定となった。


CONCLUSION

大手企業といえど、時代の変化が早い時代は、変化に対応するべく常にチャレンジングな姿勢でいなければライバル企業や新規参入のベンチャー企業たちに、アッと言う間に抜かれてしまいます。

大企業は資金力があり、特許申請のコストもスタートアップほど気にせず積極的に出願できますので、何か新しい事業に取り組むときは出願してる傾向にあります。そのため、特許情報を読み解くとその企業がどんなことに興味を持っているかを予想することができます。
まさに+VISIONの活用方法としてはベストなVOLだったかと思います。

今回は「京セラ」「石黒教授」「サイバーエージェント」「落合陽一」とネームバリューもある方々が関連する特許で、テクノロジー系やIoT関連の技術でした。
出願時から既にサービス化をイメージしていることが伝わる内容でしたので、他に応用できるかどうかでなく、一つの方向性として捉えこの特許を侵害せずにさらに新しい発明をするのが「切磋琢磨」に繋がると思いますので、ぜひライバルとして挑んでみてはいかがでしょうか。