編集部が選ぶ未来を変える企業の特許

vol.7//

編集部が選ぶ未来を変える企業特許

目次

INTRODUCTION

普段なかなか特許情報に触れることはないと思いますが、実は日頃目にするものの中にもたくさんの特許技術が使われています。
当メディアの編集部は、ほぼ毎日のように特許情報を目にしているので、ちょっとしたニュースなどでも”商標”や”特許”のキーワードが書かれていると、その言葉に敏感に反応します。
会社や商品に対しても「どの会社がどんな特許を持っているのか?」「この商品は特許なのか?」など、普通とはちょっと違った視点で見ていると、その特許情報の中から、私たちの生活をより良くしてくれる特許を発見することができます。

 

そこで、今回は、そんな特許大好き編集部のスタッフたちが注目する”未来を変えてくれそう!”な企業が取得している特許技術の一部を解説していきます。

在庫物品管理

商品の移動を検出してレジの行列解消?

商品の移動を検出してレジの行列解消?

現在の電子商取引においては、配送センターの在庫を管理し、顧客が商品を注文すると、ピッカーにより在庫から商品が選択され、梱包ステーションで梱包され、顧客のもとへ出荷されるのが一般的な流れです。実店舗においても、顧客がアクセスできる場所(ショッピングエリア)の在庫をそれぞれ維持管理し、顧客は店舗内で商品を探し、購入のためにレジへ運んでいくという点で、商品の流れは同様といえます。

しかし、どちらの店舗形態でも、ピッカーや顧客が商品を取得するために、最初にその商品を探索しなければならないという問題点があります。

そこで、商品を在庫場所に配置する際、及び、除去する際に、商品リストの更新を自動で行わせることとしました。 例えば、ピッカーや顧客の手をカメラで常に撮影し、手が在庫場所に入る前の画像と、在庫場所を出た後の画像を比較することで、商品を在庫場所に配置したかどうかを判断します。これに基づいて、在庫リストを更新していけるわけです。

逆に、このシステムを応用すると、実店舗において顧客が商品を購入する場合に、商品をカートやバッグ、ポケットに商品を入れ、顧客が店舗を出た段階で、レジでの精算を経ることなく、顧客に代金を請求できることになります(もちろん事前に顧客登録等が必要となりますが)。

このような技術がスーパーマーケットなどの小売店にも採用されれば、長いレジ待ちの列に並んでイライラすることもなくなるかもしれませんね。在庫物品を管理する物流システムに関して、すでに特許となった特許出願をご紹介します。

今回ご紹介する特許出願は、アメリカで出願された特許出願を基にして国際特許出願(PCT出願)され、その後、日本へ移行してきた出願です。この出願(親出願)は審査されたものの特許になっていません。しかし、分割出願された本特許出願(子出願)が以下の通り特許となりました。
このように、アメリカの出願人によって出願されて特許となった内容についてご紹介します。

■従来の課題

従来、小売業者や卸売業者は、顧客の購入や取引先の注文に伴って変動する物品の在庫を管理しています。

例えば、電子商取引(ネット販売)で物品が注文されると、注文された物品は、在庫のなかから選ばれて取り出され、梱包ステーションに送られて、梱包され、出荷されます。同様に、実店舗での販売で購入される物品は、店舗の在庫のなかから選択され、顧客がレジまで持って行って購入されます。


一般的に、在庫は、倉庫または配送センターで管理されます。しかし、在庫のなかからどれだけの物品が取り出され(搬出され)、一方で、どれだけの物品が供給(搬入)されたかを管理することは、非常に手間がかかるため、めんどうな作業です。また、在庫の数を正確に管理することは困難です。

本発明は、上記の問題に鑑みてなされたものであり、在庫場所において物品の取り出しまたは供給を追跡するコンピュータシステムと、物品の追跡方法を提供することを目的とします。

■本発明の効果

本発明は、画像処理などを利用して在庫物品を管理するためのコンピュータシステム、および、その方法に関するものです。本発明では、人による手間を省いて、正確に物流管理できます。

■特許請求の範囲のポイントなど

本発明の特許請求の範囲における概要を説明します。本発明のコンピュータシステムは、在庫場所からの物品の取り出しと供給を追跡するシステムです。


詳細は、後で詳細にご説明しますが、本発明によって、手作業による在庫管理を省いて、ほぼ自動的に在庫管理することができます。


具体的には、ユーザが、在庫場所から物品を取り出し、取り出しが検出されると、取り出された物品が識別され、ユーザ物品リストが更新されます。ユーザ物品リストは、取り出したユーザにあらかじめ紐づけ(関連付け)されています。

例えば、ユーザが物品を搬出する担当者である場合、その搬出担当者のユーザ物品リストは、在庫場所から搬出するあらゆる物品を識別するために紐付け(関連付け)されています。搬出担当者が物品を取り出すと、その物品が識別され、搬出担当者がその物品を取り出したことを記録として残すために、ユーザ物品リストが更新されます。

反対に、ユーザが、在庫場所に物品を供給した場合、上記と同様に、物品が識別され、そのユーザにあらかじめ紐づけされたユーザ物品リストが更新されます。

例えば、ユーザが搬入担当者である場合、搬入担当者のユーザ物品リストは、在庫場所に搬入(供給)するあらゆる物品を識別するために紐づけ(関連付け)されています。搬入担当者が物品を搬入すると、その物品が識別され、搬入担当者が物品を搬入したことを記録として残すために、ユーザ物品リストが更新されます。

■全体構成

本発明の特許請求の範囲には、大きく分けて、「コンピューティングシステム」の発明と、上記コンピュータによって実行される「方法」の発明とが記載されています。

実施される代表例を概説しますと、以下の通りです。
ユーザ(物流倉庫の搬入者など)が在庫場所に近づくと、カメラなどによってそのユーザを認識します。その特定のユーザが取り出すと予想される物品リスト(いろいろな物品のリスト)は、データストア(データベース)から入手されます。


ユーザが物品を取り出す前のカメラ画像(ビフォア画像)と、取り出した後のカメラ画像(アフター画像)とを画像解析などによって解析します。そして、ユーザが取り出した物品が、ユーザの物品リストのなかにある物品と一致した場合には、物品リストを更新します(物品リストにおいて、その物品を表す識別子(管理記号など)を変更します)。

まず、「コンピューティングシステム」について説明します。
本発明の「コンピューティングシステム」は、
・1つまたは複数のプロセッサと、
・プロセッサに接続されたメモリと、で構成されています。


メモリは、上記のプロセッサに実行させるプログラム命令を格納しています。そして、プログラム命令は、プロセッサに以下のことを実施させます。
1.物資取扱施設内の第1入力装置で入力された第1データ(例えばカメラで撮った画像)を使って、物資取扱施設内のユーザの位置(在庫場所近く)を判断する。
2.ユーザに紐付けされたユーザ物品リスト(ユーザによって取り出される予定の物品を識別している)を、(あらかじめ作成されている)データストアから取り出す。
3.在庫場所にユーザが到達する前に撮影されたユーザの第1画像(ビフォア画像)を、第1入力装置または別の第2入力装置(カメラなど)から受信する。
4.ユーザが在庫場所から離れた後に撮影されたユーザの第2画像(アフター画像)を、第1入力装置または別の第2入力装置(カメラなど)から受信する。
5.第1画像(ビフォア画像)と第2画像(アフター画像)との比較に基づいて、ユーザが持っている対象物が、第2画像(アフター画像)のなかにあるか否かを判断させる。
6.ユーザが持っている対象物が第2画像(アフター画像)にある、という判断に基づいて、その対象物と、在庫場所に関連付けられた在庫物品とが同じであると判断させる。
7.その物品を表す物品識別子(物品の管理記号など)をユーザ物品リストに追加させる。

また、本発明のコンピュータによって実行される「方法」の発明では、以下のことを実行します。
1.物資取扱施設内に配置された第1入力装置で入力された第1データ(例えばカメラで撮った画像)を使って、物資取扱施設内のユーザの位置を判断する。
2.ユーザによって動かされる物品(あらかじめユーザに紐づけされた物品)を識別するユーザ物品リストを(あらかじめ作成されている)データストアから取得する。
3.第1入力装置または別の第2入力装置(カメラなど)から、物資取扱施設内の在庫場所にユーザが手を置く前に撮影された第1画像(ビフォア画像)を受信する。
4.第1入力装置または別の第2入力装置(カメラなど)から、ユーザが在庫場所に手を置いた後に撮影された第2画像(アフター画像)を受信する。
5.第1画像(ビフォア画像)と第2画像(アフター画像)とに基づいて、(画像解析などによって)ユーザが在庫場所に対象物を置いたと判断する。
6.在庫場所に関連付けられた対象物の識別を判断する。
7.在庫場所に置かれた対象物を表す物品識別子(物品の管理記号など)をユーザ物品リストから取り除いて、ユーザ物品リストを更新する。

■細部

■上記コンピューティングシステムにおいて、プロセッサに第1画像(ビフォア画像)と第2画像(アフター画像)とを比較させるプログラム命令は、以下のことをさらに実施できます。すなわち、手の色と物品の色とを区別して物品を認識します。


第1画像(ビフォア画像)と第2画像(アフター画像)とにそれぞれ写っているユーザの皮膚の色に基づいて識別を実行し、
第2画像(アフター画像)における、ユーザの皮膚の色と異なる色の対象物(ユーザの手が持っている物)を識別する。

■対象物が在庫の物品と一致するという判断は、好ましくは、在庫場所にある物品の重量、圧力計、形状などを基にして考察します。

本発明に含まれる上記「方法」の発明は、好ましくは以下のように設計されています。

◆対象物が在庫の物品と一致するか否かを判断するときに、
第1画像(ビフォア画像)および第2画像(アフター画像)の一方または両方を画像処理し、
物品と対象物との関連性を判断すべく、過去に記録された物品と、対象物とを比較し、
最も高い信頼度スコアを有する物品(総合的に判断して最も高い確率で、確かにその物品であると決定できる物品)の物品識別子(リスト中の記号等)を変更することによって、ユーザ物品リストを更新する。

◆対象物が在庫の物品と一致するか否かを判断するときに、
最も高い関連性を数値化するために信頼性スコアを計算し、
信頼性スコアがスレショルド(設定値)を超えているかを判断し(すなわち、信頼性の得点が合格点以上かどうかを判断し)、
ユーザ物品リストの更新を、無人入力によって自動的に行う。

◆在庫場所に残っている対象物を判断し、
在庫場所に関連付けられた物品の在庫数を更新する。

このような発明を実施するための具体例について、以下に説明します。

■実施形態

図1は、物資取扱施設の一例を図示したブロック図です。

【図1】

図1に示されているように、物資取扱施設100は、受領エリア120と、任意の数の在庫物品135A~135Nを収納するために構成された収納エリア130と、1つ以上の移行エリア140とを備えます。また、物資取扱施設100は、この施設内で各ユーザが相互に情報を伝え合うように構成された在庫管理システム150をさらに備えています。


物資取扱施設100は、様々な供給業者から在庫物品135を受け取り、そして、ユーザが物品を取り出したり、注文を受けるまで保管したりするように構成されています。物品の一般的な流れは、矢印で示されています。具体的には、製造業者、流通業者、卸売業者などから物品135を受領エリア120で受領できます。物品135は、例えば、商品、日用品、生鮮食品など、さまざまなタイプの物品です。

物品135は、パッケージ、カートン、木箱、パレットといった数えることが可能なものであり、個数単位で、管理されます。また、物品135は、長さ、面積、体積、重量といった単位で管理できます。

物品135は、顧客の注文を受信した場合、またはユーザが物資取扱施設100を進んでいくと、収納エリア130内の在庫から選択されて取り出されます。例えば、ユーザは、物資取扱施設を進みながら収納エリア130内の在庫場所から物品135を取り出します。なお、物資取扱施設の従業員は、顧客の注文に基づいたリストに基づいて、収納エリア130内の在庫場所から物品135を取り出すこともあり得ます。


例えば、ユーザが在庫場所に到達し、収納エリア130内の在庫場所に手を入れる前に、ユーザの手の画像が撮影されます。また、ユーザの手が在庫場所から離れるときに、手の画像が撮影されます。これらの画像を比較することによって、ユーザが、在庫場所から対象物を取り出したか、または、在庫場所に対象物を供給したかを判断できます。例えば、ユーザの手の肌色を判断するために、画像解析が実行されます。

次に、図2に基づいてさらに詳しく説明します。図2のブロック図は、物資取扱施設のさらなる詳細を図示しています。

【図2】

図2は、物資取扱施設200の例を示しています。例えば、物資取扱施設200は、物資取扱施設内の画像が撮影できるように複数のカメラ208を備えています。画像撮影装置208は、物資取扱施設内のユーザや場所の画像を撮影するために、天井などに配置されています。複数のカメラ208は、例えば、ユーザの画像や在庫場所の周囲の画像を撮影でき、また、物品、物品の在庫場所への移動、在庫場所から移動する対象物(例えば、ユーザの手、物品)の画像を撮影できます。


カメラに加えて、圧力センサ、赤外線センサ、重量計、体積変位センサなどの入力装置を使用することも可能です。例えば、対象物が在庫場所から取り出しまたは供給されることを検出するために、圧力センサや重量計を使用することができます。同様に、ユーザの手と在庫物品とを区別する赤外線センサを使用できます。


物資取扱施設200内にいるユーザ204は、携帯装置205を所有することも可能です。携帯装置を通して、物資取扱施設200内に配置されている物品207の情報を確認できる場合もあります。
帯装置205は、在庫管理システム150との通信を容易にするために、例えば無線モジュール205と、ディスプレイ(例えば、タッチベースのディスプレイ)とを有します。携帯装置205は、在庫管理システム150へ提供できる「固有の識別子」を有します。


携帯装置205は、在庫管理システム150と連携して、作動または通信できます。同様に、在庫管理システム150は、携帯装置205と相互に情報を伝達し合い、ユーザを識別することができ、また、ユーザと通信することができます。


在庫管理システム150は、ユーザ204との間の通信を容易にするために、プロジェクタ210、ディスプレイ212、スピーカ213、マイクロフォン214のような入力/出力装置を備えることができます。同様に、在庫管理システム150は、携帯装置205との間の無線通信を容易にするために、無線アンテナ216などの通信デバイスを備えることができます(例えば、WiFi、ブルートゥースなど)。


携帯装置205が在庫管理システム150に接続して通信するために、物資取扱施設内のアンテナ216を利用できます。一方、在庫管理システム150が物資取扱施設200から離れている場合でも、在庫管理システム150は、同様に、ネットワーク202を通じて、在庫管理システム150及び/または携帯装置205と通信することが可能です。

以下、ユーザが物資取扱施設内の在庫場所から物品を取り出した(搬出した)ことを判断する例について説明します。

ユーザが物資取扱施設に入ると、在庫管理システム150は、顔認識、ユーザIDカード、ユーザ提供情報などによって、ユーザを識別できます。ユーザ情報を識別すると、ユーザの物品検索履歴、購入履歴などが、データストアから取得されます。


ユーザが物資取扱施設200を進んでいくと、画像装置208は、ユーザ204の画像を撮影し、その画像を処理するためにコンピューティングリソース203に提供できます。例えば、在庫場所に写り込む直前のユーザの手の画像が撮影されるか、または、在庫場所から対象物を取り出した直後のユーザの手の画像が撮影され、コンピューティングリソース203に提供されます。

コンピューティングリソース203は、対象物が在庫場所から取り出されたか、在庫場所に供給されたかを判断するために画像を処理できます。在庫場所から取り出されたと判断した場合には、在庫管理システム150は、在庫場所に収納されている在庫品の識別情報を取得し、ユーザがその在庫品を在庫場所から取り出したことを識別して、ユーザ物品リスト(そのユーザに紐づけされた物品リスト)において、その在庫品の物品識別子を変更できます。同様に、物品が在庫場所から取り出されたことを反映するために、在庫場所における在庫品の在庫量を減少させることができます。


別の例では、ユーザが在庫場所から取り出した対象物を識別できなかった場合、在庫管理システム150は、対象物の識別をサポート(支援)します。そのサポートでは、ユーザに関する他の情報(例えば、過去の購入履歴、現在取得している物品)を利用することができます。例えば、在庫管理システム150は、取り出された対象物がケチャップのボトルかマスタードのボトルか判断できない場合、過去の購入履歴、または、以前に在庫場所から取り出された物品を参考にできます。具体的には、ユーザの購入履歴を参照したときにケチャップのみ購入履歴がある場合、ユーザがおそらくケチャップを在庫場所から取り出したことを確認するために、このような情報を使用できます。


なお、対象物が在庫場所から取り出し/供給されたことの判断をサポート(支援)するために、画像解析に加えて、重量計または圧力センサから受信したデータに基づいて、対象物の重量を判断できます。複数のしくみを組み合わせることによって、識別される物品と、実際に在庫場所から取り出された物品とが一致する確率を高めることができ、これによって高い信頼度スコアを生み出すことができます。


さらなる工夫も可能です。例えば、取り出された在庫品の識別は確認できたが、取り出された後の在庫品数を確実には判断できない場合、在庫管理システムは、携帯装置205を通して、ユーザに情報を提供できます。例えば、まず、ユーザが在庫場所から物品Aを供給/取出したことを携帯装置が識別します。次に、制御装置224によって、物品をユーザ物品リストに追加すべきか、物品の数量をどれだけユーザ物品リストに追加すべきかをユーザが念のための確認をすることができます。

展望、結語

以上ご説明しましたように、本発明のコンピューティングプログラム、および、そのプログラムを利用する方法によって、在庫場所において物品の取り出しおよび供給を精度よくしかも簡便に追跡できます。上述したような工夫が詰め込まれた本発明は、人が作業しなくても物流管理できることから、将来的に注目できるものです。

■概要

出願国:日本 発明の名称:物品の相互作用及び移動検出方法
出願番号:特願2017-124740(P2017-124740)
特許番号:特許第6463804号(P6463804)
出願日:2017年6月27日
公開日:2017年11月24日
登録日:2019年1月11日
出願人:アマゾン テクノロジーズ インコーポレイテッド
経過情報:親出願は特許査定となりましたが特許料不納により権利とならず、分割出願された本出願(子出願)が審査を経て、特許となりました。本出願からさらに分割出願された孫出願は、審査中です。
その他情報:本権利は抹消されていません。存続期間満了日は2034年6月18日です。国、加国で特許登録となっています。
IPC:G06Q

<免責事由>
本解説は、主に発明の紹介を主たる目的とするもので、特許権の権利範囲(技術的範囲の解釈)に関する見解及び発明の要旨認定に関する見解を示すものではありません。自社製品がこれらの技術的範囲に属するか否かについては、当社は一切の責任を負いません。技術的範囲の解釈に関する見解及び発明の要旨認定に関する見解については、特許(知的財産)の専門家であるお近くの弁理士にご相談ください。

仮想を現実と思わせる工夫

なにが現実で何が過去なのか混乱させる技術?

なにが現実で何が過去なのか混乱させる技術?

仮想現実研究において、実際には目の前で起きていないことを、いかにして実際に目の前で起きていることとして認識させるか、というのは長くこの研究の課題となっています。

どうやって現実とは違う映像を現実のものとして認識させるか、というのはなかなか難しい問題なのです。

例えばVRゴーグルを装着して見えるもの、これってちょっと現実とは違うものを見せられているという認識をもつのが普通だと思います。というのも、CGや映像の動きの不自然さが、目の前の映像を「現実ではないもの」と認識するからですね。


そこで、ある場所において撮影された、まったく同じ視点から撮影された映像を、現在映像、代替映像、これらを組み合わせた複合映像へと切り替える映像切替手段を備える「代替現実システム制御装置」が開発されました。

これは、過去の映像(自分が写っている可能性もある)と現在の映像をミックスして視聴者に見せるというもので、どこまでが過去映像で、どこからが現在映像であるかを混乱させることが目的なのです。過去映像の撮影にあたっては、同じ視点であることはもちろん、周辺の音声についても同様です。

このような装置を使って映像を見せると、ほとんどの被験者は、自分の判断に自信を持てなくなり、ほとんどの過去映像を現在実際に生じている事象として受け止めるようになるそうです。


このような技術は、研究分野だけでなく、例えば、ヘッドマウントVRディスプレイを用いたいわゆる「没入型一人称ゲーム」に応用が可能かもしれません。ゲーム内環境の現実感等を高めることができるとのことで、このような技術を応用したVRゲームの今後の発展がとても気になりますね。

今回ご紹介する特許出願は、日本の研究機関によって出願され、いったん特許となった出願です。その後、特許料の不納によって特許権が消滅しています。しかし、審査を経て特許となった内容ですから、技術的に意味のある内容となっています。


このように、日本研究機関によって出願されて特許となった内容についてご紹介します。

■従来の課題

従来、仮想現実研究において、仮想の事象を、いかに現実の事象として被験者に認識させるかが課題となっています。

しかしながら、被験者(体験者)が、仮想の事象を現実の事象として認識(「代替現実」といいます)できない場合が多いといえます。その原因は、その映像そのものに現実感がないこと、また、CGの不自然さ、映像の動きの不自然さなどと考えられています。

本発明は、上記の問題に鑑みてなされたものであり、被験者に対し、実際には目の前で起きていない仮想の事象を、あたかも実際に目の前で起きている現実の事象として認識させることができる代替現実システムを実現することを目的とします。

■本発明の効果

本発明によれば、被験者に対し、仮想事象をまるで現実事象のように認識させることができます。

■特許請求の範囲のポイントなど

本発明の特許請求の範囲における概要を説明します。本発明の代替現実システムは、所定の場所であらかじめ撮影した映像と、所定の場所へ来た被験者が見ている映像とを組み合わせて利用し、絶妙なタイミングで映像を切り替えるシステムです。


詳細は、後でご説明しますが、本発明によって、仮想事象を、あたかも現実事象として認識させることができます。


具体的には、被験者は、ヘッドカメラやヘッドマウントディスプレイを備えた視聴モジュールを装着します。被験者は、その視聴モジュールを装着した状態で、所定の場所へ行きます。所定の場所に来たときに、ヘッドカメラによってそのときの現在映像を撮り続け、被験者へ映し出します。一方で、所定の場所における映像は、過去映像として、全方位カメラなどによって、あらかじめ撮っておきます。


そして、被験者が所定の場所において、例えば視線を急激に変えたときに、現在映像と過去映像とを切り替えます。視線の変化は、視聴モジュールによって検出されます。被験者は、視線を急に変えたときに映像が変わったため、映像の切り替えに気づきにくく、現在映像と過去映像との区別がつきにくくなります。例えばこのようにして、仮想事象と現実事象との区別をつけにくくします。

■全体構成

本発明の特許請求の範囲には、大きく分けて、「代替現実システム制御装置」の発明、「代替現実システム制御装置」の発明、「代替現実システム」の発明、「代替現実システム制御方法」の発明、そして、「記録媒体」の発明が記載されています。


いずれの発明も、代替現実システムを基本としており、同様の内容となっています。

「代替現実システム制御装置」の発明を概説しますと、以下の通りです。


(1)被験者が見ている現在映像を取得する「現在映像取得手段(装置)」と、
(2)あらかじめ代替映像(過去映像)を用意しておく「代替映像取得手段(装置)」と、
(3)代替映像から部分映像を切り出すために、切出し方向(被験者が見ている方向)を更新(変更)する「映像方向更新手段(装置)」と、
(4)視聴者が見ている映像を、現在映像へ、または、部分映像へ、または、現在映像と部分映像とを組み合わせた複合映像へ、と切り替える「映像切替手段(装置)」とを利用します。


そして、上記の(4)「映像切替手段(装置)」は、被験者にバレにくいタイミングを見計らって、映像を切り替えます。

さらに「代替現実システム制御装置」について詳しく説明します。
本発明の「代替現実システム制御装置」は、以下のように4つの手段で構成されています。


(1)所定の場所において視聴者が見ている現在映像を取得する「現在映像取得手段」と、
(2)所定の場所で撮影された、あらかじめ用意された全方位映像であって、現在映像とは異なる代替映像(過去映像)を取得する「代替映像取得手段」と、
(3)視聴者が見ている方向の領域を代替映像から切り出して部分映像を得るべく、切出し方向を更新(変更)する「映像方向更新手段」と、
(4)所定の場所において視聴者に表示する映像(視聴者が見ている映像)を、現在映像へ、または、部分映像へ、または、現在映像と部分映像とを組み合わせた複合映像へ、と切り替える「映像切替手段」とを備えます。

そして、上記の(4)「映像切替手段」は、下記(a)~(f)の少なくともいずれか一つの方法によって、映像を切り替えます。

(a)視聴者の急速眼球運動を検出したタイミングで、映像を切り替える。

(b)視聴者が、切り替え前後の映像の両方に映し出されているオブジェクト(物体)に着目したことを検出したタイミングで、映像を切り替える。

(c)視聴者が、映像切り替え用のスイッチを押下したタイミングから遅延した(異なる)タイミングで、表示される映像を、現在映像と、現在映像以外との間で、切り替える。

(d)切り替え前後の映像に映し出されたオブジェクト(物体)の少なくとも一方をフェードインまたはフェードアウトさせつつ、切り替え前後の映像を重ね合せて、映像を切り替える。 (e)視聴者が所定の場所から移動すると、映像を現在映像に切り替え、移動中には、現在映像を表示させ続ける。

(f)視聴者が所定の場所に留まっている場合に、映像を切り替える。

また、特許請求の範囲に記載されているその他の発明も、上記の「代替現実システム制御装置」の発明と同様の内容を有しています。

■細部

本発明の特許請求の範囲には、さらに、下位概念の発明として、以下のような内容の発明も記載されています。上記「代替現実システム制御装置」は、さらに以下のように設計されても良いのです。

・好ましくは、視聴者の頭部の動きを検出するセンサをさらに備えます。映像方向更新手段は、検出された動きに応じて、表示映像の方向を更新(変更)します。
・好ましくは、代替映像を表示する際に、代替映像に予め対応付けられた、匂い、熱、振動、および触感の少なくともいずれか一つを発生させる発生手段をさらに備えます。

図1は、代替現実システムのシステム構成を表す図です。

■実施形態

図1は、物資取扱施設の一例を図示したブロック図です。

【図1】

図1に示されているように、代替現実システム100は、代替現実を被験者に体験させるシステムでず。代替現実システム100は、制御装置110、録画モジュール120、および視聴モジュール130を備えています。


制御装置110は、代替現実システム100を制御します。例えば、制御装置110は、パーソナルコンピュータによって実現されたり、サーバや、専用の機器によって実現されたりします。

次に、図2及び図3に基づいてさらに詳しく説明します。図2は、録画モジュールの具体例を図示しています。図3は、視聴モジュールの具体例を図示しています。

【図2】

【図3】

図2は、録画モジュール120の具体例を示します。録画モジュール120は、過去映像の撮像および録画に利用されます。図2に示すように、録画モジュール120は、全方位カメラ122およびマイク124を備えます。

全方位カメラ122は、異なる方向の映像が撮れるように、複数の撮像装置を備え、これにより、全ての方向(水平方向に360°かつ垂直方向に360°)を撮像することが可能です。全方位カメラ122によって撮像された映像は、制御装置110へ出力され、過去映像として扱われます。


マイク124によって集音された音声は、制御装置110へ出力され、上記過去映像の音声として扱われます。

図3は、視聴モジュール130の具体例を示します。視聴モジュール130は、現在映像の撮像、各映像(現在映像および過去映像)の視聴に利用されます。図3に示すように、視聴モジュール130は、ヘッドフォン132、ヘッドカメラ134、ヘッドマウントディスプレイ136、動きセンサ138、マイク140、スイッチ142、およびアイトラッカー144(図1参照)を備えます。


ヘッドカメラ134は、被験者の前方の映像を撮像します。ヘッドカメラ134によって撮像された映像は、現在映像として、制御装置110へ出力されます。また、マイク140は、周辺の音声を録音します。マイク140によって録音された音声は、上記現在映像の音声として、制御装置110へ出力されます。


ヘッドマウントディスプレイ136は、制御装置110から出力された映像(現在映像または過去映像)を表示します。ヘッドフォン132は、制御装置110から出力された音声(現在映像または過去映像の音声)を出力します。


動きセンサ138は、被験者の頭部の動きを検出します。アイトラッカー144は、被験者がヘッドマウントディスプレイ136画面のどこを見ているかを知るために視線方向を計測します。スイッチ142は、制御装置110に対して、映像の切り替えを指示するためのものです。被験者は、スイッチ142を押下することにより、制御装置110に対して、映像の切り替えを指示することができます。

続いて、図6に基づいてさらに詳しく説明します。図6は、代替現実システム100による代替現実体験の具体例を示します。図6(a)~(e)は、代替現実体験における代表的なシーンを、時系列に示しています。

【図6】

(a.過去映像の撮影シーン)
図6(a)は、代替現実体験における過去映像の撮影シーンを示します。体験室の所定の位置に全方位カメラ122が設置され、全方位カメラ122によって全方向の過去映像が撮像されています。


この体験室に被験者が案内されます。このとき、この体験室で体験を行うことが案内者によって説明されつつ、その様子が全方位カメラ122によって撮像されています。


続いて、被験者は、全方位カメラ122が置かれていた場所に移動し、そのときに、ヘッドマウントディスプレイ136が装着されます。ヘッドマウントディスプレイ136から表示される映像は、初めは現在の映像(ヘッドカメラ134によって撮像されているライブ映像)ですが、被験者が気付かない間に、過去の映像に切り替えられます。このように、最初に現在の映像を表示することによって、被験者に「現在の映像を視聴している」という意識を植え付けることができ、過去の映像への切り替えを気付きにくくしています。

(b.録画シーン)
図6(b)は、代替現実体験における録画シーンを示しています。この録画シーンにおいて、ヘッドマウントディスプレイの具合について被験者が問いかけられています。しかし、これは、過去の映像です。被験者は、問いかけが過去の映像によるものであることに気付かないまま応答しています。

(c.録画シーン)
図6(c)は、代替現実体験における録画シーンを示しています。図6(b)に示すシーンの後、ヘッドマウントディスプレイ136には、図6(a)で撮像した過去の映像が表示されます。この映像には、被験者自身が映し出されているため、被験者は、この映像が過去の映像であると認識します。そして、被験者は、いつの間にか過去の映像に切り替わっていたことを知ります。これによって、ヘッドマウントディスプレイに表示されている映像が、操作されているかもしれない、と疑い出します。

(d.録画シーン)
図6(d)は、代替現実体験における録画シーンを示します。この録画シーンにおいては、案内者が被験者に対して、図6(c)の映像が過去の映像であること、および、今視聴している映像が、現在の映像であることを説明しています。しかしながら、この説明は、過去の映像によるものです。
ところが、被験者は、シーンが切り替わったこと、および、上記説明を受けたことによって、今視聴している映像が、現在の映像であると思い込んでしまっています。特に、図6(c)のシーンにおいて、被験者自身を映像に映し出すことによって、過去の映像を過去の映像らしく演出したことにより、図6(d)のシーンにおける上記説明の真実感が高められ、したがって、図6(d)のシーンにおける映像の現実感がより高められています。

(e.ライブシーン)
図6(e)は、代替現実体験におけるライブシーンを示すものである。このライブシーンでは、さらに、案内者が被験者に対して、今視聴している映像が、現在の映像であることを説明している。これにより、図6(d)のシーンにおいて既に現実に戻ったと信じている被験者は、現実と過去の区別がもはやできなくなっています。

さらなる工夫も可能です。例えば、映像切替手段が過去映像に切り替えるときに、匂い、熱、振動、および触感の少なくともいずれか一つを発生させる発生手段をさらに備えることもできます。


例えば、過去映像に人が倒れるシーンがある場合、その過去映像を被験者に視聴させつつ、倒れるタイミングで振動を発生させます。これにより、被験者は、現実に人が倒れたような感覚を持ち、過去映像の現実感を高めることができます。


他の例では、火災のシーンが含まれている場合、その過去映像を被験者に視聴させつつ、被験者が感じ取れる熱や匂いを発生させます。これにより、被験者は、現実に火災が発生しているような感覚を持ち、過去映像の現実感を高めることができます。

展望、結語

以上ご説明しましたように、本発明の代替現実システム、このシステムの制御装置、制御方法、および、そのシステムのためのプログラムなどによって、被験者に対し、仮想事象を、あたかも現実事象として認識させることができます。上述したような工夫が詰め込まれた本発明は、仮想現実をよりリアルに体験できる技術であり、将来的に注目できるものです。

■概要

出願国:日本 発明の名称:代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体
出願番号:特願2012-181114(P2012-181114)
特許番号:特許第5594850号(P5594850)
出願日:2012年8月17日
公開日:2014年2月27日
登録日:2014年8月15日
出願人:独立行政法人理化学研究所
経過情報:本出願はいったん特許となりましたが、特許権を維持するための特許料不納により特許権は抹消しています。
その他情報:本出願からさらに分割出願された子出願は、審査中です。なお、本特許出願を基礎出願にして、国際特許出願され、各国でも特許権を獲得する意向があるようです
IPC:G06T

<免責事由>
本解説は、主に発明の紹介を主たる目的とするもので、特許権の権利範囲(技術的範囲の解釈)に関する見解及び発明の要旨認定に関する見解を示すものではありません。自社製品がこれらの技術的範囲に属するか否かについては、当社は一切の責任を負いません。技術的範囲の解釈に関する見解及び発明の要旨認定に関する見解については、特許(知的財産)の専門家であるお近くの弁理士にご相談ください。

ユーザーの感情や態度を読み取る音声応答デジタルエージェント

エージェントがあなたのウソを見破る?

エージェントがあなたのウソを見破る?

ユーザーが発話する音声を受け付けて、その音声の内容に応じて情報処理を実行する情報処理装置(デジタルエージェント)は、SiriやAlexa、Cortanaなど、一般的な存在になりつつあります。これらのデジタルエージェントは、キーボードやタッチパネルでの情報入力によらず、ユーザーの声に応答して各種の指示や情報を処理することができることは、広く知られているところです。

しかし、これまでの技術では、ユーザーから単純な支持や文字列情報を受け付けて処理することはできても、ユーザーの感情や態度など、文字化できない情報を読みとることはできませんでした。なぜなら、ユーザーの感情等は、発話内容以外の情報にも表れるからです。

そこで、ユーザーの発話から発話内容以外の情報を読み取ることのできるデジタルエージェントが開発されました。エージェントの情報処理方法の一例を挙げると、まず、従来の技術でも可能な、ユーザーの発話内容の特定を行います。このとき、エージェントは音声信号中にユーザーの声が含まれていない時間や、意味をなさない「あのー」とか「えー」などの発声をしている時間を『思考時間』として特定します。この思考時間や、ユーザーの声の大きさなども併せて評価して、ユーザーの応答の確からしさの推定を行うのです。

例えば、思考時間が極端に短い場合などは「ほとんど考えずに応答しているな」と判断し、確信度を低く評価することができるといいます。声の大きさが大きいときは確信度を上げるということも可能です。エージェントは、このようなパラメータを総合的に評価して、ユーザーの応答が「本気」、「確信なし」、「嘘」などといった基準にあてはめ、この結果に基づいて返答の発言内容を変化させることができるようになりました。

このような技術が一般化されると、今後デジタルエージェントに問いかけるときは相手に気に入られるように、こちらが気を使うことになるかもしれませんね。

■従来の課題

ユーザーが発話する音声を受け付け、その音声の内容に応じ情報処理を実行する情報処理装置が知られている。しかし従来の装置では、ユーザーの“音声内容以外の情報(感情や態度など)”を読み取ることは困難であった。

■本発明の効果

本発明の情報処理装置は、ユーザーの音声の中の音声内容以外の情報を読み取ることができる。無音時間(音声信号中にユーザーの声が含まれていないと判定される時間)やフィラー時間(ユーザーが意味をなさない発声をしていると判定される時間)などの解析を通じて、ユーザーがどのような感情を抱いているのか、どのような状態にあるかなどを判定することができる。さらに、具体的には、エージェントからの質問に対する回答が、本気、確信なし、嘘などを予測できる。

■特許請求の範囲のポイントなど

本発明のポイントを下記に示す。

ユーザーの声を集音して得られる音声信号を取得する音声信号取得部と、取得された音声信号を用いて、ユーザーの声が含まれていない時間、及びユーザーが意味をなさない発声をしている時間のそれぞれを独立に評価対象時間として特定する時間特定部と、特定されたユーザーの声が含まれていない時間、及びユーザーが意味をなさない発声をしている時間の双方に応じた出力を行う出力部、を含むことを特徴とする情報処理装置。

本発明の更なるポイントとして、以下が挙げられる。
・前記時間特定部は、取得された音声信号を用いてユーザーの発話内容を認識する処理を実行し、発話内容の認識に失敗した音声信号に対応する時間をユーザーが意味をなさない発声をしている時間として特定することを特徴とする。
・前記出力部は、特定された評価対象時間と、取得された音声信号から認識されたユーザーの発話内容とに応じた出力を行うことを特徴とする。

■全体構成

本発明の情報処理装置の構成を図1に基づいて説明する。

【図1】情報処理装置の構成を示す構成ブロック図

・情報処理装置1は、例えば家庭用ゲーム機や携帯型ゲーム機、パーソナルコンピュータ 、スマートホン等であって、図1に示すように、制御部11と、記憶部12と、インタフェース部13とを含んで構成されている。また、情報処理装置1は、表示装置14、マイクロホン15、スピーカー16、及びカメラ17と接続されている。


・制御部11はCPU等を含んで構成され、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。記憶部12は、RAM等のメモリデバイスを含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。インタフェース部13は、情報処理装置1が表示装置14、マイクロホン15、スピーカー16、及びカメラ17との間で各種の情報を授受するためのインタフェースである。


・表示装置14は、家庭用テレビ受像機や液晶ディスプレイ等であって、情報処理装置1が出力する映像信号に応じた画像を画面上に表示する。マイクロホン15は、情報処理装置1のユーザーが発する声を集音して得られる音声信号を、情報処理装置1に対して出力する。スピーカー16は、情報処理装置1が出力する音声信号に従って音声を鳴動させる。カメラ17は、ユーザーの様子を示す映像を撮像し、撮像された映像を情報処理装置1に入力する。

本発明の情報処理装置1が実現する機能について、図2を用いて説明する。

【図2】情報処理装置の機能を示す構成ブロック図

・情報処理装置1は、機能として、エージェント処理部21、音声信号取得部22、音声認識部23、及び思考時間特定部24を含んで構成されている。これらの機能は、制御部11が記憶部12に記憶されたプログラムに従って動作することにより実現される。


・エージェント処理部21は、ユーザーとコミュニケーションを行う仮想的なエージェントを実現し、エージェントによるユーザーとの会話処理を実行する。具体的に、エージェント処理部21は、音声認識部23によって特定されるユーザーの発話内容を受け付ける。


・音声認識部23は、音声信号取得部22が取得した音声信号を解析することによって、ユーザーの発話内容を特定する。このような発話内容の特定は、統計的手法や動的時間伸縮法など、各種公知の音声認識技術などを用いて実現できる。 ・思考時間特定部24は、音声信号中にユーザーの声が含まれていない時間、及びユーザーが意味をなさない発声をしている時間の少なくとも一方を思考時間として特定する。

■細部

思考時間特定部24によって特定される思考時間の一例を、以下の図面を用いて説明する。

【図3】情報処理装置が特定する指向時間の一例

・ユーザーは、エージェントの質問が再生された後、2秒間沈黙し、3秒間「うー ん」というフィラーを発声し、その後に質問の回答を始めている。この場合、思考時間特定部24は思考時間を5秒間と特定する。なお、ここでは無音時間とフィラー時間がこの順に一度ずつ検出されているが、無音時間とフィラー時間は複数回表れることもあり得る。

また、無音時間とフィラー時間は逆の順序で表れる場合もある。これらの場合も、思考時間特定部24は、無音時間、及びフィラー時間のいずれかと判定される時間が続いていれば、これらの無音時間及びフィラー時間を合算した時間を思考時間として特定するものとする。

エージェントの発言の後に情報処理装置1が実行する処理の流れの一例について、図4のフロー図を用いて説明する。

【図4】情報処理装置が実行する処理の流れの一例を示すフロー図

・まず音声信号取得部22が、マイクロホン15が集音した音声信号を取得する(S1)。音声認識部23及び思考時間特定部24は、処理対象の単位時間に含まれる音声信号中にユーザーの音声が含まれるか否かを判定することによって、無音時間を特定する(S2)。


・無音時間であると特定された場合、S7に進む。無音時間ではないと特定された場合、音声認識部23が処理対象の単位時間に含まれる音声信号から特徴量を算出することによって、音素モデルとのマッチングを行う(S3)。


・マッチングに失敗した場合、すなわち音声信号がいずれの音素モデルにもマッチしないと判定された場合、思考時間特定部24は処理対象の単位時間がフィラー時間であると特定する(S5)。一方、音素モデルとのマッチングに成功した場合、音声認識部23はマッチング結果に従って処理対象の単位時間にユーザーが発した音声の音素を特定する(S6)。


・その後、まだ未処理の単位時間があれば、次の単位時間を処理対象としてS2からS6の処理が繰り返される(S7)。S1で取得した音声信号を分割して得られる全ての単位時間について以上説明した処理が終了すれば、S8の処理に進む。


・次に音声認識部23が、S3における音素モデルとのマッチング結果を用いて単語モデルや言語モデルとのマッチングを実行することにより、ユーザーの発話内容を特定する(S8)。続いて思考時間特定部24が、S2における無音時間の特定結果、及びS5におけるフィラー時間の特定結果を用いて、思考時間を特定する(S9)。


・その後、エージェント処理部21は、S9で特定された思考時間及びS8の発話内容に基づいて次のエージェントの発言を決定する(S10)。そして、決定した発言内容を表す音声信号を生成、出力する(S11)。

展望、結語

本特許に記載の発明によれば、これまで課題とされていたユーザーの音声の中の“音声内容以外の情報”を解析することができ、より高い確度でユーザーの感情を認識することが可能となる。例えば、ヘルスケア(例えば、痛みなどの病気の把握)や小売業界(商品の広告・宣伝)などにおける多種多様なニーズに応えることができるかもしれない。世に与える貢献は非常に大きいものと推察される。

■概要

出願国:日本 発明の名称:情報処理装置
出願番号:特願2017-551560
特許番号:特許第6585733号
出願日:2016年9月08日
公開日:2017年5月26日
登録日:2019年9月13日
出願人:株式会社ソニー・インタラクティブエンタテインメント
経過情報:2019年に特許が登録され、現在も特許は維持されている
その他情報:本特許の出願国は日本及び米国である
IPC:G10L

<免責事由>
本解説は、主に発明の紹介を主たる目的とするもので、特許権の権利範囲(技術的範囲の解釈)に関する見解及び発明の要旨認定に関する見解を示すものではありません。自社製品がこれらの技術的範囲に属するか否かについては、当社は一切の責任を負いません。技術的範囲の解釈に関する見解及び発明の要旨認定に関する見解については、特許(知的財産)の専門家であるお近くの弁理士にご相談ください。

巨大な海中構造物のつくりかた

工場は海の中??

工場は海の中??

海に囲まれた日本では、昔から船舶を始めとした海上・海中構造物を製造する、造船業などの産業は欠かせないものとなっています。一般に、断面径が10m程度の船舶や潜水艇などは、予め陸上のドックで製作し、海上まで牽引することや、パーツごとに分割したものをドックで製作し、海上で水密性を確保した状態で一体化させる方法が採用されています。


しかし、大きさが数100mとなるような大型の海中構造物を構築する場合には、陸上で完成物を作って海上まで牽引することは困難であるし、パーツごとに分割したとしても、すべての分割体を、水密性を維持したまま接合・一体化させることは困難でした。

そこで、新たな海上施工システムとして、海中構造物の球状外殻を、耐水圧性を有した躯体フレーム構造とし、また、フレームの内側には中央タワーを併せて構築することで、外殻が水圧などの外力を受けた場合の変形を防ぐ効果を奏する一方、タワー内に商業施設、例えばホテル、オフィス、共同住宅や社宅などを設けることも可能なものとしました。

このような中央タワーの外側の海上で、海中構造物の外殻を構築し、できたものから海中に沈めていくという施工方法をとることで、巨大な海中構造物が可能となるそうです。快適な海中生活をしながら船舶等の製造に携われるなんて、宇宙ステーションを海の中に作ったようで、なんだかワクワクしませんか?

■従来の課題

船舶・潜水艇などに代表される海中の構造物は、予め陸上の製作し易いドック等の場所で製作し、設置現場の海上まで船で牽引する方法、または、球殻型海中構造物を分割した大きさのものをドック等の場所で製作し、設置現場となる海上でこれら分割された構造体を組み立てて一体化させる方法などによって構築される。

しかしながら、このような従来の方法では、例えば大きさが数百メートル規模の「大型」の海中構造物を構築する場合には、陸上の製作場所で一度に製作することが困難であり、かつ海上輸送も難しく、加えて外殻部の水密性を確保するのが難しくなるため、構造物の安定性が低下するという問題があった。

■本発明の効果

本発明によれば、構造物に安定した外殻部を設けることで、大径の楕円球状であっても安定な構造物を構築することができる。また、本発明の海中構造物は、水中における浮力を調整することができ、海中における上下移動を可能とする。

■特許請求の範囲のポイントなど

本発明のポイントを下記に示す。

海中に設けられ、内部空間を有する外殻部を備えた球殻海中構造物であって、


・メッシュ状に配置されたコンクリート製の躯体フレームと、


・該躯体フレームによって囲まれる部分に水密な状態で嵌合され、耐水圧性及び透明性を 有する耐水圧板を備え、


・前記外殻部の内部には、上下方向に延びる前記外殻部の中心軸に沿う中央タワー部が設 けられ、


・前記中央タワー部は、前記外殻部の中心軸に設けられるコア部と、該コア部の径方向外 側に設けられる中央タワー外殻部を備え、


・前記中央タワー外殻部は、上下方向の多層構造をなしていることを特徴とする球殻海中 構造物。

本発明の更なるポイントとして、以下が挙げられる。
・前記躯体フレームは、三角格子状に形成されていることを特徴とする。
・前記外殻部には、浮力を調整することが可能なバラストが設けられ、バラスト量を変更することで前記外殻部が上下移動することを特徴とする。

本発明の更なるポイントとして、以下が挙げられる。
・前記時間特定部は、取得された音声信号を用いてユーザーの発話内容を認識する処理を実行し、発話内容の認識に失敗した音声信号に対応する時間をユーザーが意味をなさない発声をしている時間として特定することを特徴とする。
・前記出力部は、特定された評価対象時間と、取得された音声信号から認識されたユーザーの発話内容とに応じた出力を行うことを特徴とする。

■全体構成

本発明の球殻型海中構造物の一例を図1及び図2に基づいて説明する。

【図1】球殻海中構造物の全体構成を示した側面図

【図2】球殻海中構造物の内部空間の構成を示す縦断面図

・球殻海中構造物10は、内部空間Rを形成する球状の外殻部11と、外殻部11内の内部空間Rの平面視中央に上下方向に沿って配置される中央タワー部12と、外殻部11の下方に連結されたバラスト13を備えている。


・球殻海中構造物10は、外殻部11の上部の一部分のみを海上に浮上させた状態、全体が海中に潜水させた状態、或いは外殻部11の下部の一部分のみを海中に潜らせた状態など、バラスト13の重量バランスを調整することで、海中における上下移動が可能となるよう構築されている。


・球殻海中構造物10の上部には、内部空間Rへの出入口となるエントランス部15が設けられている。


・中央タワー部12は、図2に示すように、外殻部11の上下方向に延びる中心軸Oに沿って設けられるコア部21(支持柱)と、中央タワー部12の外殻を構成する中央タワー外殻部22を備えている。


・コア部21は、鉄筋コンクリート造であり、上下方向に沿って一定の円形断面により形成されている。


・中央タワー外殻部22は、鉄骨または炭素繊維強化プラスチック(CFRP)より構成される骨組み造であって、コア部21から径方向の外側に離れた位置に配置されている。また、中央タワー外殻部22は、上端及び下端の両側から上下方向の中心に向うに従い、次第に水平断面積が小さくなる「くびれた形状」をとっている。

■細部

本発明の海上施工システムを用いた海上構築方法につき、以下の図面に基づいて説明する。

【図3】球殻海中構造物の施工状態を示す斜視図、(b)外殻部の詳細図

【図4】(a)~(c)海上施工システムを用いた施工手順を示した縦断面

図3及び図4(a)~(c)に示すように、本発明における球殻海中構造物10の海上構築方法は、躯体製造ユニット4における移動式型枠41を外殻部11の所定位置に位置決めする『第1工程』と、移動式型枠41内に混合コンクリート16Cを打設して躯体フレーム16を製造する『第2工程』と、製造された躯体フレーム16によって囲まれる被嵌合部分に仕上げユニット5を配置し、当該被嵌合部分に耐水圧板17を水密に嵌合する『第3工程』からなる。


そして、躯体製造ユニット4及び仕上げユニット5を外殻部11の形状に沿って案内ガイド3によって所定位置に移動させつつ、上記の第1工程、第2工程、及び第3工程を行う制御部で制御する構成となっている。


また、図4(a)~(c)に示すように、外殻部11の施工とほぼ同時に、中央タワー部12の施工も第2揚重設備36及び第3揚重設備37を使用して構築される。

具体的には、第2揚重設備36を使用してコア部21の上端において、スリップフォームを用いてコンクリート打設により上方に延長する。また、張出アーム31、32の下面に沿って水平走行する第3揚重設備37を使用して、鉄骨または炭素繊維強化プラスチック(CFRP)構造からなる中央タワー外殻部22を立ち上げる。なお、これら中央タワー部12に使用する資材に関しても、第1揚重設備35を使用して資材台船8より外殻部11内へ搬入される。

本発明の解錠施工システムを用いた施工状態を図5に示す。

【図5】海上で海上施工システムを用いた施工状態を示す縦断面図

図5に示すように、バラスト13は、外殻部11の海中における浮上位置を制御する機能と、波による外殻部11の振動を制御する機能を有している。バラスト13は、中空球形状をなし、外殻部11の底面から上下方向に複数(ここでは3つ)が連結されている。各バラスト13の内部には砂と空気とが所定の割合で充填されており、その砂と空気との割合を調整することにより浮力が変動される構成となっている。

なお、構築された球殻海中構造物10は、下図(図6)に示すように、状況に応じてバラスト13のバラスト量を調整して浮力を変え、海中において上下移動が可能となっている。例えば、通常時S1は、球殻海中構造物10の上部の一部が海上に出る程度の位置で保持させる。また、台風時S2などで海が荒れて海面付近で波や風の影響が大きい場合には、バラスト13の浮力を通常時S1よりも小さくして球殻海中構造物10を完全に海中に潜水させておくことができる。また、球殻海中構造物10のメンテナンス時S3には、バラスト13の浮力を通常時S1よりも大きくして例えば球殻海中構造物10の上半分以上の部分が海上に出るようにすることができる。

【図6】構築された球殻海中構造物の上下方向の移動状態を示す側面図

展望、結語

本特許に記載の発明によれば、これまで課題とされていた大型の海中構造物の製造困難性、及び海中構造物における外殻部の安定性が低下するという課題を解決し、大径の楕円球状であっても安定な海中構造物を構築することができる。本発明によれは、船舶を含む多種多様な海洋構造物のニーズにも応えることができ、世に与える貢献は非常に大きいものと推察される。

■概要

出願国:日本 発明の名称:球殻海中構造物
出願番号:特願2014-228462
特許番号:特許第6372699号
出願日:2014年11月10日
公開日:2016年5月23日
登録日:2018年7月27日
出願人:清水建設株式会社
経過情報:2018年に特許が登録され、現在も特許は維持されている
その他情報:本特許の出願国は日本のみである
IPC:B63B35/44,B63B5/20,B63B5/24,B63B43/08

<免責事由>
本解説は、主に発明の紹介を主たる目的とするもので、特許権の権利範囲(技術的範囲の解釈)に関する見解及び発明の要旨認定に関する見解を示すものではありません。自社製品がこれらの技術的範囲に属するか否かについては、当社は一切の責任を負いません。技術的範囲の解釈に関する見解及び発明の要旨認定に関する見解については、特許(知的財産)の専門家であるお近くの弁理士にご相談ください。

基礎的学習内容を共有する機械学習ユニット

学んだことを共有するAIたち

学んだことを共有するAIたち

AIに必須の機能である、機械学習に関しては、これまでにも多くの特許が存在しています。特に、複数のAIの関係については、各AIが有する学習モデルと他のAIが有する学習モデルとが類似する場合に、これらの学習モデル全体を合成することによって学習効率を向上させる技術が知られていました。 しかし、昨今AIの普及に伴い、さらに効率的な機械学習を行わせるためのシステムが必要とされています。


そこで、学習装置ユニットに、少なくとも1つの学習装置と、これとは別に、他の学習装置ユニットと共有される部分を有する中間学習装置を備えることとしました。このような構成として、中間学習装置同士を一定の頻度で通信させ、他のユニットと共有をはかることにより、各装置が新しく学んでいる情報と、他の装置が学んで中間学習装置に格納した情報とを同時に処理するほか、個体に固有の情報と、他の個体との間で共有できる情報とを分けて処理することができ、従来よりも効率よく全体の学習成果が向上するというわけなのです。


このような学習装置ユニットは、具体的な適用においては多くの場面が考えられ、例えば自動車関連では、複数の自動車のセンサ情報を効率的に活用すること、製造業においては複数の製造装置・ロボットからの情報を入力し、プロセスの最適化などが図られることなどが期待されます。


以上のような、多くの個体(機器)に搭載された学習装置ユニットが情報を適時に共有することで、これまでのような、各個体が独立に大量にデータを貯めて学習を実行する場合に比べて、より短い時間で学習ができるとのことです。より効率的なAIの学習システムによって、仕事の自動化・スピードアップが実現できるといいですね。

■従来の課題

人工知能を構成する技術の1つとして、機械学習が知られています。人工知能は、例えば、画像認識・翻訳・自動運転などの分野に応用されつつあります。機械学習は、人工知能をさらに発展させるために、さらなる進化が期待されている技術です。

従来、機械学習を利用した学習装置に関連する技術が知られています。特許出願された内容を公開した公開公報においても、学習装置に関する様々な技術が開示されています。しかし、効率的な機械学習を行うことができる学習装置が今も要望されています。

本発明は、上記の問題に鑑みてなされたものであり、効率的な機械学習を行うことができるシステムと、コンピュータプログラムを提供することを目的とします。

■本発明の効果

本発明は、機械学習を用いた学習装置に関し、複数の学習装置ユニットを含むシステム、および、そのシステムを実行するためのコンピュータプログラムに関するものです。本発明では、実に効率的な機械学習を行うことができます。

■特許請求の範囲のポイントなど

本発明のポイントを下記に示す。

本発明の特許請求の範囲における概要を説明します。本発明のシステムは、自動車、製造ロボット、農業、センサなどに応用できるシステムです。


詳細は、後で詳細にご説明しますが、本発明によって、実に効率的な機械学習を行うことができます。


具体的には、複数の学習装置ユニットのうち、1つの学習装置ユニットが学習した情報を、他の学習装置ユニットと共有することができます。よって、効率的に機械学習を進めることができます。

■全体構成

本発明の特許請求の範囲には、大きく分けて、「複数の学習装置ユニットを含むシステム」の発明と、上記システムを実行するための「コンピュータプログラム」の発明とが記載されています。

実施される具体例を概説しますと、以下の通りです。

例えば、食品工場の製造プロセスに上記のシステム等を応用した場合、ベルトコンベアで移動してくる丸型のケーキ及び四角型のケーキに対してそれぞれクリーム及びイチゴを乗せる作業に適用できます。


ベルトコンベア上で撮影された各ケーキの画像を解析し、「クリームを乗せる」、「イチゴを乗せる」、「不良品をはじく」、「ラインを止める」といった判断をさせることができます。より正確にこの判断を実行させるように学習することが可能です。

まず、「複数の学習装置ユニットを含むシステム」について説明します。
本発明の「システム」は、複数の学習装置ユニットを含むシステムです。
各学習装置ユニットは、入力側に配置された入力側学習装置、及び、出力側に配置された出力側学習装置の両方か、又は、いずれか一方と、中間学習装置と、中間学習装置の内部状態の情報を通信するための通信手段とを備えます。


少なくとも1つの中間学習装置は、他の学習装置ユニットの中間学習装置の内部状態(アルゴリズムのようなもの)を、通信手段によって共有するように構成されています。


ただし、各学習装置ユニットは、他の学習装置ユニットの中間学習装置と内部状態を共有する前、共有した後、の両方において、通信手段によって通信しなくても独立して学習を実行できるように構成されています。

また、上記システムを実行するための「コンピュータプログラム」の発明の内容も、上記の内容と同様です。

■細部

本発明の特許請求の範囲には、さらに、下位概念の発明として、以下のような内容の発明も記載されています。上記「システム」は、好ましくは以下のように設計されています。

★上記システムは、好ましくは、すべての学習装置ユニットにアクセス可能な記憶装置(データベースなど)を備えます。各学習装置ユニットの中間学習装置は、その記憶装置から内部状態の情報を取得して、他の学習装置ユニットの中間学習装置と内部状態を共有します。

なお、内部状態を構成する情報は、「重みW」を含みます。これについては、後に説明します。

★上記システムにおいて好ましくは、各学習装置ユニットが、自動車、産業機器、ロボット、温室制御装置、センサと制御装置とを有する機器などに搭載されます。

このような発明を実施するための具体例について、以下に説明します。

■実施形態

図1は、学習装置ユニットが用いられるシステムの構成例を示す模式図です。

【図1】

図1に示すように、このシステム1は、学習装置ユニット10-1~10-Nと、通信回線20に接続されるサーバ装置30と、測定装置40と、出力装置50と、を含みます。学習装置ユニット10-1~10-Nは、それぞれ、学習装置ユニット10-1~10-Nのうちの他の学習装置ユニット及びサーバ装置30と通信回線20によって情報通信することが可能です。

次に、図7に基づいてさらに詳しく説明します。図7は、上述したように、上記のシステムを食品工場に応用した例を説明するための模式図です。ベルトコンベアに乗せられて移動してくる丸型のケーキ、四角型のケーキに、それぞれクリーム及びイチゴを乗せる作業をします。

【図7】

図7(a)に示すように、個体1の学習装置ユニットは、丸型のケーキにクリームを乗せる作業を実施します。図7(b)に示すように、個体2の学習装置ユニットは、四角型のケーキにイチゴを乗せる作業を実施します。

各学習装置ユニットは、ビジョンセンサによって得た入力情報(ケーキの画像)を基にして「物品検出」及び「良品/不良品判定」を行います。
個体1の学習装置ユニットは、ケーキが不良品であると判定した場合に、そのケーキをベルトコンベアからはじき出しますが、ケーキが良品であると判定した場合には、そのケーキの上にクリームを乗せます。


一方、個体2の学習装置ユニットは、ケーキが不良品であると判定した場合に、ラインを止めますが、ケーキが良品であると判定した場合には、そのケーキの上にイチゴを乗せます。

図8に、2つの個体(個体1の学習装置ユニット、個体2の学習装置ユニット)が用いられた例を示します。両方の個体において、入力される情報は、ビジョンセンサの画像データ(ケーキの画像)です。出力される情報は、個体1において「不良品をはじく」及び「クリームを乗せる」であり、個体2において、「ラインを止める」及び「イチゴを乗せる」です。

【図8】

まず、学習装置1(入力側学習装置)に着目します。
図8に示すように、個体1の学習装置ユニットにおいて、入力側学習装置D11は、ビジョンセンサの画像データを入力し、入力を基にして変換した数値等を出力します。この入力側学習装置D11は、学習した後、物体がベルトコンベア上を移動してきたことを検出する機能と、その物体が正常な丸型の形状を有するものであるか否かを判定する機能とを分担できると仮定します。


また、個体2の学習装置ユニットにおいて、入力側学習装置D12は、ビジョンセンサの画像データを入力し、入力を基にして変換した数値等を出力します。この入力側学習装置D12は、学習した後、物体がベルトコンベア上を移動してきたことを検出する機能と、その物体が正常な四角型の形状を有するものであるか否かを判定する機能とを分担できると仮定します。


すなわち、それぞれの学習装置ユニットが異なる処理を分担できると仮定します。

次に、学習装置2(中間学習装置)に着目します。
図8に示すように、中間学習装置D2は、入力側学習装置D11、D12の各出力を入力し、入力を基にして変換した数値等を出力します。


この中間学習装置D2は、学習した後、例外処理(不良品に対する処理)を行うかどうかを判定する結果と、正常品に対する次の作業(製造プロセス)を実行するかどうかを判定する結果と、を表現できると仮定します。

続いて、学習装置3(出力側学習装置)に着目します。
個体1の学習装置ユニットの出力側学習装置D31は、中間学習装置D2の出力を入力し、「不良品をはじく」及び「クリームを乗せる」を出力します。


一方、個体2の学習装置ユニットの出力側学習装置D32は、中間学習装置D2の出力を入力し、「ラインを止める」及び「イチゴを乗せる」を出力します。不良品については、出力側学習装置D31は「不良品をはじく」という指示を示す信号を出力し、出力側学習装置D32は「ラインを止める」という指示を示す信号を出力します。一方、正常品については、出力側学習装置D31は「クリームを乗せる」という指示を示す信号を出力します。

ここで、「重み」について説明します。個体1の学習装置ユニット10-1で機械学習が行われた結果、入力された値の重要度(影響度)に応じて、入力された値(ベクトル)にそれぞれ異なる「重みW」が掛け算されて、出力されます。例えば「重みW」は、重要度が高ければ0.9(90%)、重要度が低ければ0.1(10%)というイメージです。各学習装置の出力を考えるときに、「重みW」が図9に示された通りになっていると仮定し、個体1に搭載された学習装置ユニット10-1が「正しい物体」を検出したとします。


なお、図9では、入力側学習装置D11の重みW11が省略されていますが、物体検出を示す出力については、「1」が出力され、一方、「不良品判定」の出力については「0」が出力されます。

【図9】

中間学習装置D2では、「作業実行判定」を示す出力として「1」が出力され、「例外処理判定」を示す出力として「0」が出力されます。出力側学習装置D31では、「クリームを乗せる」を示す出力として「1」が出力され、「不良品をはじく」を示す出力として「0」が出力されます。
 このように、正しい物体を検出した場合に「クリームを乗せる」という指示を示す信号が出力されます。

次に、図10を参照して、学習装置の「重み」が更新(変更)される様子を説明します。

【図10】

ここで、入力側学習装置D11が「正しい物体」を検出したときに、出力側学習装置D31が「誤った出力を出してしまった」場合を考えます。図10に例示した通り、中間学習装置D2の「重みW2」が不適当な「重み」になっているため、中間学習装置D2の出力が不適当になり、その結果、出力側学習装置D31の出力を誤ったと仮定します。

この場合、図1に示すCPU11が、D31の出力結果と期待値との間の誤差を、「重み」に反映させます。これによって、各学習装置の「重み」がより正しくなるように学習が行われます。


図10には、一例として、W2において、入力側学習装置D11の「物体検出」を示す出力に掛け合わせられる2つの重み「0.9」及び「0.1」がそれぞれ「0.3」及び「0.7」に更新される様子が示されています。


このように更新された後は、入力側学習装置D11が「正しい物体」を検出したときに、出力側学習装置D31が「クリームを乗せる」という指示を示す信号を出力します。

次に、図11を参照して、個体2に搭載された学習装置ユニット10-2による検出動作及び学習について考えます。図11は、不良品を検出したときに「ラインを止める」という動作を行う場合の各学習装置の様子の一例を示しています。

【図11】

中間学習装置D2は、個体1の学習装置ユニット10-1によって学習された「重みW2」をすでに持っています。この重みW2(すなわち、中間学習装置D2の内部状態)は、個体2の学習装置ユニット10-2にも共有されます。すなわち、極端にいえば、学習装置ユニット10-2それ自体は、実際に学習を行わなくとも、他の学習装置ユニットにより行われた学習により得られた中間学習装置D2の内部状態(重み)を利用して、「作業実行判定」及び「例外処理実行判定」を簡単かつ精度良く行うことができます。

さらなる工夫も可能です。図13は、学習装置ユニットを適用した別の具体例を詳細に説明する模式図です。

【図13】

例えば図13に示すように、各学習装置ユニット(例えば個体1の学習装置ユニット10-1)の中間学習装置D21は、すでにある適当な「重み」(内部状態)を通信回線によって取得します。適当な「重み」とは、サーバ装置30等にあるデータベース(記憶装置)に保管された複数の重みの中から選択された重み(内部状態)です。これにより、中間学習装置D21は、選択された重み(内部状態)を利用することができます。

以下、本システムを応用できる分野の具体例を説明します。


(1)自動車
 自動車に搭載されるカメラ、距離センサ、GPSなどのセンサ情報を入力とし、運転支援情報の提示や自動運転を行うことを出力とすることができます。この場合、各自動車から出力されるセンサ情報等を効率的に活用することができます。


(2)製造業
 製造に用いられる複数の製造装置・ロボットからの情報を入力とし、これら製造装置・ロボットに与える指示を出力とすることができます。例えば、高度なロボット制御の実現や、プロセス最適化、異常の予知等において活用できます。


(3)農業
 温室栽培における環境制御に適用可能であり、例えば、温室の外的環境変化に応じた環境制御の実現や、消費エネルギーの最小化、生産品種に応じた栽培方法の共有化等において活用できます。


(4)センサ・制御装置を有する機器全般
 センサ情報の分析結果の提示や機器の制御等において活用できます。従来の手法に比べて、センサ情報の活用にかかる時間的コスト及び精度を改善することができます。

■展望、結語

以上ご説明しましたように、機械学習を用いた学習装置を複数含む本発明のシステム、および、そのシステムを実行するプログラムによって、効率的な機械学習を行うことができます。上述したような工夫が詰め込まれた本発明は、自ら判別や予測の精度を高めることができるため、将来的に注目できるものです。

■概要

出願国:日本 発明の名称:学習装置ユニット
出願番号:特願2015-115532(P2015-115532)
特許番号:特許第5816771号(P5816771)
出願日:2015年6月08日
公開日:2017年1月05日
登録日:2015年10月02日
出願人:株式会社Preferred Networks
経過情報:本出願は、審査において拒絶理由通知を1回受けたあと、手続補正書を提出することによって特許査定となり、特許となりました。
その他情報:本権利は抹消されていません。存続期間満了日は2035年6月8日です。なお、本特許出願を基礎出願にして、国際特許出願され、各国でも特許権を獲得する意向があるようです。
IPC:G06N

<免責事由>
本解説は、主に発明の紹介を主たる目的とするもので、特許権の権利範囲(技術的範囲の解釈)に関する見解及び発明の要旨認定に関する見解を示すものではありません。自社製品がこれらの技術的範囲に属するか否かについては、当社は一切の責任を負いません。技術的範囲の解釈に関する見解及び発明の要旨認定に関する見解については、特許(知的財産)の専門家であるお近くの弁理士にご相談ください。