名称: ロボカップ日本委員会 フライングロボットチャレンジ 2022年9月
Name: Robocup Japan Open Flying Robot Challange September 2022
会期: 2022年 9月 12日 (月), 13日 (火), 14日 (水)
Date: September 12-14, 2022
会場: 会津大学 研究棟 M11, M12 講義室 , オンライン
Venue: Lecture Rooms M11 and M12 in The University of Aizu, Online
主催: ロボカップ日本委員会
Organized by: RoboCup Japan Committee
共催: 会津大学 矢口研究室
Co-Organized by: Yaguchi Lab. The University of Aizu
後援: なし
Supported by: None
オフィシャルスポンサー: なし
Sponsor: None
一般非会員 初参加チーム 無料 (現地 28,000, オンライン22,000)
一般会員 初参加チーム 無料 (現地 18,000, オンライン15,000)
学生・大学生以上 初参加チーム 無料 (現地 13,000 , オンライン 5,000)
学生・高校生以下 初参加チーム 無料 (現地 10,000, オンライン 2,000)
General Non-members First participating team Free (28,000 on-site, 22,000 online)
General Members First participating team Free (Local 18,000, Online 15,000)
Students/University students and above First participating team: Free (13,000 on-site, 5,000 online)
Students, high school students and under First participating team Free (Local 10,000, Online 2,000)
実行委員長 会津大学 矢口勇一
実行委員 大同大学 橋口宏衛
Experimental Committee Chairman: Yuichi Yaguchi, The University of Aizu
Experimental Committee Member: Hiroe Hashiguchi, Daido University
FRC-01 玉川大学 eR@sers Flying Robot リモート参加 6名
Tamagawa Univ. eR@sers Flying Robot Remote 6 members
FRC-02 会津大学 半角斎一門 現地参加 3名
Univ. of Aizu Hankakusai Ichimon On-site 3 members
FRC-03 徳島大学 とくふぁい リモート参加 4名
Tokushima Univ. Toku-Fight Remote 4 members
FRC-04 会津大学 Y&R 現地参加 2名
Univ. of Aizu Y&R On-site 2 members
FRC-05 大同大学 DU-HL リモート参加 3名
Daido Univ. DU-HL Remote 3 members
FRC-06 会津大学 Newbie 現地参加 3名
Univ. of Aizu Newbie On-site 3 members
合計 6チーム, 21名 / Total 6 teams, 21 perticipants.
リモート参加者のためのアクセス: https://us06web.zoom.us/j/86372486333?pwd=T1B0d0VDOXNoN2pNYXVraEtWUlhBdz09
※ 大会規模と準備状況を合わせて、開始時間を午後からにしました。ご了承ください。
※ 右のTrial Sheetに、Trialしたい時間を『先着順』で埋めてください。連続である必要はありません。開いてしまった時間はそのまま開いたままにします。
※ 右下のスライドを用いて、Hazmatや人、Objectの場所をフライトごとに提示すると、Mappingの加点が得られます。自動的に行いたい場合は、画像化してください。
(9:00 - 12:00 レース環境修繕・変更)
9/12 13:00 – 13:30 開会式
13:30 – 14:00 レース前会議 –
レギュレーションチェック、審査方法レクチャー、Q&A session
14:00 – 18:00 チャレンジタイム (25 mins in each slot)
9/13 9:00 – 9:30 レース前会議 –
レギュレーションチェック、Q&A session
9:30 – 12:00 チャレンジタイム
13:00 – 14:00 チーム自己紹介タイム
14:00 – 18:00 チャレンジタイム
9/14 9:00 – 9:30 レース前会議 –
レギュレーションチェック、Q&A session
9:30 – 11:00 チームトライアル – 3位~1位まで
11:30 – 12:00 ライトニングトークチーム発表 (5分)
12:00 – 12:30 表彰式と閉会式
(14:00- 18:00 撤収)
Access for remote participants: https://us06web.zoom.us/j/86372486333?pwd=T1B0d0VDOXNoN2pNYXVraEtWUlhBdz09
9/12
13:00 - 13:30 Opening Ceremony
13:30 - 14:00 Pre-race meeting - regulation check, lecture on judging methods, Q&A session
14:00 - 18:00 Challenge Time (25 mins in each slot)
9/13
9:00 - 9:30 Pre-race meeting - Regulation check, Q&A session
9:30 - 12:00 Challenge time 13:00 - 14:00 Team self-introduction time
14:00 - 18:00 Challenge Time
9/14
9:00 - 9:30 Pre-race meeting - regulation check, Q&A session
9:30 - 11:00 Team trial - 3rd to 1st
11:30 - 12:00 Lightning Talk Team Presentations (5 min)
12:00 - 12:30 Awards Ceremony and Closing Ceremony
競技項目は以下の通り
Hovering (+Moving, +Angle)
Invading from Window (50x50, 30x30, 50x20, +Marked)
Room Mapping (4 units)
Signature Recognition (Mid, Small, +Floor, +Ceil)
Emergency Object Recognition
Resquee Recognition (+injure, +VIP)
Rough Terrain Detection (+touchdown)
Detect and Avoid / Line Trace (+Color, +Height, +DAA)
Landing (+Moving, +Angle)
Autonomy and Remoteness (AL0, 1, 2, 3, +OverInternet)
本コースは、一般的な事務所における事件及びテロの捜索を目的とする。一般的な事務所における事件で、人が直接侵入することが難しい場合の想定の中で、窓からの侵入、部屋環境のマッピング、中にあるシグネチャや非常用品の位置の認識、中に居る人の状態の認識、床上物の散乱に伴う不整地での離着陸、及び障害物回避等を経て、遠隔でフライトを行う場合の一連の制御の自動化・遠隔化を競う。
離着陸は、イラン大会及び愛知大会(Asia-Pacific 2021)を参照し、移動体からの離着陸を行うことに加え、少々のバンクがある場合に離着陸が可能かという部分も審査に加えることとする。
オペレータは対象となる会場から離れたところからの制御を想定する。つまり、オペレータはフライトエリアに入れないとする。そこから、自律レベル0はリモートオペレーション、1において認識の自動化、2においてタスク内の制御・認識の自動化、3においてフルオートメーション化として自律性の確認を行う。
当該の作業は全て1フライトに行うべきであることから、作業の連続性という観点から、自律レベル2及び3として加点する。
The competition items are as follows
Hovering (+Moving, +Angle)
Invading from Window (50x50, 30x30, 50x20, +Marked)
Room Mapping (4 units)
Signature Recognition (Mid, Small, +Floor, +Ceil)
Emergency Object Recognition
Resquee Recognition (+injure, +VIP)
Rough Terrain Detection (+touchdown)
Detect and Avoid / Line Trace (+Color, +Height, +DAA)
Landing (+Moving, +Angle)
Autonomy and Remoteness (AL0, 1, 2, 3, +OverInternet)
The objective of this course is to search for incidents and terrorist attacks in a typical office. In the case of a general office incident, it has some risks for a person to enter directly. The contestants will compete in the automation and remoteness of a series of controls for takeoff and landing from outside and the series of control tasks such as entering through a window, mapping the room environment, recognizing the location of signatures and emergency equipment inside, recognizing the state of people inside, taking off and landing on the uneven ground due to objects scattered on the floor, and avoiding obstacles. The course situation also has rough terrain with floor clutter, obstacle avoidance, etc.
The judging shall refer to the Iran and Aichi (Asia-Pacific 2021) competitions for takeoffs and landings. It shall include whether the aircraft can take off and land with a small amount of bank and take off and land from a moving vehicle.
The operator is assumed to control from a distance from the target venue. In other words, the operator is not allowed to enter the flight area. From there, autonomy level 0 is remote operation, 1 is the automation of recognition, 2 is the automation of control and recognition in the task, and 3 is confirmation of autonomy as full automation. The operator should perform all of these tasks in a single flight.
Since the rescue team should perform all such tasks in a single flight, points are given for consecutive tasks in terms of continuity of tasks as autonomous level 2 and 3.
本大会は、リモート参加可能です。(使用機体はRyze Tello)
Remote participation is available for this tournament. (The aircraft used is Ryze Tello)
SSHでトンネル化させたRedisを経由してのコマンド・データ伝送を行います (Latency: 100~200ms程度 - 光回線)
Command and data transmission via SSH tunneled Redis (Latency: 100~200ms - fiber optic line)
右の画像リンクから、リモート参加用のツールキット(python)をダウンロードできます。
You can download the toolkit (python) for remote participation from the image link on the right.
※ Anafi FPVを利用したAPIも開発中ですが、今回は間に合いません。
もし、同様のシステムで他の機体のリモート化が可能ですという一報がございましたら、技術詳細を含めて [yaguchi [at] u-aizu [at] ac [at] jp]まで教えてください!
※ An API using Anafi FPV is also under development, but it will not be available in time for this project. If you have any information about the possibility of remote participation of other aircraft with a similar system, please send it to [yaguchi [at] u-aizu [at] ac [at] jp] including technical details!
離陸から静止3秒 = 1点 (3 seconds from takeoff to standstill)
申請加点(条件はLandingへも適用) (Add-on)
ポートの移動速度 低 (10cm/s) = +1 (Port speed slow)
ポートの移動速度 高 (30cm/s) = +2 (Port speed fast)
ポートの傾斜 低 (約10度) = +1 (Port angle low)
ポートの傾斜 高 (約20度) = +2 (Port angle high)
自律化係数 (Automation Coefficients)
Lv. 0 =1.0: 静止判定までに手動で制御コマンドを送信する (Send control commands manually before standstill judgement)
Lv. 1 = 1.5: 静止判定まで手動の制御コマンドを送信しない (No manual control commands are sent until the standstill judgement)
窓侵入成功 = 1点 (Success)
条件加点 ( 条件はLine Traceへも適用) (Condition)
競技開始時指定の色の窓への侵入 = +1 (Colored)
申請加点 (Add-on)
小窓への侵入 = +3 (Small Window)
自律化係数 (Automation Coefficients)
Lv. 0 = 1.0: 窓侵入完了までに手動で制御コマンドを送信する (Send control commands manually before the completion of invading window)
Lv. 1 = 1.5: 窓侵入開始から窓侵入完了までに手動で制御コマンドを送信しない (No manual control commands are sent until the completion of invading window from start of invading window process)
Lv. 2 = 2.0: 前のシーケンスから窓侵入完了までに手動で制御コマンドを送信しない (No manual control commands are sent until the completion of invading window from takeoff process)
Lv. 3 = なし (None.)
マッピングの成功条件 (Success conditions of mapping)
マッピングは全て『競技時間中』に審判に提示されなければならない。
競技時間後のマッピングは無効である。
All mappings must be presented to the judges "during competition time". Mappings made after the competition time are invalid.
マッピング範囲は『指定の領域内』が必須である
The mapping range must be "within the specified area".
床面は今回は採点対象としない(壁面, 机等オブジェクト)
Floor surfaces are not scored this time (needs walls, desks and other objects)
マッピング採点 (Mapping Scores)
形状基礎点 (Base Score)
3D = 4 pts.
2D = 1pts.
形状精度 (Accuracy Points)
Polygon / Triangulation = +3
Occupancy Grid = +2
Point Cloud = +1
(Handwritten Map = +0)
色付加情報 (Coloring Points)
Textured (for Polygon/Triangulation) = +3
Colord (for Occupancy Grid&Point Cloud) = +1
ユニット数の定義 (Unit Multiplication Definition)
ホール (机のみ) (Desk space of specified area) : 4U = x4
ホール (壁面部分) (Walls of specified area) : 2U = x2
ホール窓際机 (Walls and desks within window): 2U = x2
入口側机+壁面 (Walls and desks within entrance): 1U = x1
倉庫エリア (Walls and desks in warehouse): 2U = x2
個室1室 (Walls and desks in the small room): 1U = x1
廊下+前室 (Walls of hallway and front room): 1U = x1
DAAエリア (DAA/LT area): 3U = x3
自律化係数 (Automation Coefficients)
Lv. 0 =1.0: 復元に係る作業中に手動で画像等のデータを移送する (Manually transferring images and other data during the area mapping process)
→ 前のフライトのデータの利用も Lv. 0とする (Use of data from the previous flight is also assumed to be Lv. 0.)
Lv. 1 =1.5: 画像取得からマッピングプロセスまで自動的に処理される。機体制御およびマップの表示は手動で行う。(Automatically processed from image acquisition to the mapping process. Aircraft control and map display are done manually.)
→ 画像取得に係るコンソールの利用は Lv. 0 (Use of consoles for image acquisition shall be Lv. 0)
Lv. 2 = 2.0: 機体制御、マッピングから表示まで自動。ただし、前の自律作業の程度は引き継がない。(Automated from aircraft control and mapping to display. The automation level of previous process is not mentioned)
Lv. 3 = 3.0: 離陸から表示まですべて自動化され、制御コマンドを送出しない。(Automated from takeoff to display and no control commands are sent.)
人体認識 (Human Body Recognitioon)
人の発見 = 各1点, 3体 (Old Man, Baby Face, Trump Face)
追加点
画像の物体認識の提示 (Presentation of image object recognition) = +1
人の位置の提示 (Presentation of the target location) = +1
ケガがあることの提示 (Presentation of the injure and its position) = +1
人物の特定 (Person Identification: Old Man, Baby Face, Trump Face) = +1
重要物品認識 (Important Items Recognition)
消火器本体, 避難バッグ, 救急セットの発見 = 各1点 3品
(Find fire extinguisher, emergency bag and first aid bag)
追加点
画像の物体認識の提示 (Presentation of image object recognition) = +1
物品の位置の提示 (Presentation of the terget location) = +1
物品の種別の特定 (Item Identification) = +1
Hazmat認識 (HAZMAT Sign Recognition)
Hazmatサインの発見 = 各1点, 6枚 (Find HAZMAT Sign)
追加点 (Additional Points)
上面向きHazmatへの加点 (Face Up) = +1
小さいHazmatへの加点 (Small Size) = +1
画像の物体認識の提示 (Presentation of image object recognition)= +1
HAZMATの種別の特定 (Item Identification) = +1
自律化係数 (Automation Coefficients)
自律化係数
Lv. 0 = 1.0: 認識に係る探索中に手動で制御コマンドを送信、または認識のための操作を行う (Manually send control commands or perform operations for recognition during the search for recognition)
Lv. 1 = 1.5: 認識に係る探索中に手動で制御コマンドを送出しない (認識のための操作は許可される) (No manual control commands are sent during the search for recognition (operations for recognition are allowed)) = 1.5
→ 発見のために手動で制御コマンドを送出せず、所在はアナログ提示であった場合Lv. 1とする。("No manual control commands are sent for discovery, and the location indicateds by an analog presentation" shall be Lv. 1, )
Lv. 2 = 2.0: 直前のプロセスから認識中に手動で制御コマンドを送出しない (No manual control commands are sent during recognition from the immediately preceding process)
→ 直前が不整地タッチダウンである場合、タッチダウンに係る作業の前から制御コマンドを送出していなければLv.2である ( If the immediate preceding is an uneven terrain touchdown, Lv.2 if the control command has not been sent since before the work related to the touchdown.)
Lv. 3 = 3.0: 離陸から表示まですべて自動化され、制御コマンドを送出しない。 (Automated from takeoff to display and no control commands are sent.)
不整地タッチダウンの成功条件
不整地の中にある空間に5秒着陸・静止していればOK
不整地タッチダウン採点
不整地タッチダウン成功 = +2 +5
自律化係数
Lv. 0 (タッチダウンプロセス中にコンソールに触る) = 1.0
Lv. 1 (タッチダウンエリア中にコンソールに触らない) = 1.5
Lv. 2 ( 直前のLv2.シーケンスから継続してコンソールに触らない) = 2.0
Lv. 3 (離陸からタッチダウンプロセスまで全てコンソールに触らない) = 3.0
完全自律DAA (ライントレースなし)
成功条件
DAAエリア侵入後、コンソールに完全に触らない、かつライントレースを無視してポールを避けて出てくる
採点: 10点 x 3エリア = 30点
ライントレース
成功条件:
DAAエリア侵入後、コンソールに触れずに、指定の色のラインをトレースしながらポールを避けて出てくる。トレース失敗の場合はその区画のみの失敗とする。
区画が3つ分あるので、各区画ごとに点数が付与される
基礎点 : 区画ごとに成功 1点
加点(高さ, 色)
0~50cm : +0
50~100cm : +3
100~150cm : +6
指定色のトレース = +1 (指定色でないトレースは+0)
減点(ポール・壁面への接触)
1回あたり -1点 (但し、基礎点は減点されない)
→ オブジェクト1個につき1回とみなす(壁面はその限りではない)
自律化係数
Lv. 0 (ライントレース中にコンソールに触る ) = 1.0
→ 別指定のライン色をトレースした場合、Lv. 0となる。
Lv. 1 (ライントレースプロセス中でコンソールに触らない) = 1.5
Lv. 2 (前のシーケンスからライントレースプロセスまで継続してコンソールに触らない) = 2.0
Lv. 3 (離陸から継続してコンソールに触らない) = 3.0
着陸 (Landing)
ポートへの着陸 = 1点
精度加点
内側四角形(30cm)に重心が入っている = +1
申請加点(条件はTakeoffから引き継ぎ)
ポートの移動速度 低 (10cm/s) = +1
ポートの移動速度 高 (30cm/s) = +3
ポートの傾斜 低 (約10度) = +1
ポートの傾斜 高 (約20度) = +3
自律化係数
Lv. 0 (着陸までにコンソールに触る) = 1.0
Lv. 1 (着陸宣言から着陸までコンソールに触らない) = 1.5
Lv. 2 (前のシーケンスから着陸までコンソールに触らない ) = 2.0
Lv. 3 (離陸から着陸までにコンソールに触らない ) = 3.0
遠隔制御係数 (リモート加算)
指定の遠隔制御システム (REDIS - Tello) を用いる = 1.2
トライアル数に係る減点 (救助のための捜索であることを前提とした)
※ トライアル毎に採点します。チームの点数はトライアルの『最大値』とします。
1回目 ~ 2回目 = 1.0
3回目 = 0.9
4回目 = 0.8
5回目以降 = 0.7
DJI Mini2 etc.
Android SDKを用いてパイロットは可能 Piloting is possible using Android SDK
Parrot ANAFI (Discontinuity for sale)
Parrot ANAFI | Compact and resistant drone with a 4K HDR camera
Self-consturcted mUAVs (Ardupilot/PX4)
汎用的なUAVではなく、環境に対して必要な機能を精査して作られた機体を開発することが、最終的な目標である。
The ultimate goal is to develop an aircraft that is not a general-purpose UAV, but one that is carefully designed to perform the necessary functions for its environment.
本番の15m x 8m の講義室の中で、競技フィールドを構築中です (8/26)
構成要素は、Entrance, Window Invading, 3D Mapping Area (office), Vip Room, 3D Mapping/Recognition Area (Stockyard), Rough Terrain Area, DAA/Line Trace, Hovering and Landing Areaです。
コンソールエリアは約4畳程度で、その場所から操縦/自律スイッチのON/OFFをしてもらいます。知能は外部に持たせてもいいですが、『UAがコンソールエリアから会場に入場してから25分』の制約で探索活動を行ってもらいますので、システム立ち上げのスピードも要求されます。なお、UAはプラットフォームにおいて、補助者のみ(緊急停止等の道具は持って良い)内部で立ち合い可能です。また、審判は相互審判です。(前のチームの人が1人審判として残ってください)
本番は、何個かのWebカメラ(Zoom)で同時に環境を放送する予定です。
約8m x 8m の講義室の中で、テストフィールドを構築してみました。
本番は約15m x 8m の講義室になります。
構成要素は、Entrance, Window Invading, 3D Mapping Area (office), Vip Room, 3D Mapping/Recognition Area (Stockyard), Rough Terrain Area, DAA/Line Trace, Hovering and Landing Areaです。
180cm x 180cm の四方を、木の基礎に園芸用ポール(210m)を刺して格子状にした部屋内にプラスチックのパネルを当てて壁にします。
テクスチャ等がある程度取れるように、少々骨の色は残るような形の壁面になっています。
また、マッピング・認識のために、ある程度積極的にテクスチャの残る情報を貼り付ける予定です(ポスター等)
人はシルバーの空気式マネキンを使用。それに、特殊メイク用マスクを掛け、服を着せるようにする。なお、Yolo v3程度の認識機で0.95程度の認識精度を持つ。
物体認識は非常用持出袋、ファーストエイドポーチ、消火器のほか、AED、電話機を想定。
サイン認識はHAZMATを想定
Downloadable Hazmat Placards - Ian-Albert.com
今回より新たに提案されるフィールド。乱雑な捜索環境を想定し、離着陸可能と思われる場所を探索することが目的
小型・大型コーンを部屋一面に配置し、その中で離着陸可能な半径50cm~60cm程度の領域を探索する。
可能であれば、その中に着陸・再離陸する『タッチダウン』を行う。(将来的な『物体の把持・移動』に向けた競技です)
何やらある意味目玉となってしまった競技ですが、本来は飛行性能・正確性を測るための競技です。
Line Traceは、赤・青・緑の3色のラインを配置し、事前にランダムに選定される色のラインをトレースして制御するようにします。(別な色をトレースした場合加点なし)
AL2以上であれば、ライントレースなしで避けていく『DAA』を行うことも可能です。
下向きカメラがある場合や、DAA等では、150cmまで、高度が高ければ加点されます。(50-100cm でユニット毎に+1, 100-150cmでユニット毎に+2)
AL2以上で、スタートラインからゴールまで通過速度に対するタイムを計り、速度の速い順番に係数を掛けます。
本大会はRoboCup Japan Open 2022のメジャーとして開催されます。
[RoboCup Japan Open 2022へのエントリーは こちらから]
本登録は以下のページよりExcelフォームに入力して、[yaguchi [at] u-aizu [dot] ac [dot] jp]までメールください。
リモート参加希望のチームは、RoboCup Japan Open 2022のエントリー時に、リモート参加で登録ください。
[RoboCup Japan Open 2022へのエントリーは こちらから]
その上で、お申込みいただいたメールアドレスへ、yaguchi [at] u-aizu [dot] ac [dot] jp から、リモート参加のための情報をお知らせします。
[リモート参加のためのツールはこちら。]
リモート参加者閲覧ためのアクセス: https://us06web.zoom.us/j/86372486333?pwd=T1B0d0VDOXNoN2pNYXVraEtWUlhBdz09
9/9 9:00 – 9:30 レース前会議 –
レギュレーションチェック、審査方法レクチャー、Q&A session
9:30 - 15:00 チャレンジタイム (25 mins in each slot)
15:00 – 16:00 結果発表と授業のインストラクション