OHNISHI Ayumi | |
Graduate School of Engineering / Department of Electrical and Electronic Engineering | |
Assistant Professor | |
Electro-Communication Engineering |
Dec. 2022 電通国際情報サービス, MITテクノロジレビュー Innovators Under 35 Japan 2022 特別賞「ISID賞」
Nov. 2022 MITテクノロジーレビュー, Innovators Under 35 Japan 2022
Oct. 2022 情報処理学会, 特選論文, 圧力センサ付きスティックを用いた聴覚フィードバックによるフィールドホッケーのプッシュ上達支援システム
Jun. 2019 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2020), ヤングリサーチャ賞
Jul. 2018 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2018), 優秀プレゼンテーション賞
Jun. 2017 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2017), 優秀プレゼンテーション賞
Jul. 2015 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2016), 優秀プレゼンテーション賞
Jul. 2014 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2014), ヤングリサーチャ賞
Jul. 2014 情報処理学会マルチメディア , 分散, 協調とモバイルシンポジウム (DICOMO2014), 優秀論文賞
[Refereed]
Scientific journal
[Refereed]
Scientific journal
本研究の目的は,小学校低学年児童を対象とした児童主体の行動選択とICT活用型事後学習を含む新たな避難訓練プログラムを開発することである。開発されたプログラムは,危険とその対処法を踏まえた事前学習,及び,児童が学んだ災害特性に応じて避難経路や避難行動を主体的に選択する避難訓練の実施,さらに避難行動時の児童の発話や行動についてICT機器を用いて記録し,それらを用いたリフレクションを行う事後学習である。国立大学附属小学校第1学年児童31名を対象に,開発されたプログラムを実施した結果,次の3点が示唆された。(1)児童が,事前学習で学んだ災害特性を,避難経路選択や,避難行動選択の判断指標として活用していること,(2)児童が,自身の避難経路選択や避難行動選択の適切性を客観的に判断することができること,(3)児童が,プログラムの実施によって学んだ災害特性への知識を,教師主導の避難訓練においても適応していること。
Japan Society for Science Education, 18 Dec. 2022, JSSE Research Report, 37 (4), 23 - 28, English[Refereed]
International conference proceedings
With the popularization of head-mounted displays (HMDs), many systems for human augmentation have been developed. This will increase the opportunities to use such systems in daily life. Therefore, the user interfaces for these systems must be designed to be intuitive and highly responsive. This paper proposes an intuitive input method that uses natural gestures as input cues for systems for human augmentation. We investigated the appropriate gestures for a system that expands the movements of the user’s viewpoint by extending and contracting the neck in a video see-through AR environment. We conducted an experiment to investigate natural gestures by observing the motions when a person wants to extend his/her neck. Furthermore, we determined the operation method for extending/contracting the neck and holding the position through additional experiments. Based on this investigation, we implemented a prototype of the proposed system in a VR environment. Note that we employed a VR environment since we could test our method in various situations, although our target environment is AR. We compared the operability of the proposed method and the handheld controller using our prototype. The results confirmed that the participants felt more immersed using our method, although the positioning speed using controller input was faster than that of our method.
01 May 2022, Sensors, 22 (9), English[Refereed]
Scientific journal
本論文では,パソコンを利用した作業時のキー入力を身体動作で置き換えることにより,運動不足を解消するシステム,DeskWalkを提案する.長時間の座位作業は健康に悪影響がある.歩行や立ち上がりを行うことでその影響を低減できるが,これらは作業の中断をともなう.DeskWalkは下肢に取り付けたストレッチセンサで歩行と同等に筋肉が動く動作を認識し,それらの対象動作にあらかじめ割り当てたキーの入力を行う.これにより,ユーザは座位作業を続けながら運動ができる.さらに,日常生活での運動を記録しておき,座位作業時にDeskWalkを用いて不足分の運動を補わせるアプリケーションを提案,実装した.評価実験の結果,DeskWalkは対象動作を平均F値0.98と高精度に認識できた.システム使用時は未使用時と比較して2割から3割程度入力速度が減少したが,通常のパソコン作業において問題のない速度で入力ができていた. We propose DeskWalk, which is an exercise system that replaces key inputs with body movements. Prolonged sitting significantly compromises health. Previous studies have shown that walking and standing during sedentary work can reduce the negative effects of prolonged sitting. However, these movements interrupt the work of the user. DeskWalk allows a user to exercise during his/her work. It recognizes the body movements using stretch sensors attached to the lower limbs and replaces them with preassigned key inputs. In preliminary experiments, we determined three target movements that involved muscle activities equivalent to walking. We implemented a system to measure steps using a smartphone and to perform exercises similar to the walking motion with DeskWalk. The average F-value of the motion recognition rate was 0.98. The input speed when using Deskwalk was 20% to 30% less than when not using Deskwalk, which was confirmed to be an acceptable speed for daily use.
[出版社不明], 15 Feb. 2022, 情報処理学会論文誌, 63 (2), 468 - 481, Japanese[Refereed]
Scientific journal
Apnea or sleep apnea syndrome is a condition in which a person unconsciously stops breathing during a sleeping state for longer than a certain timeframe. Multiple long-term apnea events induce various impairments. However, apnea detection in hospitals is an intensive and complicated procedure, resulting in a high rate of non-diagnosis and a low awareness of the disease. Existing wearable devices for apnea detection mostly use heartbeat signal patterns and SpO2 levels to detect the disease; however, because apnea is a respiratory impairment, it is believed that using the breathing pattern is the most straightforward approach in apnea detection. Several recent studies investigated whether swallowing frequency during sleep can increase along with the apnea severity. However, the number of wearable devices using swallowing to detect apnea is extremely limited. Thus, this study proposes a wearable system to recognize human contexts such as breathing, heartbeat pattern, and swallowing using an audio sensor. Experiments were conducted to compare and obtain the most suitable parameters for the system such as the window sizes, types of audio feature values, and classification algorithms. A prototype of the device was built and is able to detect breathing, swallowing, heartbeat, oral sounds, and body movement. The results show the highest accuracy of 76.9% when using a 1-s window size and Mel's frequency cepstral coefficient features in contact microphone data.
2021, ICIIBMS 2021 - 6th International Conference on Intelligent Informatics and Biomedical Sciences, 266 - 273, English[Refereed]
International conference proceedings
Subtitles (captions displayed on the screen) are important in 3D content, such as virtual reality (VR) and 3D movies, to help users understand the content. However, an optimal displaying method and framework for subtitles have not been established for 3D content because 3D has a depth factor. To determine how to place text in 3D content, we propose four methods of moving subtitles dynamically considering the balance between the vertical/horizontal and depth of gaze shift. These methods are used to reduce the difference in depth or distance between the gaze position and subtitles. Additionally, we evaluate the readability of the text and participants' fatigue. The results show that aligning the text horizontally and vertically to eye movements improves visibility and readability. It is also shown that the eyestrain is related to the distance between the object and subtitles. This evaluation provides basic knowledge for presenting text in 3D content.
IEEE COMPUTER SOC, 2021, 2021 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY ADJUNCT PROCEEDINGS (ISMAR-ADJUNCT 2021), 127 - 132, English[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
Symposium
Symposium
Symposium
Symposium
Symposium
Symposium
Symposium
Symposium
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
Symposium
Symposium
[Refereed]
Symposium
[Refereed]
Scientific journal
Scientific journal
[Refereed]
International conference proceedings
[Refereed]
International conference proceedings
Symposium
Symposium
Symposium
[Refereed]
International conference proceedings
Symposium
Symposium
Symposium
Learning activities were evaluated using questionnaire survey, video, or audio. However, these methods have the following problems. First, writing on the questionnaire paper is difficult, especially for little children. Second, because the answering questionnaires was performed after the experiments were finished. They were different temporally and spatially from the scene to be evaluated. Moreover, sometimes participants has forgot the part of the contents. Finally, by recording video or audio, we can look back at each scene and evaluate them, however, video or audio analysis takes a very long time. This research aims to solve these three problems and evaluate natural reactions first, for children of a low age group, second, including changes in the state of participants during an activity, and third, as much as possible without wasting time and effort. In this paper, during storytelling events for children, we attempted to obtain the values of acceleration and angular velocity sensors with sensors placed on the participant’s heads, and tried to estimate their motions and degree of interests. Motions were calculated using the F-value, with accuracies of 0.66 in “Sitting state”, 0.26 in “Sitting again”, 0.47 in “Wriggling”, and 0.93 in “Playing with hands”. From these results, “Playing with hands” had the highest degree of interest, with a motion recognition rate of 0.93 in F-value. Comparing the proposed method with the video evaluation later, the proposed method can obtain the evaluation result during the learning activity. Therefore, by feeding back the estimation result in real time, we can make improvements while doing activities.
Springer Verlag, 2017, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 10272, 353 - 363, English[Refereed]
International conference proceedings
Symposium
Symposium
[Refereed]
Symposium
ダンスショーでは,ダンサーが振付師の指導通りに踊るが,振付師は口では説明できないリズムの取り方をした振付を作成する場合があり,その部分を指導することが難しい.それ故にダンサーは複雑なリズムの振付に対し,どのようにリズムを取って踊っていいかわからない.そこで、振付師が意識した楽曲パートをダンサーに伝えられるシステムを提案した.調査と実験の結果,本システムに対する需要と効果が期待できることがわかった.
23 Aug. 2021, (2021), 126 - 134, JapaneseCOVID-19 の影響で遠隔授業が急速に増加しているが,どのように遠隔授業を行えば授業の質が高まるかは模索の段階である.遠隔授業の質を高めるために,現在の大学等の授業では,双方向性を確保することが重視されている.遠隔授業には多様な形式があるが,授業形式によって双方向性の度合いが異なると考えられる.しかし,双方向性の違いが授業の質に与える影響はまだ調査されていない.そこで本論文では,双方向性の違いが授業の質に与える影響を調査するため,対面授業と,遠隔リアルタイム授業で他の学習者の顔映像が映る場合と映らない場合の 3 つの授業形式における受講者の顔映像と心拍情報を取得し,各授業形式における受講者の集中度や覚醒度を調査した.同時に,遠隔授業での表出を対面と比較した.調査の結果,講師と対面する状態,遠隔リアルタイムで顔を映す状態,遠隔リアルタイム授業で顔を映さない状態の順で受講者の集中度,覚醒度が高いことがわかった.また,遠隔授業における表出が相手を意識した評価行動であるとは結論付けられなかった.これらの結果より,遠隔授業で顔を映すこと,そして対面授業で講師が受講者に働きかけるように,遠隔授業でも講師が受講者に働きかけることが遠隔授業の質を高めると考えられる.
23 Jun. 2021, 2021 (1), 363 - 373, Japaneseヘッドマウントディスプレイなどの頭部装着型デバイスの普及に伴い,それらを用いた人間の身体拡張に関する研究が注目を集めている.身体拡張システムの操作方法においてコントローラなどの入力デバイスを用いると咄嗟の操作が難しいことや操作を覚える必要があることといった問題がある.そこで,本研究では直観的に操作が行えるように人間の自然な動作 (ジェスチャ) を入力のキーにする.本論文では,広角・高解像度のカメラが搭載されているビデオシースルー AR を用いて首を自在に伸縮・移動することによって視点の移動を拡張する身体拡張システムを題材とし,このようなシステムのためのジェスチャ入力方法を検討した.提案システムとして VR 空間内の迷路で首が上方向に伸びる身体拡張システムを実装した.そして,検討したジェスチャによる操作とコントローラによる操作で操作性を比較するための評価実験を行った.実験の結果,被験者に共通してコントローラによる操作が操作性において優れていることが分かった.また,主観評価ではジェスチャによる操作で没入感が得られるということが分かった.
23 Jun. 2021, 2021 (1), 1341 - 1349, Japanese集中時等における瞬目の減少は,ドライアイをはじめとする様々な疾患を引き起こす原因となる.瞬目を促す手法については数多くの研究が行われてきた.しかし,視覚情報の変化が激しい状況で瞬目を促すと,瞬目によって視界が遮られた瞬間に重要な情報を見逃してしまう恐れがある.そこで本研究では,瞬目によって視界が遮断されても問題のないタイミングで反射性瞬目を誘発することで,ユーザのタスクに支障をきたさないように瞬目を増加させるシステムを提案する.本論文ではまず,簡単なコンピュータゲームのプレイ中にゲーム画面を遮断することで,適切な瞬目タイミングを調査する実験を行った.その結果,不適切な瞬目タイミングの存在とゲーム中における適切な瞬目タイミングの個人差が確認された.次に,空気を目に向けて吐出するデバイスを実装し,ゲーム中にシステムを使用した際の反射性瞬目の誘発率と瞬目回数を調査した.瞬目の誘発率は 21.4% と低かったが,瞬目回数は無刺激と比較して増加した.
23 Jun. 2021, 2021 (1), 197 - 204, Japaneseヘッドセットに装着した加速度センサで話し合い時の状態を記録し,記録したデータとミーティング中の録画動画からミーティング中の状態を判定した.
Dec. 2013, ユビキタス・ウェアラブルワークショップ2013 (UWW 2013)論文集, 7, Japanese議論時にリアルタイムで参加者の表出データを取得するために次のような実験装置を開発した.実験装置は,議論の当事者自身がポジティブ/ネガティブな心的状態かどうかを自己申告するためのワイヤレス押しボタン(bluetooth接続)とそれを収集・記録・集計するためのスマホアプリ,頭部の動きを検知するモーションセンサーと瞬きを検知する眼電位センサーを内蔵する眼鏡型デバイス(JINS MEME)とそのデータを収集・記録・集計するためのスマホアプリ,心電位計とモーションセンサーを内蔵する心拍センターとそのデータを収集・記録・集計するためのスマホアプリ,および動作主の表情をとらえるビデオカメラ(スマホ)からなる. 上記実験装置を用いて研究討議の場面からデータを取得し,分析した.動作主の顔動画から人手でポジティブ/ネガティブと分類した表出データと,動作主本人が押しボタンによって申告したポジティブ/ネガティブの心的状態との一致度を調べたところ,評価基準を甘めに見積もっても74~90%程度の一致率しかなく,自己申告データを機械学習のための教師データとして用いるには精度が不十分だということが判明した.しかも,押しボタンを押すという行為が議論への没頭の妨げになり,押すか押さないかの判断やタイミングもむずかしいということが分かった.このため,自己申告データではなく,表情を分析するソフトを用いてポジティブ/ネガティブの判断ができるかどうかを検証してみることにした. 今後は表情分析ソフトまたは人手による解析データを教師データとして,主として眼鏡型デバイスから動作主のポジティブ/ネガティブの状態を推測することを目標に研究開発する.