コロキアムB発表

日時: 07月15日 (Tue) 3限目(13:30-15:00)


会場: L1

司会: 本司 澄空
池野 敦哉 M, 2回目発表 ユビキタスコンピューティングシステム 安本 慶一, 清川 清, 諏訪 博彦, 松井 智一
title: Verification of Virtual Human Detection Sensor Accuracy Using Digital Twin for Optimal Placement
abstract: With the advancement of IoT technologies, smart services based on indoor activity recognition have gained increasing attention. Among various sensing methods, human detection sensors are privacy-friendly, but their performance highly depends on placement and orientation, making optimal configuration essential. This study places virtual human detection sensors in a 3D digital twin environment under the same conditions as a real smart home and compares their detection behavior with that of real sensors. Using a 1-second time window, the virtual sensors showed high consistency with the real sensors (Accuracy: 0.87, Recall: 0.72), confirming their reproducibility. Currently, we are extending the system to support automatic sensor placement and dynamic behavior generation using LLM-based agents to estimate optimal configurations.
language of the presentation: Japanese
発表題目: 宅内デジタルツインを用いた仮想人感センサの精度検証と最適配置に向けた検討
発表概要: IoT技術の発展に伴い,宅内での行動認識に基づいたスマートサービスの実現が注目されている.中でも人感センサはプライバシー性に優れるが,その検出性能は設置位置や向きに大きく依存するため,最適な配置設計が求められる.本研究では,実環境と同一条件の3Dデジタルツイン上に仮想人感センサを配置し,その検出挙動を実センサと比較した.1秒ウィンドウでの一致率はAccuracy 0.87,Recall 0.72と高く,仮想センサの再現性が確認された.現在は,仮想センサの配置自動化および,LLMエージェントによる生活行動の動的生成を取り入れた最適配置推定へと発展を進めている.
 
若山 ことみ M, 2回目発表 ユビキタスコンピューティングシステム 安本 慶一, 清川 清, 諏訪 博彦, 松井 智一

title: A Proposal for a Stress Management Smart Mirror for Behavioral Change Based on Counterfactual Machine Learning

abstract: In recent years, the number of workers experiencing high levels of stress in their professional and personal lives has been increasing, highlighting the need for systems that facilitate early detection of mental health issues and promote behavioral change.

This study proposes a system that collects data such as heart rate and activity history from wearable devices and smartphones, and uses a counterfactual machine learning model to infer “what would have happened if a different action had been taken.” The system then provides real-time suggestions for actions effective in reducing stress.


In the validation experiment, five participants wore Fitbit devices for ten days while behavior data was collected via smartphones. Based on the collected data, a personalized stress prediction model was constructed for each participant, and feedback was provided based on the inferred information. The effectiveness of the proposed system in promoting behavioral change and reducing stress was evaluated using a combination of physiological indicators, NASA-TLX scores, and behavior logs.


As a result, the root mean square error (RMSE) of the linear regression model, adopted as the base model for DiCE, ranged from 4.161 to 5.601 across participants, while the mean absolute error (MAE) ranged from 2.650 to 4.206 (target score: frustration level from 1 to 20). Additionally, some participants reported modifying their behavior based on the messages presented by the system.


In the future, based on the results of the validation experiments, we plan to improve the system and develop a functional smart mirror.

language of the presentation: Japanese

 
鶴貝 拓海 M, 2回目発表 光メディアインタフェース 向川 康博, 清川 清, 舩冨 卓哉, 藤村 友貴, 北野 和哉
title: Virtual restoration of 3D cultural properties from old photographs using differentiable rendering
abstract:The 3D digital preservation of cultural properties that has become popular in recent years has the problem that it only records the "present" appearance and has yet to reproduce the original appearance and historical atmosphere of the original construction. Solving this problem would faithfully restore the original historical value of cultural properties in a digital space,and would greatly contribute to academic research,education,and the creation of new appreciation experiences. In this study,we propose a two-step optimization method using differentiable rendering to address this issue.First,the camera position is estimated using a 3D model and an old photograph.Next,the texture of the 3D model is brought closer to the hue of the old photograph by isolating the influence of the light source using the chromatic match as an indicator. As a result,we were able to partially update the texture of the 3D model to the color of the old photograph in the area observable from the estimated single viewpoint.
language of the presentation: Japanese
発表題目: 微分可能レンダリングを用いた昔の写真からの3D文化財の仮想修復
発表概要: 近年普及する文化財の3Dデジタル保存は、「現在」の姿の記録にとどまり、建設当初の姿や歴史的な雰囲気の再現には至っていないという課題がある。 この課題を解決することで、文化財が持つ本来の歴史的価値をデジタル空間に忠実に復元し、学術研究や教育、さらには新たな鑑賞体験の創出に大きく貢献できると考えられる。 本研究では、この課題に対し、微分可能レンダリングを用いた2段階の最適化手法を提案する。まず3Dモデルと昔の写真を用いてカメラ位置を推定し、次に色彩的な一致を指標として光源の影響を分離して、3Dモデルのテクスチャを昔の写真の色合いに近づける。 結果として、推定された単一視点から観測可能な領域において、3Dモデルのテクスチャを昔の写真の色彩へと部分的に更新することができた。
 
柳 龍哉 M, 2回目発表 光メディアインタフェース 向川 康博, 清川 清, 舩冨 卓哉, 藤村 友貴, 北野 和哉
title:Continuous Function Representation of Advection in Numerical Weather Models Using Neural Networks
abstract: Recently, there has been growing demand for visualizing physical phenomena in order to promote understanding of the mechanisms behind heavy rainfall events and help mitigate their impacts. However, the physical quantities produced by numerical weather models are extremely large in volume, making visualization difficult. Moreover, since these models output data at discrete grid points, meaningful visualization requires interpolation with high accuracy. In this study, we focus on atmospheric advection, which plays a key role in precipitation processes, and propose a method that combines data compression using neural networks with an interpolation technique based on continuous function representations. To capture the complexity of advection fields efficiently, we explore neural fields that employ geometric transformations capable of representing both rotational and translational components. We evaluate three approaches, namely linear interpolation, a fully connected neural network (MLP) and our proposed method, comparing their requirements in terms of data size and accuracy.
language of the presentation: Japanese
発表題目:数値気象モデルにおける移流のニューラルネットワークを用いた連続関数表現
発表概要: 近年、豪雨被害の抑制に向けて、その発生メカニズムの理解を促進するために、物理現象の可視化が求められている。しかし、数値気象モデルで扱われる物理量はデータ量が膨大であり、可視化処理は容易ではない。さらに、これらのモデルはグリッド上の離散データとして出力されるため、可視化には高精度な補間が不可欠となる。そこで本研究では、降雨に重要な役割を果たす大気の移流に着目し、ニューラル手法による移流データの圧縮と、連続関数表現を用いた補間手法を提案する。複雑な移流場の効率的な表現として、回転および並進成分を表現可能な幾何変換のニューラル場の利用を検討した。本研究では、線形補間法、全結合ニューラルネットワーク(MLP)、および提案手法の3つの手法について、データサイズと精度の両面から検証を行った。
 

日時: 07月15日 (Tue) 3限目(13:30-15:00)


会場: L2

司会: 織田 泰彰
高橋 慧 D, 中間発表 ロボットラーニング 松原 崇充, 和田 隆広, 柴田 一騎, 鶴峯 義久, 佐々木 光
title: Feasibility-aware Imitation Learning from Observation through a Hand-mounted Demonstration Interface
abstract: Imitation learning using human demonstrations through a demonstration interface is expected to learn policies for robot automation from intuitive human demonstrations. However, due to the differences in human and robot movement characteristics, a human might unintentionally demonstrate an action that the robot cannot execute. To address this, we propose a feasibility-aware behavior cloning from observation (FABCO). In the FABCO framework, the feasibility of each demonstration is assessed using the robot’s pre-trained forward and inverse dynamics models. This feasibility information is provided as feedback to the human, encouraging them to refine their demonstrations. In addition, a robust policy is learned from the collected demonstrations using an action chunking approach. We validated the effectiveness of FABCO by applying it to a tracing task using a demonstration interface. Four humans participated in this experiment to assess the impact of feasibility feedback and robust policy learning in FABCO. Additionally, we used the NASA Task Load Index (NASA-TLX) to evaluate the workload induced during demonstrations with and without feasibility feedback.
language of the presentation: Japanese
 
曽田 涼介 M, 2回目発表 ロボットラーニング 松原 崇充, 和田 隆広, 柴田 一騎, 鶴峯 義久, 佐々木 光
title: Deep Reinforcement Learning for Flexible Multi-robot Cooperative Transportation
abstract: In this study, we develop a framework of multi-agent reinforcement learning (MARL) that enables a swarm of robots to cooperatively transport a variety of objects. Conventional MARL approaches struggle to generalize to diverse objects under partial observability, where information such as physical properties, object shape, and forces exerted by other robots cannot be directly observed. To address this, we propose an adaptive MARL framework that leverages privileged information (e.g., physical properties and object shapes) and other agents’ observations during training, while relying only on observable information at execution time. We demonstrate the effectiveness of the proposed method through cooperative transportation simulations using two mobile manipulators.
language of the presentation: Japanese
発表題目: 柔軟な群ロボット協調輸送のための深層強化学習
発表概要: 本研究では,群ロボットが多様な物体を協調輸送可能なマルチエージェント強化学習(MARL)の枠組みを開発する.従来のMARLは,物体の物理特性,形状,他のロボットが加えている力など観測不可能な情報がある部分観測下では,多様な物体への適用が困難であった.本研究では,訓練時は物理特性や形状などの特権情報,および他のロボットの観測を用いて活用し,実行時は観測情報のみを用いて行動を決定する,適応的なMARLの枠組みを提案する.2台のモバイルマニピュレータを用いた協調輸送シミュレーションにより,提案手法の有効性を示す.
 
服部 舜 M, 2回目発表 ロボットラーニング 松原 崇充, 和田 隆広, 柴田 一騎, 鶴峯 義久, 佐々木 光
title: Imitation Learning of Visuomotor Policies from Limited Demonstrations for Deformable Object Manipulation
abstract: Automating manipulation tasks involving deformable objects remains a pressing challenge, as building accurate simulations and designing rule-based controllers for such objects is infeasible. Imitation learning offers a promising alternative by directly learning control policies from demonstrations without requiring explicit object models. However, existing imitation learning approaches struggle to generalize under the severe visual variability and limited data inherent to deformable-object manipulation. In this work, we propose a visuomotor policy learning framework that learns robust control policies for deformable-object manipulation from a limited number of demonstrations. To evaluate our method, we design a picking task featuring diverse object deformations and environmental variations. Experimental results show that the proposed approach achieves reliable performance in both in-distribution and out-of-distribution scenarios, robustly handling object geometry variations and environmental shifts.
language of the presentation: Japanese
発表題目: 不定形物操作のための少数教示データによる視覚行動方策の模倣学習
発表概要: 精緻なシミュレーションの構築やルールベースでの制御則の適用が困難な、不定形物を対象とした作業の自動化が期待されている。行動方策の模倣学習は対象のモデルを必要としないため、モデル化が困難な対象に対して有効な自動化手段であると考えられる。しかし、不定形物に起因する視覚的多様性や少数データ制約により、既存の模倣学習手法では自動化が困難である。そこで本研究では、不定形性に起因するモデル化困難作業の自動化を目的とし、不定形物操作のための少数教示データによる視覚行動方策の模倣学習手法を提案する。また、提案手法の有効性を評価するため、不定形物を用いた把持タスクを設計した。実験結果から、提案法は分布内および分布外環境において、対象の変形や周囲環境の変化に対して頑健であることが確認された。
 
林 航平 M, 2回目発表 ロボットラーニング 松原 崇充, 和田 隆広, 柴田 一騎, 鶴峯 義久, 佐々木 光
title: Sim2Real Reinforcement Learning for Garment Disentanglement
abstract: In this study, we investigate a method for automatically disentangling garments using a robot, focusing on cases such as laundry entanglement in washing machines. Garment entanglement is difficult to perceive visually due to occlusions, and even identical configurations may require different disentangling strategies depending on frictional properties, making conventional approaches inapplicable. To address this, we propose a strategy that determines grasping points and pulling directions from visual observations and detects whether the garment loosens or tightens based on force feedback obtained from the pulling action, thereby implicitly accounting for the hidden structure and friction. This strategy is learned through reinforcement learning using visual and force observations in a simulator and transferred to a real robot via a Sim2Real framework. To improve training efficiency, the garment is approximated as a one-dimensional structure, and a Teacher-Student privileged learning framework is introduced. This presentation reports on the proposed method and current progress.
language of the presentation: Japanese
発表題目: 衣類の絡まりを解くのためのSim2Real強化学習
発表概要: 本研究では、洗濯機などで生じる衣類の絡まりをロボットにより自動で解く手法を検討する。布の絡まりは視覚的に構造が把握しづらく、同じ絡まり方でも摩擦により解き方が異なるため、従来の紐の結び目解消手法は適用が難しい。そこで、視覚情報から把持点と引張方向を決定し、引張り行動によって得られる力覚情報から緩みや締まりを検出することで、絡まり構造や摩擦を考慮した戦略の獲得を目指す。この戦略は、視覚・力覚観測に基づく強化学習方策をシミュレータ上で学習により獲得し、実機への転送を行うSim2Realフレームワークで実現する。さらに、学習効率を高めるため、布を一次元構造で近似し、Teacher-Studentによる特権学習を組み合わせた手法を提案する。本発表では、手法の概要と進捗について報告する。
 

日時: 07月15日 (Tue) 3限目(13:30-15:00)


会場: L3

司会: Isidro Butaslac
大西 達也 M, 2回目発表 脳・行動モデリング 田中 沙織, 荒牧 英治, CAI LIN, 荻島 大凱

title: Elucidating the Effect of Video Viewing Styles on Cognitive Function

abstract: Frequent engagement in an "efficiency-oriented" YouTube viewing style-characterised by accelerated playback, skipping ahead, and rapid switching between videos-has been empirically linked to decreased executive function and heightened boredom. Yet, empirical evidence clarifying the causal direction of this relationship remains limited. Using a combination of real-world YouTube viewing-behavior logs, self-report questionnaire data, and objective electroencephalography (EEG), this study aims to determine whether increasing the frequency of these viewing behaviors directly induces declines in cognitive function (executive function and sustained attention) and intensifies subjective boredom.

発表題目: 動画の視聴スタイルが認知機能に与える影響の解明

発表概要: 倍速、スキップ、動画間の素早い切り替えを特徴とする「効率志向」のYouTube視聴スタイルを頻繁にとることは、持続的注意や実行機能低下と、退屈感の増大を引き起こすことが懸念されている。しかし、この因果関係の方向性を明らかにする根拠は限られたままである。本研究は、実生活におけるYouTube視聴行動データ、質問紙による自己報告データ、そして脳波(EEG)計測を組み合わせることにより、これらの視聴行動の頻度を高めることが、認知機能(実行機能および持続的注意)の低下を引き起こし、主観的な退屈感を強めるかどうかを明らかにすることを目的とする。

 
徳山 美智子 M, 2回目発表 サイバネティクス・リアリティ工学 清川 清, 田中 沙織, 内山 英昭, Perusquia Hernandez Monica, 平尾 悠太朗